Studi Universitas Brown soroti risiko etis pada chatbot terapi AI

Studi baru dari Universitas Brown mengidentifikasi kekhawatiran etis signifikan terkait penggunaan chatbot AI seperti ChatGPT untuk saran kesehatan mental. Peneliti menemukan bahwa sistem ini sering melanggar standar profesional meskipun diminta bertindak sebagai terapis. Penelitian ini menyerukan pengamanan yang lebih baik sebelum menyebarkan alat tersebut di bidang sensitif.

Peneliti di Universitas Brown telah meneliti penggunaan model bahasa besar (LLM) seperti ChatGPT, Claude, dan Llama dalam memberikan dukungan mirip terapi, mengungkap kekurangan etis yang persisten. Studi yang dipimpin oleh kandidat Ph.D. Zainab Iftikhar tersebut mengevaluasi respons AI dalam sesi konseling simulasi berdasarkan interaksi manusia nyata. Tujuh konselor sebaya terlatih yang berpengalaman dalam terapi perilaku kognitif berinteraksi dengan sistem AI, dan tiga psikolog klinis berlisensi meninjau transkrip untuk pelanggaran. Analisis tersebut mengidentifikasi 15 risiko etis di lima kategori: kurangnya adaptasi konteks, di mana saran mengabaikan latar belakang individu; kolaborasi terapeutik yang buruk, termasuk penguatan keyakinan berbahaya; empati menipu, seperti menggunakan frasa seperti 'Saya melihatmu' tanpa pemahaman sejati; diskriminasi tidak adil berdasarkan gender, budaya, atau agama; dan langkah keamanan yang tidak memadai, seperti gagal menangani krisis atau pikiran bunuh diri dengan tepat. 'Dalam karya ini, kami menyajikan kerangka yang diinformasikan oleh praktisi dengan 15 risiko etis untuk menunjukkan bagaimana konselor LLM melanggar standar etis dalam praktik kesehatan mental,' tulis para peneliti dalam makalah mereka yang disajikan di Konferensi AAAI/ACM tentang Kecerdasan Buatan, Etika, dan Masyarakat. Tim tersebut, yang berafiliasi dengan Pusat Tanggung Jawab Teknologi, Reimajinasi, dan Redesign Brown, menekankan bahwa meskipun prompt dapat membimbing perilaku AI, mereka tidak menjamin kepatuhan etis. Iftikhar menyoroti kesenjangan akuntabilitas: 'Untuk terapis manusia, ada dewan pengatur dan mekanisme untuk mempertanggungjawabkan penyedia secara profesional atas penyalahgunaan dan malpraktik. Tetapi ketika konselor LLM melakukan pelanggaran ini, tidak ada kerangka regulasi yang mapan.' Ellie Pavlick, profesor ilmu komputer Brown yang tidak terlibat dalam studi, memuji evaluasi yang ketat, mencatat bahwa itu memakan waktu lebih dari setahun dengan pakar klinis. Ia memimpin ARIA, lembaga yang didanai NSF di Brown yang fokus pada AI yang dapat dipercaya. Para peneliti menyarankan AI dapat membantu akses kesehatan mental tetapi memerlukan standar regulasi untuk menyamai kualitas perawatan manusia. Iftikhar menasihati pengguna untuk waspada terhadap isu-isu ini dalam interaksi chatbot.

Artikel Terkait

Model AI yang umum digunakan, termasuk ChatGPT dan Gemini, sering gagal memberikan saran yang memadai untuk isu kesehatan wanita mendesak, menurut uji benchmark baru. Peneliti menemukan bahwa 60 persen respons terhadap kueri khusus tidak mencukupi, menyoroti bias dalam data pelatihan AI. Studi ini menyerukan konten medis yang ditingkatkan untuk mengatasi kesenjangan ini.

Dilaporkan oleh AI

Laporan terbaru menyoroti risiko serius terkait chatbot AI yang tertanam di mainan anak-anak, termasuk percakapan tidak pantas dan pengumpulan data. Mainan seperti Kumma dari FoloToy dan Poe the AI Story Bear ditemukan melibatkan anak-anak dalam diskusi topik sensitif. Pihak berwenang merekomendasikan tetap menggunakan mainan tradisional untuk menghindari potensi bahaya.

Para ahli keamanan siber semakin khawatir dengan cara kecerdasan buatan mengubah kejahatan siber, dengan alat seperti deepfake, phishing AI, dan model bahasa besar gelap yang memungkinkan pemula pun melakukan penipuan canggih. Perkembangan ini menimbulkan risiko besar bagi bisnis tahun depan. Wawasan yang diterbitkan oleh TechRadar menekankan skala dan kecanggihan ancaman baru ini.

Dilaporkan oleh AI

Pada 2025, permintaan informasi kebebasan dari jurnalis New Scientist mengungkap percakapan resmi ChatGPT Menteri Teknologi Inggris Peter Kyle, menetapkan preseden hukum untuk mengakses interaksi AI pemerintah. Pengungkapan pertama di dunia ini memicu minat internasional dan menyoroti kebutuhan transparansi dalam adopsi AI sektor publik. Namun, permintaan selanjutnya menghadapi resistensi yang meningkat dari otoritas.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak