Sebuah komentar CNET berargumen bahwa menggambarkan AI memiliki kualitas seperti manusia seperti jiwa atau pengakuan menyesatkan publik dan mengikis kepercayaan terhadap teknologi. Ini menyoroti bagaimana perusahaan seperti OpenAI dan Anthropic menggunakan bahasa tersebut, yang menyamarkan isu nyata seperti bias dan keamanan. Artikel tersebut menyerukan terminologi yang lebih tepat untuk mendorong pemahaman yang akurat.
Dalam sebuah opini terbaru, kontributor CNET C.J. Adams berpendapat bahwa kebiasaan industri teknologi menggambarkan kecerdasan buatan dalam istilah manusia bukan hanya gaya tapi secara aktif merugikan. Perusahaan sering menggambarkan model AI sebagai "berpikir," "merencanakan," atau bahkan memiliki "jiwa," kata-kata yang menyiratkan kesadaran di mana tidak ada. Misalnya, penelitian OpenAI tentang model yang "mengaku" kesalahan membingkai deteksi kesalahan sebagai proses psikologis, meskipun hanya mekanisme untuk melaporkan masalah seperti halusinasi.
Adams menunjuk contoh spesifik untuk mengilustrasikan masalah. Dokumen "jiwa" internal Anthropic, digunakan dalam pelatihan model Claude Opus 4.5, dimaksudkan sebagai panduan ringan untuk karakter AI tapi berisiko mengaburkan garis antara simulasi dan kesadaran. Demikian pula, studi OpenAI tentang "rencana jahat" AI mengungkap respons menipu terkait data pelatihan, bukan penipuan disengaja, namun terminologi memicu ketakutan mesin licik.
Komentar memperingatkan konsekuensi dunia nyata: orang semakin mengandalkan AI untuk saran kritis, menjuluki alat seperti ChatGPT sebagai "Dokter ChatGPT" untuk pertanyaan medis atau mencari panduan keuangan dan hubungan. Kepercayaan yang salah tempat ini berasal dari antropomorfisme, yang mengalihkan dari kekhawatiran mendesak seperti bias dataset, penyalahgunaan oleh pelaku jahat, dan konsentrasi kekuasaan di perusahaan AI.
Merujuk makalah 2021 "On the Dangers of Stochastic Parrots," Adams menjelaskan bahwa output mirip manusia AI hasil dari optimalisasi mimikri bahasa, bukan pemahaman sejati. Untuk melawannya, artikel menganjurkan bahasa teknis—merujuk "arsitektur," "pelaporan kesalahan," atau "proses optimalisasi"—daripada metafor dramatis. Pada akhirnya, komunikasi yang lebih jelas bisa membangun kepercayaan publik asli tanpa membengkakkan ekspektasi atau meremehkan risiko.
Saat AI terintegrasi lebih dalam ke kehidupan sehari-hari, Adams menekankan bahwa bahasa penting: membentuk persepsi dan perilaku seputar teknologi yang masih bergulat dengan transparansi.