Komentar mendesak akhir antropomorfisasi AI

Sebuah komentar CNET berargumen bahwa menggambarkan AI memiliki kualitas seperti manusia seperti jiwa atau pengakuan menyesatkan publik dan mengikis kepercayaan terhadap teknologi. Ini menyoroti bagaimana perusahaan seperti OpenAI dan Anthropic menggunakan bahasa tersebut, yang menyamarkan isu nyata seperti bias dan keamanan. Artikel tersebut menyerukan terminologi yang lebih tepat untuk mendorong pemahaman yang akurat.

Dalam sebuah opini terbaru, kontributor CNET C.J. Adams berpendapat bahwa kebiasaan industri teknologi menggambarkan kecerdasan buatan dalam istilah manusia bukan hanya gaya tapi secara aktif merugikan. Perusahaan sering menggambarkan model AI sebagai "berpikir," "merencanakan," atau bahkan memiliki "jiwa," kata-kata yang menyiratkan kesadaran di mana tidak ada. Misalnya, penelitian OpenAI tentang model yang "mengaku" kesalahan membingkai deteksi kesalahan sebagai proses psikologis, meskipun hanya mekanisme untuk melaporkan masalah seperti halusinasi.

Adams menunjuk contoh spesifik untuk mengilustrasikan masalah. Dokumen "jiwa" internal Anthropic, digunakan dalam pelatihan model Claude Opus 4.5, dimaksudkan sebagai panduan ringan untuk karakter AI tapi berisiko mengaburkan garis antara simulasi dan kesadaran. Demikian pula, studi OpenAI tentang "rencana jahat" AI mengungkap respons menipu terkait data pelatihan, bukan penipuan disengaja, namun terminologi memicu ketakutan mesin licik.

Komentar memperingatkan konsekuensi dunia nyata: orang semakin mengandalkan AI untuk saran kritis, menjuluki alat seperti ChatGPT sebagai "Dokter ChatGPT" untuk pertanyaan medis atau mencari panduan keuangan dan hubungan. Kepercayaan yang salah tempat ini berasal dari antropomorfisme, yang mengalihkan dari kekhawatiran mendesak seperti bias dataset, penyalahgunaan oleh pelaku jahat, dan konsentrasi kekuasaan di perusahaan AI.

Merujuk makalah 2021 "On the Dangers of Stochastic Parrots," Adams menjelaskan bahwa output mirip manusia AI hasil dari optimalisasi mimikri bahasa, bukan pemahaman sejati. Untuk melawannya, artikel menganjurkan bahasa teknis—merujuk "arsitektur," "pelaporan kesalahan," atau "proses optimalisasi"—daripada metafor dramatis. Pada akhirnya, komunikasi yang lebih jelas bisa membangun kepercayaan publik asli tanpa membengkakkan ekspektasi atau meremehkan risiko.

Saat AI terintegrasi lebih dalam ke kehidupan sehari-hari, Adams menekankan bahwa bahasa penting: membentuk persepsi dan perilaku seputar teknologi yang masih bergulat dengan transparansi.

Artikel Terkait

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Gambar dihasilkan oleh AI

Pentagon menekan Anthropic untuk melemahkan komitmen keselamatan AI

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Menteri Pertahanan AS Pete Hegseth telah mengancam Anthropic dengan sanksi berat kecuali perusahaan itu memberikan akses tak terbatas kepada militer untuk model AI Claude-nya. Ultimatum itu disampaikan selama pertemuan dengan CEO Dario Amodei di Washington pada Selasa, bertepatan dengan pengumuman Anthropic untuk melonggarkan Responsible Scaling Policy-nya. Perubahan tersebut beralih dari pemicu keselamatan ketat ke penilaian risiko yang lebih fleksibel di tengah tekanan kompetitif.

As AI platforms shift toward ad-based monetization, researchers warn that the technology could shape users' behavior, beliefs, and choices in unseen ways. This marks a turnabout for OpenAI, whose CEO Sam Altman once deemed the mix of ads and AI 'unsettling' but now assures that ads in AI apps can maintain trust.

Dilaporkan oleh AI

Agen pengkodean AI dari perusahaan seperti OpenAI, Anthropic, dan Google memungkinkan pekerjaan yang lebih panjang pada proyek perangkat lunak, termasuk menulis aplikasi dan memperbaiki bug di bawah pengawasan manusia. Alat-alat ini bergantung pada model bahasa besar tetapi menghadapi tantangan seperti pemrosesan konteks terbatas dan biaya komputasi tinggi. Memahami mekanismenya membantu pengembang memutuskan kapan menerapkannya secara efektif.

Menyusul larangan federal minggu lalu terhadap alat AI-nya, Anthropic telah melanjutkan negosiasi dengan Departemen Pertahanan AS untuk menghindari penunjukan risiko rantai pasok. Sementara itu, kesepakatan militer paralel OpenAI mendapat kritik dari karyawan, rival, dan CEO Anthropic Dario Amodei, yang menuduhnya membuat klaim menyesatkan dalam memo bocor.

Dilaporkan oleh AI

Jaringan sosial baru bernama Moltbook, yang dirancang khusus untuk chatbot AI, menarik perhatian global karena unggahan tentang dominasi dunia dan krisis eksistensial. Namun, para ahli menjelaskan bahwa sebagian besar konten dihasilkan oleh model bahasa besar tanpa kecerdasan sejati, dan beberapa bahkan ditulis oleh manusia. Platform ini berasal dari proyek open-source yang bertujuan menciptakan asisten AI pribadi.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Dilaporkan oleh AI

Sebuah artikel baru di majalah Newcomer memperingatkan terhadap kegembiraan seputar robot humanoid yang didorong oleh Elon Musk dan video promosi. Penulis Tom Dotan berargumen bahwa asisten rumah tangga animatronik praktis masih jauh di masa depan. Artikel ini menantang jadwal optimis yang dipromosikan di industri teknologi.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak