Illustration depicting linguists studying why human language resists compression like computer code, contrasting brain processing with digital efficiency.
Illustration depicting linguists studying why human language resists compression like computer code, contrasting brain processing with digital efficiency.
Gambar dihasilkan oleh AI

Studi mengeksplorasi mengapa bahasa manusia tidak dikompresi seperti kode komputer

Gambar dihasilkan oleh AI
Fakta terverifikasi

Model baru dari para linguis Richard Futrell dan Michael Hahn menunjukkan bahwa banyak ciri khas bahasa manusia—seperti kata-kata yang familiar, urutan yang dapat diprediksi, dan makna yang dibangun langkah demi langkah—mencerminkan batasan pada pemrosesan informasi berurutan daripada dorongan untuk kompresi data maksimum. Karya ini diterbitkan di Nature Human Behaviour.

Bahasa manusia sangat kaya dan rumit. Dari perspektif teori informasi, ide-ide yang sama bisa, secara prinsip, ditransmisikan dalam string yang jauh lebih ringkas—mirip dengan bagaimana komputer merepresentasikan informasi menggunakan digit biner.  nnMichael Hahn, linguis di Universitas Saarland di Saarbrücken, Jerman, dan Richard Futrell dari Universitas California, Irvine, berusaha menjawab mengapa ucapan sehari-hari tidak menyerupai kode digital yang dikompresi ketat. Dalam makalah yang diterbitkan di Nature Human Behaviour pada November 2025, para peneliti menyajikan model di mana struktur “mirip bahasa alami” muncul ketika komunikasi dibatasi oleh batas prediksi berurutan—berapa banyak informasi yang harus dibawa maju dari apa yang sudah didengar untuk mengantisipasi apa yang akan datang selanjutnya.  nnDalam kerangka itu, bahasa mendapat manfaat dari pola-pola yang mudah diproses oleh manusia sebagai aliran. Ringkasan ScienceDaily dari karya tersebut, mengutip materi dari Universitas Osaka, menggunakan contoh untuk mengilustrasikan ide tersebut: kata buatan seperti “gol” untuk konsep hibrida (setengah kucing dan setengah anjing) akan sulit dipahami karena tidak memetakan secara bersih ke pengalaman bersama, dan campuran acak seperti “gadcot” sama sulitnya ditafsirkan. Sebaliknya, “kucing dan anjing” langsung bermakna.  nnPara peneliti juga menunjuk pada urutan kata sebagai sinyal yang membantu pendengar mengurangi ketidakpastian secara real-time. Rilis ScienceDaily menyoroti frasa nomina Jerman “Die fünf grünen Autos” (“mobil hijau lima”) sebagai contoh bagaimana makna dapat dibangun secara bertahap saat setiap kata mempersempit kumpulan interpretasi yang masuk akal. Mengubah urutan kata-kata tersebut—misalnya, “Grünen fünf die Autos”—mengganggu prediktabilitas itu dan membuat pemahaman lebih sulit.  nnSelain menjelaskan mengapa bahasa tidak “dikompresi secara maksimal,” diskusi makalah menghubungkan temuan dengan pembelajaran mesin. Futrell dan Hahn berpendapat bahwa bahasa alami terstruktur dengan cara yang membuat prediksi token berikutnya relatif lebih mudah di bawah batasan kognitif, poin yang mereka katakan relevan dengan model bahasa besar modern.  nn

Artikel Terkait

Illustration of a patient undergoing brain monitoring while listening to a podcast, with neural activity layers mirroring AI language model processing.
Gambar dihasilkan oleh AI

Studi menghubungkan respons otak langkah demi langkah selama bicara dengan pemrosesan berlapis di model bahasa besar

Dilaporkan oleh AI Gambar dihasilkan oleh AI Fakta terverifikasi

Sebuah studi baru melaporkan bahwa saat orang mendengarkan cerita yang diucapkan, aktivitas saraf di wilayah bahasa kunci terbentang seiring waktu dengan cara yang mencerminkan komputasi lapis demi lapis di dalam model bahasa besar. Para peneliti, yang menganalisis rekaman electrocorticography dari pasien epilepsi selama podcast 30 menit, juga merilis dataset terbuka yang dimaksudkan untuk membantu ilmuwan lain menguji teori bersaing tentang bagaimana makna dibangun di otak.

Analisis komputasi baru pada artefak Paleolitik mengungkapkan bahwa manusia lebih dari 40.000 tahun lalu mengukir simbol terstruktur pada alat dan patung, menandakan bentuk awal pencatatan informasi. Tanda-tanda ini, yang ditemukan terutama di barat daya Jerman, menunjukkan kompleksitas yang sebanding dengan sistem tulisan paling awal yang muncul ribuan tahun kemudian. Peneliti menyarankan bahwa tanda-tanda ini disengaja, mendahului tulisan formal selama puluhan ribu tahun.

Dilaporkan oleh AI

Seorang peneliti yang menggunakan bahasa formalisasi Lean telah menemukan kelemahan mendasar dalam makalah fisika tahun 2006 yang berpengaruh mengenai model dua Higgs doublet. Joseph Tooby-Smith dari University of Bath membuat penemuan tersebut saat sedang membangun pustaka teorema fisika yang terverifikasi. Penulis asli makalah tersebut telah mengakui kesalahan tersebut dan berencana untuk menerbitkan erratum.

Peneliti di balik ulasan baru di Frontiers in Science berargumen bahwa kemajuan cepat dalam kecerdasan buatan dan teknologi otak melampaui pemahaman ilmiah tentang kesadaran, meningkatkan risiko kesalahan etis dan hukum. Mereka mengatakan pengembangan tes berbasis bukti untuk mendeteksi kesadaran—baik pada pasien, hewan, atau sistem buatan dan laboratorium yang muncul—dapat membentuk ulang kedokteran, perdebatan kesejahteraan, dan tata kelola teknologi.

Dilaporkan oleh AI

Model kecerdasan buatan terkemuka dari perusahaan besar memilih untuk mengerahkan senjata nuklir dalam 95 persen permainan perang simulasi, menurut studi terbaru. Peneliti menguji AI ini dalam skenario krisis geopolitik, mengungkapkan kurangnya kekhawatiran seperti manusia terhadap eskalasi. Temuan ini menyoroti risiko potensial karena militer semakin mengintegrasikan AI ke dalam perencanaan strategis.

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak