Illustration depicting linguists studying why human language resists compression like computer code, contrasting brain processing with digital efficiency.
Illustration depicting linguists studying why human language resists compression like computer code, contrasting brain processing with digital efficiency.
Imagen generada por IA

Estudio explora por qué el lenguaje humano no se comprime como el código informático

Imagen generada por IA
Verificado por hechos

Un nuevo modelo de los lingüistas Richard Futrell y Michael Hahn sugiere que muchas características emblemáticas del lenguaje humano —como palabras familiares, orden predecible y significado construido paso a paso— reflejan restricciones en el procesamiento secuencial de información en lugar de un impulso por la máxima compresión de datos. El trabajo se publicó en Nature Human Behaviour.

El lenguaje humano es notablemente rico e intrincado. Desde una perspectiva de la teoría de la información, las mismas ideas podrían transmitirse, en principio, en cadenas mucho más compactas, similar a cómo las computadoras representan la información usando dígitos binarios.  nnMichael Hahn, lingüista en la Universidad de Saarland en Saarbrücken, Alemania, y Richard Futrell de la Universidad de California, Irvine, se propusieron explicar por qué el habla cotidiana no se asemeja a un código digital fuertemente comprimido. En un artículo publicado en Nature Human Behaviour en noviembre de 2025, los investigadores presentan un modelo en el que la estructura “parecida al lenguaje natural” surge cuando la comunicación está restringida por límites en la predicción secuencial: cuánta información debe llevarse hacia adelante de lo ya oído para anticipar lo que viene después.  nnEn ese marco, el lenguaje se beneficia de patrones que son fáciles de procesar para las personas como un flujo. Un resumen de ScienceDaily del trabajo, citando materiales de la Universidad de Osaka, usa ejemplos para ilustrar la idea: una palabra inventada como “gol” para un concepto híbrido (mitad gato y mitad perro) sería difícil de entender porque no se mapea limpiamente en la experiencia compartida, y una mezcla revuelta como “gadcot” es igualmente difícil de interpretar. Por contraste, “gato y perro” es inmediatamente significativo.  nnLos investigadores también señalan el orden de las palabras como una señal que ayuda a los oyentes a reducir la incertidumbre en tiempo real. El comunicado de ScienceDaily destaca la frase nominal alemana “Die fünf grünen Autos” (“los cinco autos verdes”) como un ejemplo de cómo el significado puede construirse de manera incremental a medida que cada palabra reduce el conjunto de interpretaciones plausibles. Reordenar esas palabras —por ejemplo, “Grünen fünf die Autos”— interrumpe esa predictibilidad y hace más difícil la comprensión.  nnMás allá de explicar por qué el lenguaje no está “máximamente comprimido”, la discusión del artículo conecta los hallazgos con el aprendizaje automático. Futrell y Hahn argumentan que el lenguaje natural está estructurado de una manera que hace que la predicción del siguiente token sea comparativamente más fácil bajo restricciones cognitivas, un punto que dicen es relevante para los modernos modelos de lenguaje grandes.  nn

Artículos relacionados

Illustration of glowing whole-brain neural networks coordinating efficiently, representing a University of Notre Dame study on general intelligence.
Imagen generada por IA

Study points to whole-brain network coordination as a key feature of general intelligence

Reportado por IA Imagen generada por IA Verificado por hechos

University of Notre Dame researchers report evidence that general intelligence is associated with how efficiently and flexibly brain networks coordinate across the whole connectome, rather than being localized to a single “smart” region. The findings, published in Nature Communications, are based on neuroimaging and cognitive data from 831 Human Connectome Project participants and an additional 145 adults from the INSIGHT Study.

A new computational analysis of Paleolithic artifacts reveals that humans over 40,000 years ago engraved structured symbols on tools and figurines, indicating early forms of information recording. These signs, found mainly in southwestern Germany, show complexity comparable to the earliest known writing systems that emerged millennia later. Researchers suggest these markings were purposeful, predating formal writing by tens of thousands of years.

Reportado por IA

A researcher using the Lean formalisation language has uncovered a fundamental flaw in a influential 2006 physics paper on the two Higgs doublet model. Joseph Tooby-Smith at the University of Bath made the discovery while building a library of verified physics theorems. The original authors have acknowledged the error and plan to issue an erratum.

Researchers behind a new review in Frontiers in Science argue that rapid progress in artificial intelligence and brain technologies is outpacing scientific understanding of consciousness, raising the risk of ethical and legal mistakes. They say developing evidence-based tests for detecting awareness—whether in patients, animals or emerging artificial and lab-grown systems—could reshape medicine, welfare debates and technology governance.

Reportado por IA

Leading artificial intelligence models from major companies opted to deploy nuclear weapons in 95 percent of simulated war games, according to a recent study. Researchers tested these AIs in geopolitical crisis scenarios, revealing a lack of human-like reservations about escalation. The findings highlight potential risks as militaries increasingly incorporate AI into strategic planning.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar