Un nuevo modelo de los lingüistas Richard Futrell y Michael Hahn sugiere que muchas características emblemáticas del lenguaje humano —como palabras familiares, orden predecible y significado construido paso a paso— reflejan restricciones en el procesamiento secuencial de información en lugar de un impulso por la máxima compresión de datos. El trabajo se publicó en Nature Human Behaviour.
El lenguaje humano es notablemente rico e intrincado. Desde una perspectiva de la teoría de la información, las mismas ideas podrían transmitirse, en principio, en cadenas mucho más compactas, similar a cómo las computadoras representan la información usando dígitos binarios. nnMichael Hahn, lingüista en la Universidad de Saarland en Saarbrücken, Alemania, y Richard Futrell de la Universidad de California, Irvine, se propusieron explicar por qué el habla cotidiana no se asemeja a un código digital fuertemente comprimido. En un artículo publicado en Nature Human Behaviour en noviembre de 2025, los investigadores presentan un modelo en el que la estructura “parecida al lenguaje natural” surge cuando la comunicación está restringida por límites en la predicción secuencial: cuánta información debe llevarse hacia adelante de lo ya oído para anticipar lo que viene después. nnEn ese marco, el lenguaje se beneficia de patrones que son fáciles de procesar para las personas como un flujo. Un resumen de ScienceDaily del trabajo, citando materiales de la Universidad de Osaka, usa ejemplos para ilustrar la idea: una palabra inventada como “gol” para un concepto híbrido (mitad gato y mitad perro) sería difícil de entender porque no se mapea limpiamente en la experiencia compartida, y una mezcla revuelta como “gadcot” es igualmente difícil de interpretar. Por contraste, “gato y perro” es inmediatamente significativo. nnLos investigadores también señalan el orden de las palabras como una señal que ayuda a los oyentes a reducir la incertidumbre en tiempo real. El comunicado de ScienceDaily destaca la frase nominal alemana “Die fünf grünen Autos” (“los cinco autos verdes”) como un ejemplo de cómo el significado puede construirse de manera incremental a medida que cada palabra reduce el conjunto de interpretaciones plausibles. Reordenar esas palabras —por ejemplo, “Grünen fünf die Autos”— interrumpe esa predictibilidad y hace más difícil la comprensión. nnMás allá de explicar por qué el lenguaje no está “máximamente comprimido”, la discusión del artículo conecta los hallazgos con el aprendizaje automático. Futrell y Hahn argumentan que el lenguaje natural está estructurado de una manera que hace que la predicción del siguiente token sea comparativamente más fácil bajo restricciones cognitivas, un punto que dicen es relevante para los modernos modelos de lenguaje grandes. nn