Illustration depicting linguists studying why human language resists compression like computer code, contrasting brain processing with digital efficiency.
Illustration depicting linguists studying why human language resists compression like computer code, contrasting brain processing with digital efficiency.
Image générée par IA

Étude explore pourquoi le langage humain n’est pas compressé comme le code informatique

Image générée par IA
Vérifié par des faits

Un nouveau modèle des linguistes Richard Futrell et Michael Hahn suggère que de nombreuses caractéristiques emblématiques du langage humain — telles que les mots familiers, l’ordre prévisible et le sens construit étape par étape — reflètent des contraintes sur le traitement séquentiel de l’information plutôt qu’une quête de compression maximale des données. Le travail a été publié dans Nature Human Behaviour.

Le langage humain est remarquablement riche et complexe. D’un point de vue de la théorie de l’information, les mêmes idées pourraient, en principe, être transmises dans des chaînes bien plus compactes — à l’image de la façon dont les ordinateurs représentent l’information à l’aide de chiffres binaires.  nnMichael Hahn, linguiste à l’université de Sarre à Sarrebruck, en Allemagne, et Richard Futrell de l’université de Californie à Irvine, se sont attelés à expliquer pourquoi la parole quotidienne ne ressemble pas à un code numérique fortement compressé. Dans un article publié dans Nature Human Behaviour en novembre 2025, les chercheurs présentent un modèle dans lequel une structure « proche du langage naturel » émerge lorsque la communication est limitée par des contraintes sur la prédiction séquentielle — la quantité d’information devant être conservée de ce qui a déjà été entendu pour anticiper ce qui suit.  nnDans ce cadre, le langage tire profit de schémas faciles à traiter par les humains comme un flux. Un résumé de ScienceDaily du travail, citant des documents de l’université d’Osaka, utilise des exemples pour illustrer l’idée : un mot inventé tel que « gol » pour un concept hybride (moitié chat et moitié chien) serait difficile à comprendre car il ne se mappe pas clairement sur l’expérience partagée, et un mélange brouillé comme « gadcot » est tout aussi ardu à interpréter. À l’opposé, « chat et chien » est immédiatement signifiant.  nnLes chercheurs soulignent aussi l’ordre des mots comme un signal aidant les auditeurs à réduire l’incertitude en temps réel. Le communiqué de ScienceDaily met en avant la locution nominale allemande « Die fünf grünen Autos » (« les cinq voitures vertes ») comme exemple de la manière dont le sens peut être construit de façon incrémentale alors que chaque mot resserre l’ensemble des interprétations plausibles. Réorganiser ces mots — par exemple, « Grünen fünf die Autos » — perturbe cette prévisibilité et rend la compréhension plus ardue.  nnAu-delà d’expliquer pourquoi le langage n’est pas « maximalement compressé », la discussion de l’article relie les résultats à l’apprentissage automatique. Futrell et Hahn soutiennent que le langage naturel est structuré de sorte à rendre la prédiction du jeton suivant relativement plus facile sous contraintes cognitives, un point qu’ils jugent pertinent pour les grands modèles de langage modernes.  nn

Articles connexes

Illustration of a patient undergoing brain monitoring while listening to a podcast, with neural activity layers mirroring AI language model processing.
Image générée par IA

Étude relie les réponses cérébrales pas à pas pendant la parole au traitement par couches dans les grands modèles de langage

Rapporté par l'IA Image générée par IA Vérifié par des faits

Une nouvelle étude rapporte que, lorsque les gens écoutent une histoire parlée, l'activité neuronale dans les régions clés du langage se déploie au fil du temps d'une manière qui reflète les calculs couche par couche à l'intérieur des grands modèles de langage. Les chercheurs, qui ont analysé des enregistrements d'électrocorticographie de patients épileptiques pendant un podcast de 30 minutes, ont également publié un ensemble de données ouvert destiné à aider d'autres scientifiques à tester des théories concurrentes sur la façon dont le sens est construit dans le cerveau.

Des neuroscientifiques de l’université de Princeton rapportent que le cerveau parvient à un apprentissage flexible en réutilisant des composants cognitifs modulaires à travers les tâches. Dans des expériences avec des macaques rhésus, les chercheurs ont découvert que le cortex préfrontal assemble ces « Lego cognitifs » réutilisables pour adapter rapidement les comportements. Les résultats, publiés le 26 novembre dans Nature, soulignent les différences avec les systèmes d’IA actuels et pourraient éventuellement informer des traitements pour les troubles qui altèrent la pensée flexible.

Rapporté par l'IA

Des chercheurs de l'Université Purdue et du Georgia Institute of Technology ont proposé une nouvelle architecture informatique pour les modèles d'IA inspirée du cerveau humain. Cette approche vise à résoudre le problème de la 'barrière mémoire' énergivore dans les systèmes actuels. L'étude, publiée dans Frontiers in Science, met en lumière le potentiel d'une IA plus efficace dans les appareils quotidiens.

Une étude de l’université Cornell révèle que des outils d’IA comme ChatGPT ont augmenté la production d’articles des chercheurs jusqu’à 50 %, bénéficiant particulièrement aux non-anglophones. Cependant, cette vague de manuscrits polis complique les évaluations par les pairs et les décisions de financement, car beaucoup manquent de valeur scientifique substantielle. Les résultats soulignent un changement dans les dynamiques de la recherche mondiale et appellent à des politiques actualisées sur l’utilisation de l’IA en académie.

Rapporté par l'IA

Japan's internet often seems cluttered to outsiders due to its dense, information-packed designs shaped by cultural values and practical demands. This gap was stark at the 2025 World Expo in Osaka, where confusing digital interfaces hindered visitors. Professionals note that minimalism in Japan can convey underdevelopment or isolation.

Des ingénieurs de l'Université de Pennsylvanie ont découvert que les bulles dans les mousses quotidiennes changent constamment de position tout en maintenant la forme globale de la mousse, suivant des principes mathématiques similaires à ceux de l'apprentissage profond pour l'IA. Cela défie les vues traditionnelles des mousses comme vitreuses et suggère que des comportements d'apprentissage peuvent sous-tendre des systèmes divers des matériaux aux cellules. Les résultats, publiés dans Proceedings of the National Academy of Sciences, pourraient éclairer des matériaux adaptatifs et des structures biologiques.

Rapporté par l'IA

Des chercheurs ont produit les cartes les plus détaillées à ce jour de la manière dont l'ADN humain se plie et se réorganise en trois dimensions et au fil du temps. Ce travail, dirigé par des scientifiques de la Northwestern University dans le cadre du projet 4D Nucleome, met en lumière comment l'architecture du génome influence l'activité des gènes et le risque de maladies. Les résultats, publiés dans Nature, pourraient accélérer la découverte de mutations génétiques liées à des maladies comme le cancer.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser