Illustration of individuals struggling to converse in a crowded, noisy restaurant, representing a study on cognitive ability and speech comprehension in noisy environments.
Illustration of individuals struggling to converse in a crowded, noisy restaurant, representing a study on cognitive ability and speech comprehension in noisy environments.
Image générée par IA

La capacité cognitive liée à la compréhension de la parole dans des environnements bruyants, selon une étude

Image générée par IA
Vérifié par des faits

Parmi les personnes ayant une audition cliniquement normale, la capacité intellectuelle a fortement prédit la compréhension de la parole au milieu de voix concurrentes, selon une étude évaluée par des pairs menée par des chercheurs de l'Université de Washington.

Des chercheurs de la University of Washington School of Medicine rapportent une forte association entre la capacité intellectuelle générale et la capacité à suivre la parole dans des environnements bruyants. L'article, publié dans PLOS One le 24 septembre 2025, a trouvé que ce lien se maintenait à travers les groupes diagnostiques. (doi.org)

L'étude a recruté 49 participants : 12 atteints d'autisme, 10 d'un trouble du spectre de l'alcoolisation fœtale (FASD) et 27 participants de comparaison appariés pour l'âge et le sexe. Les âges variaient approximativement de 13 à 47 ans. Tous les participants répondaient aux critères d'audition typique après un dépistage audiologique ; un participant autiste qui n'a pas réussi a été exclu. (journals.plos.org)

Les participants ont complété une tâche d'écoute « multitâche » basée sur ordinateur construite à partir de phrases de Coordinate Response Measure de la forme « Ready [callsign], go to [color] [number] now. » La voix cible était toujours masculine et identifiée par le indicatif « Charlie », tandis que deux locuteurs concurrents (« masques ») étaient présentés depuis différentes localisations spatiales simulées. Après chaque essai, les auditeurs sélectionnaient la couleur et le numéro correspondants sur un écran. (doi.org)

La capacité intellectuelle a été mesurée avec la Wechsler Abbreviated Scale of Intelligence–Second Edition (WASI‑II), combinant des sous-tests de raisonnement verbal et non verbal/perceptuel. Des scores de QI plus bas étaient liés à des seuils plus faibles sur la tâche multitâche dans l'échantillon complet et au sein de chaque groupe. L'auteure principale, Bonnie Lau, a déclaré que la relation « transcendait les catégories diagnostiques », un point repris dans le communiqué de l'université ; l'article rapporte « une relation hautement significative » entre la capacité intellectuelle évaluée directement et la perception de la parole multitâche. (newsroom.uw.edu)

Lau a également noté que l'écoute dans le monde réel en bruit repose fortement sur des processus cognitifs tels que la ségrégation des flux, l'attention sélective et la compréhension du langage – et non uniquement sur les oreilles. « Il n'est pas nécessaire d'avoir une perte auditive pour avoir du mal à écouter dans un restaurant ou toute autre situation difficile du monde réel », a-t-elle dit. (sciencedaily.com)

Étant donné que l'échantillon de l'étude était inférieur à 50, les auteurs appellent à des réplications plus larges. Ils suggèrent des aménagements pratiques – tels que des places préférentielles ou des outils d'assistance auditive – qui pourraient aider les étudiants neurodivergents ou ceux ayant une capacité cognitive plus faible dans des salles de classe animées. Les co-auteurs sont affiliés à plusieurs départements de la University of Washington et de l'Université du Michigan. (sciencedaily.com)

Articles connexes

Elderly woman describing a picture in a lab with speech pauses indicated, related to cognitive study
Image générée par IA

Pauses and filler words in picture descriptions were linked to executive function in a Baycrest-led study

Rapporté par l'IA Image générée par IA Vérifié par des faits

Small speech timing habits—such as silent pauses, “um” and “uh,” and difficulty finding words—were associated with performance on standard executive-function tests in a study by researchers at Baycrest, the University of Toronto and York University.

A new study challenges the belief that closing one's eyes improves hearing in noise, finding it actually hinders detection of faint sounds. Researchers from Shanghai Jiao Tong University showed that relevant visual cues enhance auditory sensitivity instead. The findings were published in The Journal of the Acoustical Society of America.

Rapporté par l'IA Vérifié par des faits

University of Notre Dame researchers report evidence that general intelligence is associated with how efficiently and flexibly brain networks coordinate across the whole connectome, rather than being localized to a single “smart” region. The findings, published in Nature Communications, are based on neuroimaging and cognitive data from 831 Human Connectome Project participants and an additional 145 adults from the INSIGHT Study.

Researchers from the University of Pennsylvania have identified 'cognitive surrender,' where people outsource reasoning to AI without verification. In experiments, participants accepted incorrect AI responses 73.2 percent of the time across 1,372 participants. Factors like time pressure increased reliance on flawed outputs.

Rapporté par l'IA Vérifié par des faits

A small controlled experiment reported in Frontiers in Behavioral Neuroscience found that exposure to infrasound—ultra-low-frequency vibration below the range of human hearing—was associated with higher salivary cortisol and more negative mood ratings, even though participants could not reliably detect when the infrasound was present.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser