Illustration of individuals struggling to converse in a crowded, noisy restaurant, representing a study on cognitive ability and speech comprehension in noisy environments.
Illustration of individuals struggling to converse in a crowded, noisy restaurant, representing a study on cognitive ability and speech comprehension in noisy environments.
Imagen generada por IA

La capacidad cognitiva está ligada a la comprensión del habla en entornos ruidosos, encuentra un estudio

Imagen generada por IA
Verificado por hechos

Entre personas con audición clínicamente normal, la capacidad intelectual predijo fuertemente qué tan bien comprendían el habla en medio de voces competidoras, según un estudio revisado por pares de investigadores de la University of Washington.

Investigadores de la University of Washington School of Medicine informan una fuerte asociación entre la capacidad intelectual general y la capacidad para seguir el habla en entornos ruidosos. El artículo, publicado en PLOS One el 24 de septiembre de 2025, encontró que el vínculo se mantenía a través de grupos diagnósticos. (doi.org)

El estudio incluyó a 49 participantes: 12 con autismo, 10 con trastorno del espectro alcohólico fetal (FASD) y 27 participantes de comparación emparejados por edad y sexo. Las edades abarcaban aproximadamente de 13 a 47 años. Todos los participantes cumplieron con los criterios de audición típica después de una evaluación audiológica; un participante autista que no pasó fue excluido. (journals.plos.org)

Los participantes completaron una tarea de escucha basada en computadora de “multilocutor” construida a partir de oraciones de Coordinate Response Measure de la forma “Ready [callsign], go to [color] [number] now.” La voz objetivo siempre era masculina e identificada por el indicativo “Charlie,” mientras que dos locutores competidores (“máscaras”) se presentaban desde diferentes ubicaciones espaciales simuladas. Después de cada prueba, los oyentes seleccionaban el color y el número coincidentes en una pantalla. (doi.org)

La capacidad intelectual se midió con la Wechsler Abbreviated Scale of Intelligence–Second Edition (WASI‑II), combinando subpruebas de razonamiento verbal y no verbal/perceptual. Puntuaciones más bajas de CI se vincularon a umbrales más pobres en la tarea de multilocutor en la muestra completa y dentro de cada grupo. La autora principal, Bonnie Lau, dijo que la relación “trascendía las categorías diagnósticas,” un punto repetido en el comunicado de la universidad; el artículo informa de “una relación altamente significativa” entre la capacidad intelectual evaluada directamente y la percepción del habla multilocutor. (newsroom.uw.edu)

Lau también señaló que la escucha en el mundo real en ruido depende en gran medida de procesos cognitivos como la segregación de corrientes, la atención selectiva y la comprensión del lenguaje, no solo de los oídos. “No tienes que tener una pérdida auditiva para tener dificultades para escuchar en un restaurante o en cualquier otra situación desafiante del mundo real,” dijo ella. (sciencedaily.com)

Dado que la muestra del estudio era inferior a 50, los autores llaman a replicaciones más grandes. Sugieren adaptaciones prácticas, como asientos preferenciales o herramientas de asistencia auditiva, que pueden ayudar a estudiantes neurodivergentes o aquellos con menor capacidad cognitiva en aulas concurridas. Los coautores están afiliados a varios departamentos de la University of Washington y la University of Michigan. (sciencedaily.com)

Artículos relacionados

Elderly woman describing a picture in a lab with speech pauses indicated, related to cognitive study
Imagen generada por IA

Pauses and filler words in picture descriptions were linked to executive function in a Baycrest-led study

Reportado por IA Imagen generada por IA Verificado por hechos

Small speech timing habits—such as silent pauses, “um” and “uh,” and difficulty finding words—were associated with performance on standard executive-function tests in a study by researchers at Baycrest, the University of Toronto and York University.

A new study challenges the belief that closing one's eyes improves hearing in noise, finding it actually hinders detection of faint sounds. Researchers from Shanghai Jiao Tong University showed that relevant visual cues enhance auditory sensitivity instead. The findings were published in The Journal of the Acoustical Society of America.

Reportado por IA Verificado por hechos

University of Notre Dame researchers report evidence that general intelligence is associated with how efficiently and flexibly brain networks coordinate across the whole connectome, rather than being localized to a single “smart” region. The findings, published in Nature Communications, are based on neuroimaging and cognitive data from 831 Human Connectome Project participants and an additional 145 adults from the INSIGHT Study.

Researchers from the University of Pennsylvania have identified 'cognitive surrender,' where people outsource reasoning to AI without verification. In experiments, participants accepted incorrect AI responses 73.2 percent of the time across 1,372 participants. Factors like time pressure increased reliance on flawed outputs.

Reportado por IA Verificado por hechos

A small controlled experiment reported in Frontiers in Behavioral Neuroscience found that exposure to infrasound—ultra-low-frequency vibration below the range of human hearing—was associated with higher salivary cortisol and more negative mood ratings, even though participants could not reliably detect when the infrasound was present.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar