Illustration depicting linguists studying why human language resists compression like computer code, contrasting brain processing with digital efficiency.
Illustration depicting linguists studying why human language resists compression like computer code, contrasting brain processing with digital efficiency.
Imagem gerada por IA

Estudo explora por que a linguagem humana não é comprimida como código de computador

Imagem gerada por IA
Verificado

Um novo modelo dos linguistas Richard Futrell e Michael Hahn sugere que muitas características marcantes da linguagem humana — como palavras familiares, ordenação previsível e significado construído passo a passo — refletem restrições ao processamento sequencial de informação em vez de um impulso pela compressão máxima de dados. O trabalho foi publicado na Nature Human Behaviour.

A linguagem humana é notavelmente rica e intricada. Do ponto de vista da teoria da informação, as mesmas ideias poderiam, em princípio, ser transmitidas em strings muito mais compactas — semelhante a como os computadores representam informação usando dígitos binários.  nnMichael Hahn, linguista na Universidade de Saarland em Saarbrücken, Alemanha, e Richard Futrell da Universidade da Califórnia, Irvine, partiram para abordar por que a fala cotidiana não se assemelha a um código digital fortemente comprimido. Num artigo publicado na Nature Human Behaviour em novembro de 2025, os investigadores apresentam um modelo em que a estrutura «parecida com linguagem natural» surge quando a comunicação é restringida por limites na previsão sequencial — quanta informação deve ser transportada para diante do que já foi ouvido para antecipar o que vem a seguir.  nnNesse quadro, a linguagem beneficia-se de padrões fáceis de processar pelas pessoas como um fluxo. Um resumo da ScienceDaily do trabalho, citando materiais da Universidade de Osaka, usa exemplos para ilustrar a ideia: uma palavra inventada como “gol” para um conceito híbrido (metade gato e metade cão) seria difícil de entender porque não mapeia de forma limpa para a experiência partilhada, e uma mistura embaralhada como “gadcot” é igualmente difícil de interpretar. Pelo contraste, “gato e cão” é imediatamente significativo.  nnOs investigadores também apontam a ordem das palavras como um sinal que ajuda os ouvintes a reduzir a incerteza em tempo real. O comunicado da ScienceDaily destaca a frase nominal alemã “Die fünf grünen Autos” (“os cinco carros verdes”) como exemplo de como o significado pode ser construído incrementalmente à medida que cada palavra estreita o conjunto de interpretações plausíveis. Reordenar essas palavras — por exemplo, “Grünen fünf die Autos” — perturba essa previsibilidade e torna a compreensão mais difícil.  nnAlém de explicar por que a linguagem não é “maximamente comprimida”, a discussão do artigo liga os achados ao aprendizado de máquina. Futrell e Hahn argumentam que a linguagem natural está estruturada de modo a tornar a previsão do próximo token comparativamente mais fácil sob restrições cognitivas, um ponto que dizem ser relevante para os modernos grandes modelos de linguagem.  nn

Artigos relacionados

Illustration of a patient undergoing brain monitoring while listening to a podcast, with neural activity layers mirroring AI language model processing.
Imagem gerada por IA

Estudo liga respostas cerebrais passo a passo durante a fala ao processamento em camadas em grandes modelos de linguagem

Reportado por IA Imagem gerada por IA Verificado

Um novo estudo relata que, à medida que as pessoas escutam uma história falada, a atividade neural em regiões chave de linguagem se desenrola ao longo do tempo de uma forma que espelha os cálculos camada por camada dentro de grandes modelos de linguagem. Os pesquisadores, que analisaram gravações de electrocorticografia de pacientes epilépticos durante um podcast de 30 minutos, também lançaram um conjunto de dados aberto destinado a ajudar outros cientistas a testar teorias concorrentes sobre como o significado é construído no cérebro.

Uma nova análise computacional de artefactos paleolíticos revela que humanos há mais de 40.000 anos gravaram símbolos estruturados em ferramentas e figuras, indicando formas iniciais de registo de informação. Estes sinais, encontrados principalmente no sudoeste da Alemanha, mostram complexidade comparável aos primeiros sistemas de escrita conhecidos que surgiram milénios depois. Os investigadores sugerem que estas marcações eram intencionais, precedendo a escrita formal por dezenas de milhares de anos.

Reportado por IA

Um pesquisador utilizando a linguagem de formalização Lean descobriu uma falha fundamental em um influente artigo de física de 2006 sobre o modelo de dois dubletos de Higgs. Joseph Tooby-Smith, da Universidade de Bath, fez a descoberta enquanto construía uma biblioteca de teoremas físicos verificados. Os autores originais reconheceram o erro e planejam publicar uma errata.

Pesquisadores da Northwestern University relatam ter impresso "neurônios artificiais" flexíveis que geram padrões realistas de impulsos elétricos e podem desencadear respostas em tecido cerebral de camundongo vivo. A equipe afirma que o trabalho, publicado em 15 de abril na Nature Nanotechnology, pode ajudar a avançar interfaces cérebro-máquina e a computação inspirada no cérebro, que é mais eficiente em termos energéticos.

Reportado por IA Verificado

Pesquisadores por trás de uma nova revisão na Frontiers in Science argumentam que o rápido progresso na inteligência artificial e tecnologias cerebrais está superando o entendimento científico da consciência, aumentando o risco de erros éticos e legais. Eles dizem que desenvolver testes baseados em evidências para detectar consciência — seja em pacientes, animais ou sistemas artificiais e cultivados em laboratório emergentes — poderia reformular a medicina, debates sobre bem-estar e governança tecnológica.

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar