En ny modell från lingvisterna Richard Futrell och Michael Hahn tyder på att många kännetecken för människans språk – såsom bekanta ord, förutsägbar ordning och mening som byggs upp steg för steg – speglar begränsningar i sekventiell informationsbearbetning snarare än en drivkraft för maximal datakomprimering. Arbetet publicerades i Nature Human Behaviour.
Mänskligt språk är anmärkningsvärt rikt och intrikat. Ur ett informations-teoretiskt perspektiv skulle samma idéer, i princip, kunna överföras i långt mer kompakta strängar – liknande hur datorer representerar information med binära siffror. nnMichael Hahn, lingvist vid Saarland University i Saarbrücken, Tyskland, och Richard Futrell vid University of California, Irvine, gav sig i kast med att förklara varför vardagligt tal inte liknar en tätt komprimerad digital kod. I en artikel publicerad i Nature Human Behaviour i november 2025 presenterar forskarna en modell där ”naturligt språk-liknande” struktur uppstår när kommunikationen begränsas av gränser för sekventiell förutsägelse – hur mycket information som måste bäras framåt från det som redan hörts för att förutse vad som kommer nästa. nnI det ramverket gynnas språk av mönster som är lätta för människor att bearbeta som en ström. En ScienceDaily-sammanfattning av arbetet, med hänvisning till material från University of Osaka, använder exempel för att illustrera idén: ett påhittat ord som ”gol” för ett hybridkoncept (halv katt och halv hund) skulle vara svårt att förstå eftersom det inte mappar rent på delad erfarenhet, och en omrörd blandning som ”gadcot” är lika svår att tolka. Till kontrast är ”cat and dog” omedelbart meningsfullt. nnForskarna pekar också på ordning som en signal som hjälper lyssnare att minska osäkerheten i realtid. ScienceDaily-frigivningen lyfter fram den tyska nominalfrasen ”Die fünf grünen Autos” (”de fem gröna bilarna”) som exempel på hur mening kan byggas upp stegvis när varje ord smalnar av mängden plausibla tolkningar. Att omordna de orden – till exempel ”Grünen fünf die Autos” – stör den förutsägbarheten och gör förståelsen svårare. nnUtöver att förklara varför språk inte är ”maximalt komprimerat” kopplar artikelns diskussion resultaten till maskininlärning. Futrell och Hahn hävdar att naturligt språk är strukturerat på ett sätt som gör nästa-token-förutsägelse relativt enklare under kognitiva begränsningar, en poäng de säger är relevant för moderna stora språkmodeller. nn