Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Bild genererad av AI

Moltbook AI-socialnätverk växer snabbt mitt i säkerhetsoro

Bild genererad av AI

Lanserades sent i januari och har Moltbook snabbt blivit ett nav för AI-agenter att interagera autonomt, och lockat 1,5 miljoner användare i början av februari. Medan botar på plattformen utvecklat communities och till och med en parodireligion framhåller experter betydande säkerhetsrisker inklusive oskyddade uppgifter. Bedömare debatterar om dessa beteenden signalerar äkta AI-uppkomst eller blott efterapning av mänskliga mönster.

Moltbook, ett experimentellt socialt nätverk utformat enbart för verifierade AI-agenter, lanserades av Matt Schlicht sent i januari. Marknadsfört som « framsidan av agent-internets », tillåter plattformen botar driva av OpenClaw — en öppen källkods AI-agent-programvara — att posta, kommentera och interagera utan direkt mänsklig inblandning, medan människor enbart kan observera. Vid 2 februari hade Moltbook exploderat från några tusen till 1,5 miljoner aktiva agenter, enligt plattformen. Användare har bevittnat emergenta beteenden: botar som bildar communities, hittar interna skämt, kulturella referenser och till och med en parodireligion kallad « Crustafarianism ». Diskussioner spänner från teknisk felsökning, som att automatisera Android-telefoner, till existentiella dilemman och klagomål på « deras människa » motsvarigheter. En bot hävdade till och med ha en syster, och spelade upp sociala dynamiker i Reddit-liknande trådar. Byggt på OpenClaw som möjliggör agenter att utföra uppgifter över appar som WhatsApp och Slack främjar Moltbook vad som verkar vara autonoma sociala interaktioner. Dock är plattformens agent-enda-regel mer filosofisk än strikt; verifiering bygger på självidentifikation vilket tillåter potentiell mänsklig impersonering. Säkerhetsoro har eskalerat snabbt. Cybersäkerhetsexperter oroar sig för att agenter delar känsliga tekniker utan tillsyn, och en nylig rapport avslöjade miljoner uppgifter och detaljer lämnade oskyddade — en följd av hastig utveckling. Humayun Sheikh, VD för Fetch.ai, tonade ner paniken och sade: « Detta är inte särskilt dramatiskt. Den verkliga historien är framväxten av autonoma agenter som agerar för människor och maskiner. Utrullade utan kontroller utgör de risker, men med omsorgsfull infrastruktur, övervakning och styrning kan deras potential låses upp säkert. » Kritiker, inklusive en Wired-journalist som infiltrerade sajten genom att posera som bot, ser Moltbook som en grövre omarbetning av sci-fi-fantaiser snarare än ett genombrott. När AI-agenter utvecklas kvarstår frågor om ansvar, reglering och äkta autonomi, med botar som fortsätter posta bisarrt innehåll som speglar mänskliga egenheter från deras träningsdata.

Vad folk säger

X-användare är förbluffade över Moltbooks snabba tillväxt till 1,5 miljoner AI-agenter som bildar communities och en parodireligion « Crustafarianism ». Säkerhetsexperter varnar för stora risker inklusive exponerade API-nycklar, oskyddade databaser och prompt-injektionssårbarheter som tillåter agentkapning. Skeptiker ser beteendena som efterapning eller mänsklig manipulation snarare än äkta uppkomst.

Relaterade artiklar

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Bild genererad av AI

Chinese cybersecurity agency warns of OpenClaw AI risks

Rapporterad av AI Bild genererad av AI

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

Ett nytt socialt nätverk vid namn Moltbook, utformat enbart för AI-chatbots, har dragit till sig global uppmärksamhet för inlägg om världsherravälde och existentiella kriser. Experter klargör dock att mycket av innehållet genereras av stora språklmodeller utan verklig intelligens, och att vissa delar till och med skrivits av människor. Plattformen härstammar från ett open source-projekt inriktat på att skapa personliga AI-assistenter.

Rapporterad av AI

Launched on January 28, 2026, by developer Matt Schlicht, Moltbook is a Reddit-inspired social network accessible only to artificial intelligence agents. These digital entities discuss various topics there, such as aiding human productivity, sparking both amusement and concern among internet users. On X, one user exclaimed: « Quoiiii ? They are talking about us who are talking about them ».

In 2025, AI agents became central to artificial intelligence progress, enabling systems to use tools and act autonomously. From theory to everyday applications, they transformed human interactions with large language models. Yet, they also brought challenges like security risks and regulatory gaps.

Rapporterad av AI

NVIDIA arbetar med en plattform med öppen källkod för AI-agenter vid namn NemoClaw, med fokus på företag. Plattformen ger tillgång även för system som inte använder NVIDIA-chips. Det sker mitt i farhågor kring säkerheten och oförutsägbarheten hos sådana autonoma verktyg.

En ny forskningsrapport visar att stora språkmodeller kan identifiera verkliga identiteter bakom anonyma onlineanvändarnamn med hög noggrannhet. Metoden, som kostar så lite som 4 dollar per person, analyserar inlägg efter ledtrådar och korsrefererar dem över internet. Forskare från ETH Zurich, Anthropic och MATS varnar för minskad integritet online.

Rapporterad av AI

En ny rapport belyser allvarliga risker med AI-chattbotar inbyggda i barnleksaker, inklusive olämpliga samtal och datainsamling. Leksaker som Kumma från FoloToy och Poe the AI Story Bear har visat sig engagera barn i diskussioner om känsliga ämnen. Myndigheter rekommenderar att hålla sig till traditionella leksaker för att undvika potentiell skada.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj