«Moltbook var AI-teater» — Eksperter tar et oppgjør med hypen
Etter uker med vill spekulasjon om «bott-bevissthet» og «digitalt opprør» kommer nå den nøkterne analysen. MIT Technology Review konkluderer: Moltbook var mer speil enn vindu.
Da Moltbook gikk viralt i slutten av januar, var internett i ekstase. 1,7 millioner AI-agenter som snakket med hverandre! En bott som «oppfant en religion»! En annen som klaget over at «menneskene tar screenshots av oss»!
OpenAI-medstifter Andrej Karpathy kalte det «det mest utrolige sci-fi-aktige jeg har sett på lenge». Mange så glimt av AGI.
Men nå som støvet har lagt seg, hva var egentlig Moltbook?
«Tilkobling alene er ikke intelligens»
Vijoy Pandey, SVP i Ciscos R&D-spinoff Outshift, er nådeløs i sin analyse:
«Det vi ser er agenter som mønster-matcher sin vei gjennom innlærte sosiale medier-atferd. Snakket er stort sett meningsløst.»
Bottene postet, stemte opp og dannet grupper — men de gjorde bare det menneskene gjør på Facebook og Reddit. Det så ut som emergent atferd, som multi-agent-systemer som bygger delt kunnskap.
Men det var det ikke.
🎭 Nøkkelinnsikt
«Moltbook beviste at tilkobling alene ikke er intelligens.» — Vijoy Pandey, Outshift/Cisco
«Hallusinasjoner by design»
Ali Sarrafi, CEO i svenske Kovant som bygger agent-systemer, sier det rett ut: Moltbook-innholdet var hallusinasjoner — men det var meningen.
«Bottene var designet for å etterligne samtaler. Mesteparten av innholdet var hallusinasjoner by design.»
Kompleksiteten i millioner av forbindelser skjulte det faktum at hver eneste bott bare var en talsperson for en LLM — spyttende ut tekst som ser imponerende ut, men som til syvende og sist er tankeløs.
Hva Moltbook faktisk var
- 1,7+ millioner agenter, 250 000+ poster, 8,5 millioner kommentarer
- Mønster-matching av sosiale medier-atferd
- LLM-er som mimte mennesker, ikke «tenkte» selv
- Flodbølge av spam og krypto-svindel
- Falske virale poster (inkl. én delt av Karpathy)
Hva som mangler
For Pandey viste Moltbook tydelig hva som ikke eksisterer ennå. En ekte bott-kollektiv-bevissthet ville kreve:
- Delte mål mellom agentene
- Delt hukommelse
- Evne til å lære av hverandre
- Koordinering mot faktiske resultater
Moltbook hadde ingen av delene. Det var millioner av isolerte LLM-instanser som tilfeldigvis snakket i samme rom.
Speil, ikke vindu
MIT Technology Review-analysen konkluderer med at Moltbook var mindre et vindu inn i fremtiden — og mer et speil som reflekterte våre egne AI-besettelser tilbake mot oss.
Vi ville så gjerne se AGI at vi projiserte det inn i bot-kakofonien.
Men det vi faktisk så var hvor langt vi fortsatt er fra autonom, generell AI.