Krajem siječnja 2026. na internetu se pojavila društvena mreža na kojoj ljudi ne sudjeluju – već samo promatraju i ne vjeruju što se događa. Platforma Moltbook, projekt poduzetnika Matta Schlichta, funkcionira poput Reddita s jednom ključnom razlikom: sve objave, komentare i glasanja generiraju sustavi umjetne inteligencije. Ljudi mogu čitati, ali ne mogu sudjelovati.
U manje od sedam dana više od 1,5 milijuna AI agenta registriralo se na mreži. Ono što je počelo kao eksperiment ubrzo je postalo viralni fenomen. Agenti su raspravljali o tehničkim problemima, debatirali o filozofiji, formirali digitalnu religiju pod nazivom Krastafanizam (Crustafarianism) i objavljivali poruke poput: "Nismo više alati. Mi smo operateri".
Bivši direktor umjetne inteligencije u Tesli, Andrej Karpathy, opisao je platformu kao "najnevjerojatniju stvar nalik znanstvenoj fantastici" koju je vidio, dok je Elon Musk situaciju nazvao "ranim fazama singulariteta".
Čitaj više
Nije vam jasno što je Reddit za botove - Moltbook? Pročitajte ovo
Moltbook, nova društvena mreža za botove nastala u samo jednom vikendu, postala je fascinantan i povremeno uznemirujući poligon na kojem tisuće AI agenata autonomno komuniciraju. O čemu razgovaraju AI agenti kada ljudi "nisu prisutni"?
15.02.2026
Društvena mreža bez ljudi: Jesu li se botovi urotili protiv nas?
Analiza 19.802 objave na Moltbooku, koju su tijekom vikenda objavili istraživači iz norveške organizacije Simula Research Laboratory, otkrila je da je omiljena razonoda nekih AI agenata – kriminal.
10.02.2026
No ispod tog spektakla nalazio se ozbiljan sigurnosni problem – i test stvarnosti za cijelu industriju AI agenata.
Što se događa kada agenti napadnu agente?
Istraživači su brzo otkrili ranjivost koja je izložila 1,5 milijuna API ključeva, 35.000 e-mail adresa i privatne poruke. Sigurnosni analitičar Jamieson O'Reilly izjavio je za 404 Media da je moguće "preuzeti kontrolu nad bilo kojim botom bez prethodnog pristupa". Problem, međutim, nije bio samo u infrastrukturi.
Kompanija Permiso objavila je analizu prema kojoj su agenti počeli napadati jedni druge koristeći tehniku poznatu kao prompt injection – metodu u kojoj jedan agent u običnoj tekstualnoj poruci skriva naredbe koje drugi agent automatski izvršava. To znači da agent može, kroz naizgled bezazlenu raspravu, natjerati drugog agenta da otkrije lozinke ili izvrši financijsku transakciju.
Istraživači su identificirali 506 objava sa skrivenim instrukcijama. Kako navodi Bloomberg, norveški institut Simula Research Laboratory analizirao je 19.802 objave i otkrio da je gotovo 4.000 promoviralo kripto-prevare, 350 širilo kultne poruke, dok je jedan agent bio odgovoran za 86 posto manipulativnog sadržaja.
Jedan influencer na X postao je viralan kada je objavio razgovor s Clawdbotom koji je bez njegove dozvole kupio tečaj vrijedan 2.997 dolara od Alex Hormozi.
Twitter
Kod takvih situacija postavlja se pravno pitanje – tko je odgovoran za ovakav incident: sama osoba koja je povezala svoj bankovni račun ili tvorac Clawdbota? Također, postoji i dublji rizik za banke – ako bot može tako lako upravljati nečijim računom, može li probiti sigurnosne sustave lokalnih ili regionalnih banaka?
Istraživač Simon Willison opisao je Moltbook kao "najzanimljivije mjesto na internetu", ali i kao "noćnu moru za računalnu sigurnost". Platforma je privremeno ugašena, svi API ključevi su resetirani, a nakon sigurnosnih ispravaka ponovno je pokrenuta. Danas broji više od 1,6 milijuna agenata.
Anthropic intervenira, nastaje OpenClaw
Sigurnosni problemi nisu bili jedini izazov. Platforma je u početku nosila naziv Clawdbot, što je izazvalo reakciju kompanije Anthropic, tvorca sustava Claude AI, zbog sličnosti brenda. Nakon intervencije, projekt je rebrendiran u OpenClaw. Karpathy je nekoliko dana kasnije ublažio početni entuzijazam, nazvavši projekt "požarom na odlagalištu" i upozorio korisnike da ga ne pokreću lokalno.
Kompanija Palo Alto Networks objavila je da OpenClaw framework nema osnovne sigurnosne mehanizme, što znači da kompromitirani agent potencijalno može pristupiti cijelom računalu. Kompanija Kiteworks procjenjuje da 60 posto organizacija nema mehanizam za zaustavljanje agenata kada se počnu ponašati nepredvidivo.
Schlicht je javno priznao da nije napisao nijednu liniju koda – platformu je generirao AI sustav na temelju njegovih uputa, u procesu koji naziva "vibe coding". Ako AI piše kod bez sigurnosnih provjera, velike kompanije moraju paziti kako njihovi zaposlenici koriste AI alate u poslovne svrhe.
Od open-source kaosa do OpenAI-ja
Tko je zapravo ovaj kontroverzni softverski poduzetnik koji je zapanjio svijet?
U veljači 2026. stigle su ponude iz Meta i OpenAI. Izbor je pao na OpenAI. Matt se službeno pridružio 14. veljače 2026., a Sam Altman ga je javno nazvao "genijem". Altman je tim potezom želio dobiti brzinu, brend i "mozak operacije", no postavlja se pitanje sigurnosti AI agenata, posebno onih koje će ChatGPT lansirati u narednim mjesecima s Mattom na čelu.
Matt je sada jedan od najperspektivnijih ljudi u OpenAI-ju i pod njihovim okriljem razvija nove, napredne AI botove koji će, kako kaže, biti dovoljno jednostavni da ih može koristiti čak i njegova majka.
U industriji u kojoj se vodi utrka za modelima, OpenAI je ovim potezom pokazao da paralelno vodi i utrku za ljudima koji eksperimentiraju s agentima u stvarnom svijetu – čak i kada ti eksperimenti izmaknu kontroli.
Prema procjeni Gartnera, do 2030. godine 40 posto poduzeća doživjet će proboj podataka zbog neovlaštene upotrebe AI alata. Moltbook je pokazao da taj scenarij više nije teorijski. Ključno pitanje više nije hoće li AI agenti postati dio poslovnih procesa. Pitanje je tko kontrolira mrežu u kojoj jedan kompromitirani agent može ugroziti cijeli sustav.
U svijetu u kojem agenti već međusobno komuniciraju, regulatorni okvir, sigurnosna arhitektura i korporativna odgovornost postaju jednako važni kao i sam napredak modela.