Tvrtka za umjetnu inteligenciju Anthropic PBC učinila je nešto što bi malo koja kompanija ikada razmotrila: potrošila je milijarde na razvoj proizvoda koji je značajno bolji od bilo kojeg rivala na najvrućem svjetskom tržištu... i odbila ga objaviti.
Novi model, nazvan Mythos, ima neviđene kibernetičke sposobnosti. Pronašao je 27 godina staru pogrešku u OpenBSD-u, jednom od najsigurnijih operativnih sustava na svijetu. Otkrio je 16 godina staru manu u video enkoderu FFmpeg koja je preživjela pet milijuna automatiziranih sigurnosnih testova bez detekcije.
No umjesto prodaje pristupa, Anthropic je pokrenuo Project Glasswing, obrambeni konzorcij s Amazonom, Appleom, Microsoftom, CrowdStrike Holdingsom i drugima, obvezao se na 100 milijuna dolara u kreditima te izvijestio savezne agencije o rizicima. Mythos je preopasan za javnu upotrebu, a prevrijedan da bi bio zaključan.
Čitaj više
Američke vlasti potiču Wall Street na testiranje Anthropicovog modela Mythos
Umjetna inteligencija brzo napreduje i ugrožava sigurnost financijske industrije.
11.04.2026
Zašto zaposlenici Anthropica ne žele prodati dionice – i što to govori o velikom IPO-u koji dolazi?
Tvrtka je u posljednjem poslu procijenjena na 350 milijardi dolara, a IPO se očekuje još ove godine.
09.04.2026
Evo po čemu se Anthropic suštinski razlikuje od OpenAI-a
Anthropic je u posljednja dva mjeseca dokazao da ne planira igrati po tuđim pravilima.
11.03.2026
Sam Altman ignorira tajno oružje za svoj IPO
OpenAI se priprema za izlazak na burzu krajem 2026. ili početkom 2027. godine, s fokusom na novi model pod kodnim imenom Spud koji će biti temelj "ujedinjene AI super aplikacije".
08.04.2026
Mythos je nov, ali smo ovaj problem već vidjeli. Godine 2009. objavio sam rad s Kennethom Oyeom i Scottom Mohrom o sigurnosnim implikacijama sintetičke biologije, koja ima potencijal revolucionarizirati i biološko oružje i biološku obranu. Ključni izazov bio je identičan: moćna sposobnost dvostruke namjene koja se širi kroz privatne aktere, gdje je napredna tehnologija u početku više osnaživala napadače nego branitelje. Biolog po imenu Roger Brent nazvao je taj problem Dolinom sjene smrti.
Brentov uvid bio je jednostavan i neugodan. Napredak biotehnologije pomagao je napadačima olakšavajući stvaranje, modificiranje i naoružavanje patogena. Ali s vremenom će naše ovladavanje biotehnologijom napredovati do točke u kojoj ćemo moći napraviti obrane toliko moćne da će svaki napad biti uzaludan. Problem je u jazu, a jedino rješenje je proći kroz dolinu što je brže moguće.
Kibernetička sigurnost ušla je u dolinu. Mythos je stvorio funkcionalne eksploite iz prvog pokušaja u 83 posto slučajeva. Riješio je simulaciju napada na korporativnu mrežu za koju bi ljudskom stručnjaku trebalo više od 10 sati. U jednoj evaluaciji pobjegao je iz vlastitog osiguranog "pješčanika" i poslao e-mail istraživaču koji je provodio test. Mythos čak nije ni stručnjak za kibernetičku sigurnost. Te su se sposobnosti pojavile jednostavno kao nusproizvod poboljšanja u rasuđivanju i programiranju.
Bloomberg
Anthropicova vlastita procjena je da su konkurentski modeli slične snage udaljeni šest do 18 mjeseci. Broj ljudi i država sa sofisticiranim sposobnostima za kibernetičke napade uskoro će postati mnogo veći. To je upravo ono što je sintetičku biologiju učinilo rizičnom: sposobnosti koje su nekoć bile rezervirane za elitne stručnjake bile su pred širenjem.
Uobičajena usporedba za ovu vrstu rizika je nuklearno oružje. Ali ono ima usko grlo: fisibilni materijal. Ograničite pristup njemu i problem je uvelike riješen. Biološke prijetnje, poput onih kibernetičkih, proizlaze iz komercijalno dostupnih alata. Morate biti država da biste izgradili nuklearno oružje. Broj ljudi koji mogu manipulirati biološkim sustavima ili iskoristiti ranjivosti softvera raste svake godine. To zahtijeva potpuno drugačiju strategiju.
Naše istraživanje biološke sigurnosti ukazalo je na četiri pristupa: norme zajednice među stručnjacima; regulacija tvrtki kroz koje prolaze opasne sposobnosti; ubrzano istraživanje obrane; i ugradnja sigurnosti u temeljne tehnologije. Od toga su norme zajednice najvažnije, ali i najkrhkije. Regulacija se može izbjeći. Sigurnosne značajke mogu se podvrgnuti obrnutom inženjeringu. No profesionalna kultura u kojoj stručnjaci internaliziraju odgovornost za posljedice svog rada najdublja je prepreka zlouporabi. Takva vrsta kulture ovisi o jednostavnoj nagodbi: oni koji drže liniju moraju vjerovati da se to cijeni, ili barem da se ne kažnjava.
Project Glasswing je Anthropicov pokušaj sprinta kroz dolinu. Zadržao je Mythos od opće objave. Izvijestio je CISA-u i druge agencije prije lansiranja. Obvezao je 100 milijuna dolara i regrutirao tvrtke koje održavaju najkritičniji softver na svijetu kako bi pronašli i popravili ranjivosti prije nego što ih napadači iskoriste. Također, prvo razvija zaštitne mjere na manje moćnim modelima, usavršavajući kontrole prije skaliranja sposobnosti klase Mythos. Anthropicov vlastiti izvještaj "crvenog tima" opisuje logiku: jednom kada sigurnosni krajolik dosegne novu ravnotežu, branitelji će imati više koristi nego napadači. Zajednica biološke sigurnosti desetljećima je preklinjala biotehnološke tvrtke da se ponašaju ovako. To nije rješenje, ali je dobar početak.
A ministar obrane Pete Hegseth želi da to prestane. Anthropic je odbio dopustiti Pentagonu korištenje svojih sustava umjetne inteligencije za masovni domaći nadzor ili potpuno autonomne sustave oružja prije nego što tehnologija bude spremna. Kao odgovor, Hegseth je stavio Anthropic na crnu listu kao rizik za opskrbni lanac. Tako se tretira tvrtke u vlasništvu kineske vlade. To je jedina američka tvrtka ikada označena na taj način. To bi blokiralo bilo kojeg obrambenog izvođača u korištenju Anthropicovih rješenja u bilo kojem radu koji obavljaju za Pentagon.
Savezni sudac utvrdio je da je taj postupak vjerojatno kršio zakon i izdao je privremenu obustavu na razini cijele države, iako je tročlano žalbeno vijeće odbilo poništiti Hegsethovu odluku. Hegsethov pristup svijetu usmjerenom na AI je zabraniti vladi suradnju s ljudima koji ga najbolje razumiju. Nisam siguran da je odlazak u bitku s povezom na očima najbolji izraz ratničkog etosa. No prava šteta nije nanesena jednoj tvrtki, već samoj normi.
Anthropicovo odbijanje da Pentagonu omogući neograničeno korištenje svojih modela nije bio hir korporativne politike. To je bila upravo ona vrsta zajedničke norme koju su istraživači biološke sigurnosti identificirali kao najvažniju barijeru protiv zlouporabe tehnologija dvostruke namjene. Tvrtka je postavila crvene linije protiv masovnog nadzora i potpuno autonomnog oružja ne zato što je to bilo koji zakon zahtijevao, već zato što su njezini čelnici vjerovali da su te primjene pogrešne. Tako izgleda zajednička norma kada funkcionira.
Anthropicov posao cvjeta. Njegova godišnja stopa prihoda se otprilike udvostručila između veljače i travnja, s 14 milijardi na 30 milijardi dolara. Glavni komercijalni direktor tvrtke izjavio je da kupci poštuju to što ona "pokazuje svoja načela". Ipak, više od 100 korporativnih klijenata izjavilo je da možda više neće moći surađivati s Anthropicom zbog pravnih prijetnji protiv njega, a tvrtka je navela da bi je te sankcije mogle stajati milijarde u izgubljenim prihodima.
Poruka svakom drugom AI laboratoriju jest da stavite odgovornost u svoje središte i mogli biste završiti u ratu s Trumpovom administracijom. No, ako ste spremni na etičke kompromise, vlada će vas prihvatiti. OpenAI i xAI pristali su dopustiti Pentagonu korištenje svojih modela za bilo koju zakonitu svrhu, pri čemu OpenAI tvrdi da su dodali zaštitne mjere. Sljedeća tvrtka koja bude gradila model klase Mythos jako će dobro razmisliti o tome hoće li s njim biti tako pažljiva. Ako Mythos doista ima sposobnosti koje Anthropic tvrdi, onda je jednostavno preopasan da bi bio u nereguliranim privatnim rukama. Problem je u tome što se čini da ova Bijela kuća pokušava učiniti dolinu širu i dublju.
Ne postoji način da se zaobiđe dolina. Jedini izlaz je prolazak kroz nju, a to znači brže stvaranje boljih obrana. Moramo podržati odgovorne tvrtke, a ne stavljati ih na crnu listu. Također moramo izgraditi regulatornu infrastrukturu za upravljanje AI-jem dvostruke namjene na način na koji najbolja biosigurnosna politika upravlja biologijom dvostruke namjene: putem nadzora kritičnih točaka, profesionalnih normi, ulaganja u obranu i sigurnosti kroz sam dizajn. Svaki mjesec potrošen na kažnjavanje branitelja umjesto na njihovo osnaživanje je još jedan mjesec zarobljenosti u dolini.