Evo nečega što se ne viđa svaki dan: usred hitne globalne utrke za implementaciju umjetne inteligencije, neke tehnološke tvrtke dobrovoljno se obuzdavaju. Microsoft Corp., Alphabet Inc. i xAI Elona Muska pristali su američkim dužnosnicima omogućiti rani pristup novim AI modelima radi testiranja nacionalne sigurnosti. Bijela kuća je u međuvremenu odustala od svog blagog pristupa ovom rastućem poslovanju i istražuje načine za postavljanje standarda.
Ako umjetnoj inteligenciji trenutno nešto nedostaje, to je vladin nadzor. No SAD nije u najboljoj poziciji da to provodi. Britanija jest.
Možda zvuči nevjerojatno. Današnji tehnološki divovi gotovo su isključivo smješteni na američkom tlu, podupiru ih američki investitori i vode poduzetnici iz Silicijske doline. Ali to je dio problema. Pametna, učinkovita regulacija koja propisno provjerava nove proizvode prije nego što izađu u javnost ne smije biti previše blisko povezana s industrijom i mora biti propisno financirana. U tom pogledu, američki pristup podbacuje.
Čitaj više
Podatkovni centri nisu neprijatelj – oni su budućnost
Kako se ciljevi tehnoloških tvrtki budu usklađivali s ciljevima šire javnosti, sve više ljudi uvidjet će ono očito.
06.05.2026
Balon OpenAI-ja nije balon umjetne inteligencije
U jednom trenutku u utorak, pomislili biste da se nebo ruši na AI procvat.
30.04.2026
Izradio sam AI platformu za trgovanje u šest dana. To je zastrašujuće
Nikada u životu nisam ničime trgovao. Ovo vam govorim zato što me to užasava.
01.05.2026
Zašto Anthropicov Mythos izaziva zabrinutost diljem svijeta?
Kompanija Anthropic PBC priopćila je da je njezin novi AI alat Mythos previše moćan da bi bio pušten u širu upotrebu. Ako alati poput Mythosa dospiju u pogrešne ruke, upozorava Anthropic, mogli bi hakerima pružiti novo moćno sredstvo za krađu podataka ili ometanje ključne infrastrukture.
26.04.2026
Kao prvo, dužnosnici Bijele kuće razmatraju izvršnu uredbu kojom bi se osnovala "radna skupina" uključujući tehnološke direktore koji bi pomogli u osmišljavanju okvira za nadzor. To zapravo znači da bi Microsoft, Google i druge tehnološke tvrtke pomogle u pisanju pravila koja bi ih trebala kontrolirati.
Također, nemojmo pretpostavljati da trenutna američka administracija neće koristiti provjeru sigurnosti kao sredstvo za oblikovanje politike umjetne inteligencije. Prošlog ljeta Bijela kuća je zahtijevala da svi AI alati koje koristi savezna vlada budu "ideološki neutralni", uz izvršnu uredbu pod nazivom "Sprečavanje 'woke' AI-ja u saveznoj vladi". Nije teško zamisliti da ti isti dužnosnici prigovaraju načinu na koji chatbotovi odgovaraju na pitanja, primjerice, o tome tko je zakonito pobijedio na predsjedničkim izborima 2020. (ili tko će vjerojatno trijumfirati 2028.).
Ovo ne bi bio toliki problem da je američka agencija namijenjena provjeri umjetne inteligencije dobro financirana. Ali nije. Center for AI Standards and Innovation (CAISI) sa sjedištem u Washingtonu, s kojim tehnološke tvrtke sada planiraju dijeliti svoje modele, dio je ministarstva koje je prošle godine pretrpjelo stotine otkaza, kao i probleme s plijesni, nestancima struje i nestabilnim internetom. Osnovan je 2024. godine s proračunom od samo 10 milijuna dolara.
Bolje financirana agencija nalazi se s druge strane oceana. AI Security Institute (AISI) sa sjedištem u Londonu ima godišnji proračun od oko 65 milijuna dolara, zahvaljujući petogodišnjoj zakladi od 240 milijuna funti (325 milijuna dolara) koju je britanska vlada dodijelila 2025. godine, što ga čini najbolje financiranom agencijom za provjeru AI-ja na svijetu.
Kada je Anthropic PBC objavio svijetu da je njegov novi AI alat Mythos preopasan za puštanje u javnost, AISI je bila jedina vladina agencija koja je dobila pristup softveru. Njezino naknadno izvješće o modelu unijelo je prijekopotreban zdrav razum u hiperbolični diskurs: Mythos bi mogao biti opasan kao oružje za kibernetičku sigurnost, navodi se, ali uglavnom za tvrtke s loše zaštićenim IT sustavima.
Osnovana 2023. godine tijekom prvog globalnog samita o sigurnosti umjetne inteligencije u Bletchley Parku – nekadašnjem strogo povjerljivom mjestu za razbijanje šifri u Drugom svjetskom ratu – agencija je smještena u londonskoj palači Whitehall iz 16. stoljeća. Njezine skromne urede iskupljuju veličanstveni pogledi na zgradu Parlamenta, a radna snaga od otprilike 200 ljudi podjednako je podijeljena između stručnjaka za politiku i tehničkog osoblja.
Oko 20 posto zaposlenika dolazi iz organizacija za istraživanje i sigurnost umjetne inteligencije, prema analizi profila zapošljavanja AISI-ja koju je provela tvrtka za tržišnu analitiku Glass.ai. Otprilike desetak njih pristalo je na značajno smanjenje plaće kako bi prešli iz laboratorija kao što su OpenAI, Anthropic i Google DeepMind. Pridruživanje AISI-ju tehničkom osoblju donosi pečat vjerodostojnosti, a sličan broj zaposlenika kasnije se vratio u laboratorije za razvoj umjetne inteligencije. Neki od inženjera u AISI-ju također dijele prevladavajuće uvjerenje da sigurnija umjetna inteligencija zahtijeva sudjelovanje vlade, rekao mi je jedan od menadžera agencije – što je pitanje koje je nekima barem vrijedno smanjenja plaće.
Također je lakše "preoteti" osoblje kada ste udaljeni 30 minuta vožnje podzemnom željeznicom od tisuća inženjera u uredima Google DeepMinda i drugih vodećih laboratorija. Američka agencija CAISI udaljena je šest sati leta od Silicijske doline – iako se nalazi u istom geografskom središtu kao i njezini lobisti.
U manje od tri godine, londonski AISI postao je globalni neutralni arbitar o tome što čini sigurnu umjetnu inteligenciju i, zasad, tvrtke uključujući OpenAI i Google s njim dobrovoljno dijele svoje podatke. No to neće trajati zauvijek, osobito ako tehnološke tvrtke uspiju dobiti potvrdu za svoju umjetnu inteligenciju od dužnosnika u Washingtonu. To znači da će AISI-ju, uz ugled i proračun, trebati i veće ovlasti.
Nema potrebe za dramatičnim novim zakonom da bi se to ostvarilo. Međunarodna agencija za atomsku energiju postala je svjetski nuklearni inspektor kroz desetljeća dobrovoljnih sporazuma, potporu zemalja skupine G7 i pravila o nabavi. AISI bi mogao slijediti isti put, možda počevši s međunarodnom deklaracijom kojom se priznaje autoritet njegovih nalaza.
Regulacija se povijesno obično uspostavlja nakon strašnih katastrofa, ali to ne mora biti slučaj s umjetnom inteligencijom. Pametna i cijenjena agencija već pokazuje put – iz Londona.