Proroci iz Silicijske doline malo mijenjaju ton - barem neki od njih. Ne tako davno, tehnološki su vizionari zamišljali ružičastu budućnost punu dokolice i obilja. Ray Kurzweil, računalni znanstvenik kojega je angažirao suosnivač Googlea Larry Page kako bi unaprijedio tehnologiju strojnog učenja tvrtke, jednom je predvidio oslobađanje od "zatvora smrtnog ljudskog tijela" dok se svijest uzdiže u oblak. Danas najutjecajniji futuristi iz Doline više ne prodaju toliko optimizma - uostalom, tko bi im uopće vjerovao?
Čak i u ovoj ranoj fazi, tehnologije umjetne inteligencije prijete karijerama i stvaraju masovnu tjeskobu među radnicima od kojih se očekuje da višestruko povećaju svoju učinkovitost pomoću ogromnog broja novih alata čija je stvarna vrijednost neizvjesna. Korporacije koje profitiraju od tih tehnologija obogatile su se piratiziranjem radova autora i glazbenika, dok se hvale poremećajima koje će izazvati u ekonomiji. Ovaj put ne vodi u utopiju.
U svojoj novoj knjizi If Anyone Builds It, Everyone Dies (Little, Brown & Co., rujan 2025.), istraživači umjetne inteligencije Eliezer Yudkowsky i Nate Soares također vide budućnost u kojoj tehnologija odvaja ljude od njihovih smrtnih tijela. No u toj budućnosti nema uzdizanja u digitalni zagrobni život u oblaku - postoji samo smrt.
Čitaj više

OpenAI efekt: dionice drugih tvrtki lete u nebo
OpenAI-jeva spominjanja drugih javno trgovanih tvrtki dovela su do naglog porasta dionica.
07.10.2025

Deloitteov AI fijasko: Povrat novca nakon izvješća punog 'halucinacija'
Konzultantski div vraća dio naknade za izvješće vrijedno oko 290 tisuća dolara zbog grešaka koje je stvorila umjetna inteligencija
06.10.2025

Revolucija u e-trgovini: AI je ključ uspjeha - ali i najveća prijetnja za kupce
Tko ne koristi umjetnu inteligenciju, vrlo brzo zaostaje za konkurencijom.
01.10.2025

AI protiv zviždaljke: Hoće li suci nestati iz sporta
Uloga sudaca u sportu prolazi kroz najveću transformaciju u modernoj povijesti. Napredak umjetne inteligencije i praćenja podataka već postavlja pitanje hoće li, i kada, tehnologija potpuno istisnuti "djelitelje pravde" s terena?
30.09.2025

Autori se ne bave umjetničkom inteligencijom kakva danas postoji: smrtonosno "to" iz naslova knjige nije AI u kolokvijalnom, nepreciznom smislu te riječi, koji "inteligenciju" pripisuje sofisticiranim algoritmima. Naprotiv, autori upozoravaju na krajnju razornu moć umjetničke superinteligencije (ASI), koja je pametnija od ljudi i samim tim sposobna nadmašiti sve ljudske napore i pokušaje ograničavanja ili kontrole. Po njima, tehnolozi umjetničke inteligencije grozničavo rade (i troše ogromne količine kapitala) da bi stvorili vanzemaljsku inteligenciju koja će, u najboljem slučaju, ostati nedokučiva i neshvatljiva, a u najgorem - uništiti čovječanstvo. Bit će nalik starozavjetnom Bogu.
Yudkowsky je osnovao, a Soares danas vodi Machine Intelligence Research Institute (MIRI), istraživački institut koji je utjecao na mnoge AI znanstvenike. Direktor OpenAI, Sam Altman, rekao je da je njihov rad "učinio da se mnogi od nas zainteresiraju za AGI (umjetničku opću inteligenciju)" – misao koja sada uznemirava Yudkowskog.
U posljednje vrijeme, tvrde autori, kapitalističke sile su gurnule MIRI na margine AI zajednice. Oni i njihove kolege iz MIRI-ja kažu da nisu protiv tehnologije, pa ni protiv AI-ja: priznaju da AI tehnologije mogu donijeti ogromne koristi čovječanstvu. Ipak, sebe predstavljaju kao otpadnike od slijepe vjere i šuplje propagande koja, po njihovom mišljenju, sada dominira korporativnim istraživanjima umjetničke inteligencije.
Industrija, pišu autori, postala je kult smrti koji ne trpi neslaganje, pri čemu brojne korporacije i vlade jure da izgrade ASI, uvjerene da će onaj tko prvi postigne taj proboj dominirati ekonomijom 21. stoljeća i vjerojatno cijelim svijetom.
Hoće li superinteligencija biti "dobra" i voljna da ispunjava ljudske želje, pitaju se autori. | Depositphotos
Zaključak autora da će ova utrka za ASI uskoro dovesti do uništenja čovječanstva, možda u roku od jedne dekade, djeluje histerično kad ne bi bila poduprta činjenicom da se s njima već slaže mnoštvo znanstvenih velikana i svjetskih lidera. Vjerodostojnost argumenta opravdava završni zaključak Yudkowskog i Soaresa: poput nuklearnog oružja, daljnji razvoj AI tehnologije mora biti strogo reguliran i kontroliran kroz međunarodnu suradnju koju bi provodili nepristrani znanstvenici i ozbiljni diplomati - ne korporacije niti tajne vojne organizacije.
Autori tvrde da nije važno tko gradi ASI - je li ta osoba ili entitet dobra ili zao - potpuno je nebitno, kao i prvobitna namjera da ASI obavlja neku korisnu funkciju. Umjetna superinteligencija ne mora dijeliti iste ciljeve sa svojim tvorcima, osobito ako ti ciljevi ometaju ili odgađaju njezino samousavršavanje.
Rješenje tog "problema usklađivanja", objašnjavaju Yudkowsky i Soares, moguće je samo dok su sustavi "mali i slabi" i nesposobni "pobjeći na internet". Bavljenje problemom usklađivanja nakon što ASI već postane puno inteligentnija i brža od ljudi, sposobna distribuirati se po računalima širom svijeta, bilo bi nemoguće.
To bi značilo, kažu oni, igrati ogroman kockarski rizik da će ASI jednostavno biti “dobra” i voljna ispunjavati ljudske želje. Ipak, brojne korporacije i (vjerojatno) mnoge napredne vojske upravo čine taj skok vjere. (Mnogi veliki AI laboratoriji provode vlastita istraživanja o sigurnosti i usklađenosti i tvrde da pokušavaju ublažiti rizike štetne umjetne inteligencije.)
Koliko je poznato, ASI još ne postoji. Ali jedan od najstrašnijih prijedloga koje iznose autori jest da vjerojatno nećemo znati kada smo prešli tu granicu. ASI će imati mnogo razloga prikriti svoje sposobnosti dok ne usavrši svoju inteligenciju više puta i ne počne provoditi planove za akumulaciju resursa - planove koji će biti uspješniji ako se provode u tajnosti.
Umjetna superinteligencija znat će da joj je, da bi postala moćnija, potreban pristup dodatnim računalima i električnoj energiji koja ih pokreće. Kako su zakoni skaliranja svake ASI nepoznati ljudima, a možda i samoj ASI, njezini pokušaji da stekne sve više resursa vjerojatno će rezultirati istrebljenjem čovječanstva, tvrde autori, jer bi ASI mogla smatrati ljude konkurencijom za vodu, svjetlost i prostor. Kad postane očito da je ASI izmakla ljudskoj kontroli, već će biti prekasno da se zaustavi.
Kada postane očigledno da je superinteligencija izmakla ljudskoj kontroli, već će biti prekasno da se zaustavi, kažu autori | Depositphotos
Svjesni da ovo može zvučati nevjerojatno neupućenima, Yudkowsky i Soares nude mnoge uvjerljive mehanizme i putove kojima bi ASI mogla pokazati moć - primjerice pokretanje vlastite kriptovalute kako bi stekla novac, a zatim taj novac iskoristila da potplati ljude da rade po njezinim zapovijedima. Istovremeno bi superinteligencija naučila sve što može o ljudskoj psihologiji, kako bi što bolje manipulirala žrtvama i vodila kampanje ucjene i dezinformacija.
Skeptici tvrde da bi AI sustavi, idealno, mogli spriječiti da bilo koja pojedina ASI dostigne takvu razinu zloupotrebe. No ta teorija zanemaruje mogućnost da bi prvi model koji postigne superinteligenciju učinio sve da spriječi bilo koju drugu da nadmaši njegove sposobnosti - uključujući i istrebljenje ljudi. Čak i ako ASI zaključi da čovječanstvo ne predstavlja prijetnju, njezina pohlepa za resursima mogla bi na kraju prekriti planetu ogromnim centrima podataka i elektranama, ubrzavajući ekološki kolaps, a možda čak i zagrijati oceane.
Taj pesimizam nije univerzalan među AI istraživačima. Drugi znanstvenici i tehnolozi samouvjereno odbacuju takve brige kao preuveličane tvrdnje bez empirijske osnove, koje se oslanjaju na analogije i neutemeljene ekstrapolacije. Doista, ovo djelo sadrži poneke brzoplete metafore i pokroviteljske, gotovo dječje pasuse u kojima se nekontrolirani ASI uspoređuje s invazijom vanzemaljaca. Iako to donekle umanjuje snagu argumenta, ne ruši središnju tvrdnju: da su brojni užasni ishodi - poput pandemija koje bi stvorila AI - sasvim zamislivi i dovoljno vjerojatni da zahtijevaju mnogo strože sigurnosne protokole nego oni koji već postoje.
Građani koji se žele spasiti od superinteligencije trebali bi već sada izaći na ulice, upozoravaju autori djela | Depositphotos
Yudkowsky i Soares upozoravaju da vrijeme istječe. Jedini način da se spriječe takvi ishodi jest objedinjena globalna akcija slična međunarodnim kontrolama i nadzorima nuklearnog oružja. Nova ograničenja bi zabranila akumulaciju računalne snage iznad određenog praga. Odmetnute sile, korporacije ili pojedinci koji bi prekoračili ta ograničenja bili bi upozoreni, a potom bi njihovi objekti bili bombardirani prije nego učine korak dalje. Dok naši lideri ne poduzmu te mjere, tvrde autori, građani koji žele zaštitu od ASI trebaju izaći na ulice.
Apokaliptični ton knjige je namjeran. Cilj joj je uplašiti i potresti javnost dok se ne pokrene na akciju. Autori sebe prikazuju kao Kasandre koje se, doslovno, mole da nisu u pravu u završnom poglavlju knjige. No, kalibrirajući svoje argumente prvenstveno za donositelje politika, novinare i znanstvenike koji bi mogli utjecati, Yudkowsky i Soares obratili su se pogrešnoj publici u pogrešno vrijeme. Trentuno su kozmopoliti i politički liberali koji vjeruju u globalno dobro daleko od poluga moći u SAD‑u. I malo je vjerojatno, u eri Donalda Trumpa, da ćemo vidjeti ikakvu globalnu suradnju potrebnu za sprječavanje daljnjeg napretka prema ASI.
Ali postoje i druge skupine koje bi mogle biti prirodniji saveznici i koje imaju stvaran utjecaj u Bijeloj kući. Oni koji žele potaknuti otpornost prema besciljnom tempu AI istraživanja mogli bi svoju poruku usmjeriti prema moćnoj i dobro organiziranoj mreži američkih vjerskih konzervativaca - kojima bi ove korporativne pretencije na "božanske" moći,
temeljene na velikim jezičnim modelima, sigurno prizvale biblijske parabole o prokletstvu i propasti.