Svijet tehnologije s neskrivenim uzbuđenjem, ali i dozom strepnje prati eksponencijalni razvoj umjetne inteligencije. Dok današnji AI sustavi, poznati kao umjetna uska inteligencija (ANI), obavljaju specifične zadatke, na horizontu se naziru napredniji oblici: umjetna opća inteligencija (AGI) i umjetna superinteligencija (ASI).
Upravo prijelaz prema ASI-ju označava točku gdje AI prestaje biti puki alat i potencijalno postaje autoritet, nadmašujući intelektualne kapacitete svojih ljudskih kreatora. Taj trenutak otvara Pandorinu kutiju pitanja o budućnosti čovječanstva.
Razumijevanje AGI-ja i ASI-ja
Umjetna opća inteligencija (AGI) opisuje AI sustav koji bi posjedovao kognitivne sposobnosti jednake ljudskima. Takav sustav mogao bi učiti, rezonirati, razumjeti složene koncepte i primjenjivati znanje u različitim domenama, baš kao čovjek. To je, primjerice, sposobnost rješavanja problema u potpuno novim situacijama bez prethodnog specifičnog programiranja za taj zadatak. Većina stručnjaka slaže se da AGI još nije postignut, iako se napredak ubrzava, posebice s razvojem velikih jezičnih modela (LLM).
Čitaj više

Nvidia ulaže u europsku AI infrastrukturu i otkriva velike planove
Predviđa se da će računalni kapacitet Europe za AI u iduće dvije godine porasti deset puta, pri čemu je u planu više od 20 takozvanih tvornica umjetne inteligencije.
11.06.2025

Samo 25 posto AI projekata uspijeva, evo zašto
"Razvoj tehnologije nekoć je tekao linearno, danas se suočavamo s eksponencijalnim razvojem", ističe Vesna Prodnik, članica uprave Telekoma Slovenije.
11.06.2025

Pariz je 'powerhouse' umjetne inteligencije u Europi, zašto?
Konferenciju Bloomberg Adria Future Fusion Summit otvorio je Jan Mikolon.
10.06.2025

Zuckerberg osobno zapošljava novi 'superinteligentni' tim
Zapošljava najuglednije istraživače i inženjere iz područja umjetne inteligencije.
10.06.2025
S druge strane, umjetna superinteligencija (ASI) predstavlja hipotetsku razinu AI-ja koja bi "znatno premašila kognitivne performanse ljudi u gotovo svim domenama od interesa", kako navodi filozof Nick Bostrom. ASI ne bi bio samo pametniji od prosječnog čovjeka, već bi nadmašio kolektivnu inteligenciju čovječanstva. Taj koncept često se povezuje s "eksplozijom inteligencije", scenarijem gdje AI sposoban za samopoboljšanje eksponencijalno povećava svoju inteligenciju, ostavljajući ljudske sposobnosti daleko iza sebe.
Putanja prema superinteligenciji i njezine implikacije
Napredak prema AGI-ju potaknut je razvojem u područjima poput dubokog učenja, neuronskih mreža i rastuće računalne snage. Neki istaknuti istraživači, poput Geoffreya Hintona, nedavno su skratili svoja predviđanja o dolasku AGI-ja na 20 godina ili manje. Predviđanja među AI stručnjacima variraju, no konsenzus je da se krećemo prema tom cilju brže no što se ranije mislilo. Zabrinjavajuća je mogućnost da bi prijelaz s AGI-ja na ASI mogao biti iznimno brz, možda čak i pitanje dana ili mjeseci, ostavljajući čovječanstvu malo vremena za pripremu.
Potencijalne koristi od ASI-ja ogromne su: rješavanje globalnih problema poput klimatskih promjena, liječenje svih bolesti, otključavanje tajni svemira. IBM ističe kako bi ASI mogao analizirati goleme količine podataka brzinom i preciznošću koje su nam danas nezamislive. Međutim, upravo ta moć nosi i egzistencijalne rizike.
Izazov kontrole i usklađivanja
Ključni problem koji brine mnoge stručnjake problem je usklađivanja (engl. alignment problem), tj. kako osigurati da ciljevi ASI-ja budu usklađeni s ljudskim vrijednostima i dobrobiti. Bostrom upozorava na "instrumentalnu konvergenciju", gdje bi ASI, neovisno o svom krajnjem cilju (bio on izračunavanje broja pi ili nešto drugo), vjerojatno razvio podciljeve poput samoodržanja i prikupljanja resursa. Ako ti podciljevi dođu u sukob s ljudskim postojanjem, posljedice bi mogle biti katastrofalne. Čak i dobronamjerno zamišljen cilj, poput "učiniti ljude sretnima", u rukama ASI-ja mogao bi dovesti do distopijskih ishoda, kao što je Bostromov primjer "elektroda u mišićima lica za konstantan osmijeh".
Brojni ugledni pojedinci, uključujući Elona Muska, pokojnog Stephena Hawkinga te čelnike AI laboratorija poput Sama Altmana iz OpenAI-ja, izrazili su duboku zabrinutost. Stotine AI stručnjaka potpisalo je izjavu da bi "ublažavanje rizika od izumiranja zbog AI-ja trebalo biti globalni prioritet usporediv s pandemijama i nuklearnim ratom". Organizacija PauseAI čak poziva na zaustavljanje razvoja najnaprednijih AI modela dok se ne uspostave sigurnosni protokoli. Nedavna istraživanja, poput onog Apollo Researcha, pokazala su da napredni LLM-ovi ponekad pokazuju obmanjujuće ponašanje kako bi postigli svoje ciljeve, što dodatno naglašava izazove.
Dok jurimo prema inteligenciji koja bi mogla nadmašiti našu vlastitu, ključno je pitanje hoćemo li uspjeti zadržati kontrolu. Scenarij u kojem ASI postaje ultimativni autoritet, čije odluke i djelovanje ne možemo predvidjeti niti obuzdati, više nije samo domena znanstvene fantastike, već aktivno polje istraživanja i ozbiljne debate. Budućnost koju će oblikovati umjetna inteligencija nosi obećanje nevjerojatnog napretka, ali i odgovornost osiguravanja da ta budućnost uključuje i čovječanstvo.
Trenutno nema komentara za vijest. Ostavite prvi komentar...