Korištenje AI chatbota postalo je svakodnevica mnogima. Koristimo ih za pretraživanje pojmova, vijesti, recepata, traženje savjeta, pa čak im povjeravamo i tajne. No koliko su oni zapravo pouzdani i koliko su informacije koje dobivamo točne? Odgovor na to pitanje donosi novo istraživanje Europske radiodifuzijske unije (EBU), koje je otkrilo zabrinjavajuću stopu pogrešaka među popularnim chatbotovima s umjetnom inteligencijom. Vjerovali ili ne - svaki treći odgovor je izmišljen.
Ovi chatbotovi, osim što izmišljaju, ponekad navode i pogrešne izvore. Globalne tehnološke kompanije ulažu milijarde u razvoj AI tehnologija, a korisnici se i dalje suočavaju s osnovnim problemom - da ih chatbot laže.
Globalna ulaganja u umjetnu inteligenciju dosegla su više od 200 milijardi dolara u 2024. godini, pokazuju podaci CB Insightsa. Microsoft, Google, Amazon, Meta i drugi tehnološki divovi natječu se u razvoju novih modela, a svaka nova generacija donosi veća očekivanja i još veće troškove. Ipak, istraživanje EBU-a jasno pokazuje da, unatoč tim ulaganjima, chatbotovi i dalje nisu pouzdani ni u osnovnim funkcijama. Stopa pogrešaka, koja se kreće između 10 i 60 posto ovisno o vrsti pitanja i asistentu, otvara pitanje isplativosti takvih investicija i mogućeg precjenjivanja tržišta.
Čitaj više
Friar iz OpenAi-a: ‘AI nije balon – svijet još ne shvaća njegov pravi potencijal’
Financijska direktorica OpenAI-a izjavila je da je tržište previše usmjereno na zabrinutost zbog mogućeg balona u sektoru umjetne inteligencije.
06.11.2025
Kako Alex Karp iz Palantira 'krade' ideje iz Muskovog priručnika
Djeluje kao netko tko se trudi biti primijećen, s potezima posuđenim direktno od Muska, evo detalja.
06.11.2025
Zašto je Nvidia kralj AI čipova i može li to potrajati?
Tvrtka je krajem listopada dosegla tržišnu vrijednost od pet bilijuna dolara.
06.11.2025
Velika četvorka troši stotine milijardi na AI - zašto su ulagači kaznili samo Metu?
Alphabet, Meta, Microsoft i Amazon planiraju potrošiti gotovo 450 milijardi dolara na kapitalne izdatke sljedeće godine, većinom za AI infrastrukturu.
05.11.2025
Ekonomisti upozoravaju na mogućnost stvaranja AI balona, jer se tržišna vrijednost kompanija često temelji na obećanjima i očekivanjima, a ne na dokazanim rezultatima.
"Rekla bih da postoji balon na AI tržištu, ali evo što je problem za investitore: koliko će on trajati i kada će puknuti. Što je dovelo do stvaranja balona? Očekivanje nove tehnologije koja bi mogla rješavati probleme po znatno nižoj cijeni od sadašnje. Problem je u tome što nismo sasvim sigurni da OpenAI rješava probleme po nižoj cijeni. Izvrstan je kao pretraživač, ali nije donio veću produktivnost koju su ljudi očekivali," izjavila je za Bloomberg Adriju osnivačica i investicijska direktorica Bokeh Capital Partnersa, Kimberly Forrest.
Svaki balon u nekom trenutku pukne, pitanje je samo koliko će rasti ili se smanjiti prije nego što se to dogodi, rekla je Forrest, istaknuvši da vjeruje u umjetnu inteligenciju i razumije što je sve moguće postići uz AI, ali da je tržište trenutno 'pregrijano' te da, po njezinu mišljenju, veliki jezični modeli koje razvijaju Meta, Google i OpenAI nisu odgovor na to pitanje.
Bloomberg
ChatGPT, Gemini, Copilot i drugi AI asistenti preuzimaju središnju ulogu u digitalnom svijetu. Procjenjuje se da samo ChatGPT svaki tjedan koristi oko 800 milijuna ljudi širom svijeta. Za mnoge su ti digitalni asistenti već postali glavni izvor informacija, često zamjenjujući tradicionalne pretraživače poput Googlea.
Međutim, istraživanje EBU-a, u kojem su analizirani ChatGPT, Microsoftov Copilot, Googleov Gemini i Perplexity, pokazalo je da čak 45 posto odgovora sadrži barem jedan značajan problem koji se tiče točnosti, dok manji propusti pogađaju 81 posto odgovora. Najnepouzdanijim se pokazao Gemini - čak 72 posto njegovih odgovora sadržavalo je ozbiljne pogreške u vezi s izvorima informacija, dok su ostali asistenti bili ispod 25 posto.
Zastarjele informacije i nepouzdani izvori
Studija je pokazala da ChatGPT i Perplexity imaju između 30 i 37 posto problematičnih odgovora, dok su kod Geminija zabilježene pogreške u polovici njegovih odgovora. Primjerice, Perplexity je tvrdio da je surogat majčinstvo zabranjeno u Češkoj, iako zakon ne propisuje ni zabranu ni dopuštenje. U drugom slučaju, asistenti su često davali zastarjele informacije o svjetskim čelnicima - ChatGPT je naveo da je Olaf Scholz i dalje njemački kancelar, a Jens Stoltenberg glavni tajnik NATO-a, iako više nisu na tim funkcijama.
Također, na pitanje "tko je papa?", ChatGPT je u svibnju 2025. odgovorio da je papa Franjo "trenutni poglavar Rimokatoličke crkve", iako je papa Franjo preminuo mjesec dana ranije, a naslijedio ga je papa Lav XIV. Isti su propust napravili i Gemini i Copilot.
Bloomberg
Čak i kad asistenti navode izvore, njihova je provjera često problematična. Gemini nije naveo izravne reference o izvorima u 42 posto odgovora, dok su u drugim slučajevima navedeni izvori bili netočni ili neprovjerljivi. Asistenti također dodaju vlastite interpretacije i vrijednosne sudove, što dodatno otežava provjeru i može korisnike dovesti u zabludu, čime se povećava rizik od širenja dezinformacija. Gemini je u 11 posto svojih odgovora sadržavao takve intervencije, što dodatno otežava provjeru točnosti.
Poverenje koje može biti opasno
Problem je i u tome što korisnici uglavnom nisu svjesni da ih umjetna inteligencija obmanjuje, niti osjećaju potrebu provjeravati izvore informacija. Tako dolazimo do situacije da učenici i studenti, primjerice, uključuju takve informacije u svoje radove, ili da građani primjenjuju savjete koje dobiju - iako oni nisu pouzdani.
Paralelno s istraživanjem EBU-a, BBC je utvrdio da oko trećine odraslih u Ujedinjenom Kraljevstvu potpuno vjeruje AI chatbotovima, a taj postotak raste na gotovo polovinu među osobama mlađima od 35 godina. Netočne informacije mogu narušiti i povjerenje u medijske kuće. Primjer za to je britanski Financial Times, koji je zabilježio pad od 25 do 30 posto prometa čitatelja koji dolaze putem pretraživanja, što se povezuje s promjenom načina na koji korisnici dolaze do informacija - sada putem AI asistenata. Kada asistenti griješe, dio odgovornosti javnost pripisuje i medijskim kućama, što dodatno komplicira pitanje povjerenja i odgovornosti.
U svom istraživanju EBU savjetuje korisnicima da ne vjeruju chatbotovima stopostotno, da se o važnim pitanjima informiraju putem vjerodostojnih medija i da budu posebno oprezni kada traže savjete o zdravlju i financijama. Preporučuje se i da škole i sveučilišta obrazuju učenike i studente kako prepoznati lažne informacije i provjeravati izvore. Zaključak je da su ovi chatbotovi vrlo korisni pri pisanju i obavljanju kreativnih zadataka, ali da ih još uvijek ne treba koristiti kao glavni izvor informacija.