Konzultantska tvrtka Deloitte našla se u središtu skandala nakon što je priznala korištenje generativne umjetne inteligencije u izradi izvješća za australsku vladu, što je rezultiralo brojnim pogreškama i djelomičnim povratom novca. Slučaj vrijedan gotovo 290 tisuća američkih dolara (440.000 australskih dolara) postao je upozoravajući primjer rizika nekontrolirane primjene AI tehnologije u profesionalnim uslugama. Incident je pokrenuo ozbiljna pitanja o kontroli kvalitete, transparentnosti i, u konačnici, o ulozi ljudske inteligencije u dobu automatizacije.
Izvješće, koje je naručilo australsko Ministarstvo zapošljavanja i radnih odnosa (DEWR), trebalo je analizirati sustav za automatizaciju kazni u socijalnom sustavu. Međutim, umjesto precizne analize, originalna verzija objavljena u srpnju sadržavala je bizarne pogreške. Christopher Rudge, akademik sa Sveučilišta u Sydneyu, prvi je primijetio i javno upozorio na "halucinacije" - fenomen gdje AI modeli popunjavaju praznine u podacima izmišljenim, ali uvjerljivim informacijama.
Dokument je sadržavao nepostojeće reference, citirao fiktivne profesore sa Sveučilišta u Sydneyu i švedskog Sveučilišta Lund te uključivao potpuno izmišljen citat iz presude Saveznog suda. "Ovo više nije 'snažna hipoteza'. Deloitte je sada izdao priznanje, iako zakopano u odjeljku o metodologiji", komentirao je Rudge nakon što je tvrtka objavila ispravljenu verziju. U njoj je navedeno da je korišten jezični model Azure OpenAI GPT-4o.
Čitaj više

Deloitte se okreće umjetnoj inteligenciji kako bi izbjegao masovna otpuštanja
Deloitte implementira umjetnu inteligenciju za optimizaciju vještina zaposlenika i raspodjelu resursa.
17.12.2023

AI protiv zviždaljke: Hoće li suci nestati iz sporta
Uloga sudaca u sportu prolazi kroz najveću transformaciju u modernoj povijesti. Napredak umjetne inteligencije i praćenja podataka već postavlja pitanje hoće li, i kada, tehnologija potpuno istisnuti "djelitelje pravde" s terena?
30.09.2025

Ako AI balon pukne čije će milijarde izgorjeti prve
Stotine milijardi dolara rizičnog kapitala uloženo je u tvrtke diljem svijeta koje žele izgraditi sljedeći transformativni proizvod temeljen na umjetnoj inteligenciji.
24.09.2025

Ako prihvaćate savjete ChatGPT-ja, razmislite dvaput
Ljudi prirodno traže potvrdu svojih uvjerenja i ponašanja, uvjeravaju psiholozi.
21.09.2025
AI "halucinacije" nastaju jer modeli, u nedostatku stvarnih podataka, pokušavaju pogoditi odgovor kako bi zadovoljili korisnika. Radije će ponuditi netočan, ali naizgled smislen rezultat nego priznati da nemaju informaciju.
Nakon što su pogreške otkrivene, Deloitte je tiho ažurirao izvješće na stranicama ministarstva, ispravljajući desetak lažnih referenci i tipografskih pogrešaka. U dodatku ispravljene verzije priznali su korištenje AI alata, navodeći da je bio licenciran od strane samog ministarstva. Tvrtka je pristala na djelomičan povrat novca, odnosno na odricanje od posljednje rate ugovora.
Unatoč tome, Deloitte tvrdi da pogreške "ni na koji način ne utječu na suštinski sadržaj, nalaze i preporuke u izvješću". Glasnogovornik tvrtke izjavio je kako je "stvar riješena izravno s klijentom". Ipak, kritičari poput dr. Rudgea upozoravaju da se preporukama ne može vjerovati "kada je sam temelj izvješća izgrađen na manjkavoj, prvotno neprijavljenoj i nestručnoj metodologiji".
Ljudski, a ne umjetni problem
Slučaj je izazvao oštre reakcije u političkim krugovima. Laburistička senatorica Deborah O'Neill, koja je sudjelovala u senatskoj istrazi o integritetu konzultantskih tvrtki, optužila je Deloitte da ima "problem s ljudskom inteligencijom".
"Ovo bi bilo smiješno da nije tako žalosno. Djelomičan povrat novca izgleda kao djelomična isprika za nekvalitetan rad", izjavila je O'Neill za The Guardian.
Sarkastično je dodala kako bi naručiteljima umjesto angažiranja velike konzultantske tvrtke možda bilo bolje da se "pretplate na ChatGPT". Njezina kritika naglašava ključni problem: ne radi se o pogrešci tehnologije, već o izostanku ljudskog nadzora i odgovornosti.
Lekcija za cijelu industriju
Ironično je da se skandal dogodio tvrtki koja značajan dio svojih prihoda ostvaruje upravo savjetovanjem klijenata o primjeni umjetne inteligencije, pri čemu uvijek naglašava važnost ljudskog nadzora.
Slučaj Deloittea služi kao snažno upozorenje cijeloj konzultantskoj industriji o reputacijskim i financijskim rizicima koji proizlaze iz neprovjerenih rezultata AI alata. Tvrtke su sada pod pritiskom da pojačaju interne kontrole i jasno navedu stupanj uključenosti umjetne inteligencije u isporukama klijentima.
Dok Deloitte pokušava popraviti štetu, ovaj slučaj ostat će ključna referentna točka u raspravama o odgovornosti i etici primjene umjetne inteligencije. Pokazuje da, unatoč tehnološkom napretku, iskusno ljudsko prosuđivanje, kritičko razmišljanje i rigorozna provjera činjenica ostaju nezamjenjivi, osobito kada su u pitanju odluke koje utječu na javne politike i živote građana.
Trenutno nema komentara za vijest. Ostavite prvi komentar...