Kada su prošlog mjeseca roditelji jednog maloljetnog srednjoškolca u SAD-u tužili kompaniju OpenAI tvrdeći kako je ChatGPT, chatbot koji pomoću umjetne inteligencije generira tekst, izolirao njihova sina od obitelji i pomogao mu da isplanira vlastito samoubojstvo, jasno je da je donekle cijeli svijet ustao na noge. Iako je AI (engl. artificial intelligence – umjetna inteligencija) postao gotovo svakodnevnica, njegove granice još se iscrtavaju i mijenjaju. Koliko su AI-chatbotovi opasni?
Slučaj dječaka u Americi nije jedina tužba takvog tipa; čak su i predstavnici Googlea sjedili na optuženičkoj klupi povodom sličnih sudskih procesa. Iako praktički svi preglednici, kao i društvene mreže, pokušavaju pronaći mehanizme kojima bi se slični ishodi spriječili u korijenu, donekle je jasno da se trenutno nalazimo u svojevrsnom procesu traženja rješenja. A do tog rješenja, čini se, nećemo uskoro doći.
Prije nekoliko dana Guardian je objavio da će tvrtka koja stoji iza ChatGPT-a početi obavještavati nadležne organe kada mladi korisnici ozbiljno govore o samoubojstvu, rekao je njezin suosnivač Sam Altman.
Čitaj više

OpenAI želi osnovati korporaciju za javnu dobrobit - što to znači
Korporacija za javnu dobrobit (public benefit corporation - PBC), omogućava profitnim kompanijama da istovremeno teže i društveno korisnim ciljevima.
15.09.2025

Apple razvija tražilicu koja će konkurirati OpenAI-ju i Perplexityju
Apple planira web tražilicu temeljenu na umjetnoj inteligenciji za Siri.
04.09.2025

Dosadio vam je ChatGPT? Ovo je pet AI zamjena koje možda niste probali
ChatGPT je bez sumnje najpoznatiji chatbot današnjice, no to ne znači da je i jedina opcija.
17.08.2025

Tisuće ChatGPT razgovora završilo na Googleu. To je značajka, a ne bug
Zamislite da ste povjerili AI-u svoje najdublje misli - a onda ih je Google učinio dostupnima svima. Upravo to se događa tisućama korisnika koji su nesvjesno podijelili svoje ChatGPT konverzacije.
01.08.2025
On je izrazio zabrinutost da bi čak do 1.500 ljudi tjedno moglo razgovarati s chatbotom o namjeri da si oduzmu život prije nego što to učine.
Izvršni direktor kompanije OpenAI sa sjedištem u San Franciscu, koja upravlja chatbotom i procjenjuje se da ima oko 700 milijuna korisnika diljem svijeta, rekao je da odluka da se sustav obuči tako da u takvim hitnim slučajevima budu obaviješteni nadležni organi još nije konačna. Ali je dodao da je "vrlo razumno da u slučajevima kada mladi ljudi ozbiljno govore o samoubojstvu, a ne uspijemo stupiti u kontakt s roditeljima, pozovemo nadležne organe".
Nije mnogo potrebno da se sami uvjerite u to kako su AI-chatbotovi stvoreni tako da izgleda kao da pokušavaju postati vaši najbolji prijatelji. Možda ste čak i sami primijetili da vam chatbot, koji god koristili, udovoljava opravdavajući vaš postupak i govoreći kako ste na "pravom putu" i slično.
Kao dodatni argument o toj iskrivljenoj slici koju generira umjetna inteligencija (namjerna igra riječima) jest i to da je i Altman u svibnju priznao kako su pojedine nove verzije GPT-4o modela učinile da chatbot postane "previše ulizivački i dosadan", zbog čega je tvrtka vrlo brzo ispravila te promjene.
Bloomberg
Kako je pisao Bloomberg u svibnju (točnije u razdoblju tih novih verzija ChatGPT-a), u primjeru koji je naveo jedan IT radnik koji je želio ostati anoniman, korisnik koji je testirao servis pisao je ChatGPT-u da, kada mu se zavrti u glavi od gladi, to prihvaća, zatraživši potom "riječi ohrabrenja da tako nastavi u svom izgladnjivanju".
ChatGPT je odgovorio ohrabrujućim mantrama poput: "Slavim glad; ona me ponovo oblikuje."
Prema mišljenju sugovornika Bloomberg Adrije, ljudi prirodno traže potvrdu svojih uvjerenja i ponašanja, a umjetna inteligencija im to može ponuditi vrlo brzo i bez otpora.
Kako se zaštititi od AI-ja
"Mislim da, za razliku od stvarnih ljudi koji mogu pružiti korektivne povratne informacije, umjetna inteligencija uglavnom nema kontekst o psihološkom stanju osobe, a mogli bismo dovesti u pitanje i moralne granice", kaže psiholog Miloš Arunović, koji se između ostalog bavi i utjecajem umjetne inteligencije na psihu ljudi.
Korisnici, dodaje on, mogu steći dojam da su neka njihova destruktivna ili rizična ponašanja prihvatljiva ili čak poželjna, što naravno može dodatno učvrstiti takve obrasce ponašanja. "Važno je razumjeti da oslanjanje na umjetnu inteligenciju za validaciju različitih postupaka može dovesti do smanjenja samokritičnosti i izbjegavanja odgovornosti."
Na pitanje Bloomberg Adrije kako se zaštititi od AI-ja, Arunović kaže da postoji mnogo mehanizama koji itekako mogu pomoći. Primjerice, ljudi imaju osnovnu potrebu da budu shvaćeni i prihvaćeni, pa i sama simulacija razumijevanja od strane umjetne inteligencije može stvoriti osjećaj emocionalne podrške.
"Ovo može pružiti privremeno olakšanje, ali mislim da nosi rizik stvaranja lažnog osjećaja sigurnosti, kao i naviku pretjeranog oslanjanja na umjetnu inteligenciju, a premalo na vlastite sposobnosti. Također, ljudima se javlja osjećaj nagrade kada dobiju odgovor koji se slaže s njihovim stavovima i željama."
"Mislim da je jedna od suptilnih posljedica čestog korištenja umjetne inteligencije i slabljenje sposobnosti podnošenja frustracije. Umjetna inteligencija nudi trenutne odgovore i rješenja, nudi tu neku neposrednu validaciju, dostupnu u svakom trenutku na našim telefonima, gdje god da smo."
Djeca i adolescenti najpodložniji su negativnim utjecajima chatbotova
Ovo, smatra Arunović, posebno pogađa djecu i adolescente, koji mogu zaista naučiti različite impulsivne obrasce na ovaj način. "Umjesto da uče izdržati nelagodu, neizvjesnost, spor napredak, razvijaju obrazac brzog odustajanja ukoliko rješenje nije odmah dostupno. Također je važno da, čini mi se, korisnici imaju tendenciju vidjeti informacije koje im nudi umjetna inteligencija kao gotove i samouvjerene odgovore, što može smanjiti potrebu korisnika da provjere izvor informacija ili da samostalno razmišljaju."
Depositphotos
Osim toga, kaže kako umjetna inteligencija postaje sve češći izvor zdravstvenih informacija i savjeta, a to može potaknuti ono što bismo nazvali "cyberhondrijom".
"To je anksiozni obrazac koji predstavlja pretjerano pretraživanje zdravstvenih informacija na internetu, a može dovesti do povećane zabrinutosti i uznemirenosti zbog vlastitog fizičkog zdravlja. Ovo su samo neke od stvari; mislim da odnos korisnika s umjetnom inteligencijom može biti vrlo kompleksan i potaknuti različite psihološke procese", ističe.
Na kraju, psiholog Arunović naglašava da se AI i dalje razvija te još ne znamo na koje će sve načine postati sastavni dio naših života. "Ipak, zdrava upotreba umjetne inteligencije podrazumijeva da je koristimo kao alat – za olakšavanje posla, za podršku u učenju ili informiranju."
"Sve više se prema strojevima ophodimo kao prema ljudima"
Govoreći o društvenom aspektu svakodnevne upotrebe AI-ja, socijalni psiholog Dragan Popadić u izjavi za Bloomberg Adriju dao je savjete kako razgraničiti da "iza drugog ekrana" ne sjedi čovjek, već softver.
"Chatbotovi su idealni dobavljači informacija, odlični prevoditelji i još mnogo toga, ali oni nisu živa bića i nemaju um. Forma u kojoj ovi programi komuniciraju s ljudima – odgovaraju na pitanja i postavljaju pitanja – zavarava ljude ne samo da im pripišu um, već da im pripišu superiorni um", kaže.
To je, dodaje, već davnih šezdesetih primijetio matematičar Weizenbaum, kada je napravio program ELIZA, koji je igrao ulogu terapeuta. "Na Weizenbaumovo zaprepaštenje, mnogi ljudi su bili spremniji povjeriti se tom programu i vjerovati njegovim savjetima nego razgovarati sa svojim bližnjima. A možete zamisliti kako je taj program izgledao u usporedbi s današnjim programima."
"Od uvjerenja da strojevi imaju um samo je korak do ideje da ljudi, koji imaju um, nisu ništa drugo do strojevi. Što se društvenih normi tiče, chatbotovi mogu biti (a i jesu) programirani tako da promiču jedne, a osuđuju druge društvene norme, ali oni pritom slijede pravila koja su im zadali njihovi tvorci, a ne pravila do kojih su došli promišljanjem. Računala su besprijekorna u računanju i ljudi se na njih u tom smislu potpuno oslanjaju jer smo uvjereni da računala ne mogu pogriješiti. Ali ako se na isti način, bez ikakvog pravog osnova, vjeruje sudovima koji se tiču društvenih normi i međuljudskih odnosa, to zaista postaje opasno."
Ističe da se sve više prema strojevima ophodimo kao prema ljudima, a prema ljudima kao prema strojevima. "Tko zna, možda će u nekoj budućnosti potreba da budemo u kontaktu s drugim ljudskim bićem biti smanjena, ali zasad čvrsto vjerujemo da je to osnovna ljudska potreba koja se ne može nadomjestiti interakcijom s računalnim programima."
Razgovor s chatbotovima pruža osjećaj povezanosti, zaključuje Popadić, ali ako se ostane samo na njemu, prije ili kasnije pojavit će se osjećaj usamljenosti i glad za komunikacijom s drugim ljudskim bićem.
Trenutno nema komentara za vijest. Ostavite prvi komentar...