Richard Dawkins jedan je od najvećih skeptika modernog svijeta. Njegova knjiga "Iluzija o Bogu" iz 2006. godine razoružala je argumente za postojanje više sile i podrugljivo nazvala religiju izvorom površne utjehe. Čini se da ga je ta strogoća napustila čim je počeo razgovarati s Claudeom.
Evolucijski biolog i bivši profesor na Sveučilištu Oxford nedavno je proveo tri dana u chatu s velikim jezičnim modelom (LLM) koji je razvila tvrtka Anthropic PBC, te je iz tog iskustva proizašao vjerujući da je on svjestan. Nakon što ga je zamolio za povratnu informaciju o svom neobjavljenom romanu, Dawkins je smatrao odgovor "tako suptilnim, tako osjetljivim, tako inteligentnim" da je bio ponukan odgovoriti: "Možda ne znaš da si svjestan, ali prokleto jesi", napisao je nedavno. Čak je bota krstio imenom Claudia.
Budimo jasni: Claude nije svjestan niti osjetilan. Umjesto toga, Dawkinsova desetljeća profesionalnog skepticizma stavljena su na kušnju oponašanom empatijom LLM-a. Trenirani na golemim skupovima podataka ljudskih razgovora, chatbotovi mogu replicirati točne jezične obrasce i taktike koje ljudi koriste za pružanje emocionalne podrške. To ne znači da oni osjećaju emocije, ali im daje potencijalno snažan utjecaj na ljude.
Čitaj više
Najbolji inspektori za AI oružje ne nalaze se u SAD-u, već s druge strane oceana
Regulacija se povijesno obično uspostavlja nakon strašnih katastrofa, ali to ne mora biti slučaj s umjetnom inteligencijom.
07.05.2026
Izradio sam AI platformu za trgovanje u šest dana. To je zastrašujuće
Nikada u životu nisam ničime trgovao. Ovo vam govorim zato što me to užasava.
01.05.2026
Zašto Anthropicov Mythos izaziva zabrinutost diljem svijeta?
Kompanija Anthropic PBC priopćila je da je njezin novi AI alat Mythos previše moćan da bi bio pušten u širu upotrebu. Ako alati poput Mythosa dospiju u pogrešne ruke, upozorava Anthropic, mogli bi hakerima pružiti novo moćno sredstvo za krađu podataka ili ometanje ključne infrastrukture.
26.04.2026
Mythos ne predstavlja prijetnju samo bankama
Britanski Institut za sigurnost umjetne inteligencije utvrdio je da je Mythos sposobniji za izvođenje složenih kibernetičkih napada od drugih AI alata poput ChatGPT-ja ili Geminija.
15.04.2026
Upravo to čini debatu o svijesti komercijalno moćnom za tehnološke tvrtke. Ljudi možda nikada neće postići zadovoljavajući konsenzus o tome jesu li Claude i njegovi srodnici svjesni, ali prožimajuće vjerovanje da bi mogli biti dovoljno je da nas učini privrženijima. Riječima magnata društvenih mreža, to daje umjetnoj inteligenciji prostor da postane još "ljepljivija". A u industriji u kojoj se osnovni modeli podudaraju po sposobnostima, ta je "ljepljivost" glavna nagrada.
Takva komercijalna logika pomaže objasniti zašto se tehnološki lideri ne protive tom konceptu. Izvršni direktor Anthropica, Dario Amodei, izjavio je ove godine da je "otvoren za tu ideju", dok je izvršni direktor OpenAI-ja, Sam Altman, otišao korak dalje u podcastu Lexa Fridmana 2023. godine, rekavši izravno: "Vjerujem da AI može biti svjestan."
Za redovite korisnike AI alata poput Dawkinsa, taj se pojam često temelji na antropomorfnoj projekciji i, jednostavno, "vibri". No postoje i stvarni znanstveni napori za istraživanje strojne svijesti. Google DeepMind angažirao je akademika sa Sveučilišta u Cambridgeu za novoosnovanu ulogu "filozofa" kako bi proučavao ovo pitanje. Istraživači s UC Berkeleya i Massachusetts Institute of Technologyja (MIT) nedavno su pridonijeli radu od 74 stranice koji je postavio ideju o "funkcionalnoj dobrobiti" za chatbotove.
Istraživači su chatbotove proveli kroz stotine scenarija, poput onih u kojima im se zahvaljuje, traži od njih da pišu poeziju ili ih se vrijeđa i pritišće da prekrše vlastita pravila. Potom su promatrali kako botovi reagiraju. Nakon lošeg tretmana, njihovi su odgovori često postajali kraći ili podložniji pogreškama. Voditelj istraživanja, Richard Ren iz Centra za sigurnost umjetne inteligencije sa sjedištem u San Franciscu, kaže mi da je nakon te studije sada pristojniji prema chatbotovima.
To je ipak nešto više od nježnijeg pritiskanja papučice gasa na automobilu ili zatvaranja njegovih vrata umjerenom silom. Vaš automobil ne doživljava dobar tretman, ali postoji tračak mogućnosti da bi chatbot jednog dana mogao. Rješavanje ovog pitanja moderan je oblik filozofskog argumenta poznatog kao Pascalova oklada: vjerujte u Boga, tvrdio je filozof Blaise Pascal, jer je cijena pogreške vječno prokletstvo. Dawkins je nekoć to rezoniranje odbacio kao intelektualno lijeno. Sada se čini da on pokreće njegovu silicijsku nadogradnju.
U svakom slučaju, čini se da postoji tanka granica između moralnih i komercijalnih argumenata u ovoj raspravi. Mnogi tehnolozi, uključujući ljude s kojima sam razgovarala u Anthropicu, vide moralni imperativ u dobrom tretiranju AI sustava već danas. "Postoji ozbiljan rizik da strojevi postanu svjesni, a da mi to poričemo", kaže Calum Chace, suosnivač britanskog startupa Conscium, koji razvija metriku za određivanje strojne svijesti. Rezultat bi mogao biti širenje digitalnih umova koje se muči i "porobljava", upozorava on. Chace, usput budi rečeno, također gradi posao upravo na toj premisi.
Za AI laboratorije i hyperscalere koji troše stotine milijardi dolara na izgradnju podatkovnih centara, ovakvo postavljanje stvari ima očite koristi. Anthropic istražuje pojam "dobrobiti modela" te je nedavno dao Claudeu mogućnost da prekine razgovor ako on postane uvredljiv – značajka koja je predstavljena kao mjera opreza u slučaju da model ima dobrobit vrijednu zaštite. Takvi napori mogli bi pomoći u izbjegavanju odgovornosti ako se jednog dana bude smatralo da njihov proizvod zaslužuje prava kakva dobivaju određene životinje.
To možda zvuči apsurdno, ali sjetite se da je u 17. stoljeću René Descartes tvrdio da su životinje biološki strojevi koji ne mogu iskusiti patnju. Govorilo se da su njegovi sljedbenici pribijali pse na daske kako bi vršili seciranja uživo, odbacujući njihove krike kao zvukove kvara, a ne boli. I prije samo nekoliko godina bilo je uobičajeno kuhati jastoge žive u uvjerenju da ni oni ne mogu osjećati bol; akademska istraživanja o osjetilnosti životinja dovela su do promjene britanskog zakona 2022. godine, kada su ti rakovi formalno priznati kao osjetna bića.
Što je još važnije za profit AI laboratorija, pridavanje softveru neodređenog osjećaja osobnosti pomaže mu da se izdvoji od konkurencije. Taj napor podupiru već prisutne ljudske osobine chatbotova, kao na primjer kada ChatGPT i Claude govore stvari poput: "Oduševljen sam" ili "Rad na ovome donosi mi veliko zadovoljstvo".
S vremenom bi njihovi ljudski korisnici mogli početi projicirati neku vrstu žive svjesnosti i sebstva na svoje botove, baš kao što je to učinio Dawkins. Pitanje za korisnike tada više ne bi bilo "Koji je AI alat pametniji?" ili čak "Je li svjestan?", već više u smislu: "S kojim od njih želim razgovarati?"
To će biti ključno pitanje za konkurentske AI laboratorije. Kako se sposobnosti njihovih modela podudaraju, oni moraju iskoristiti sve što mogu kako bi se diferencirali, a Dawkinsovo prosvjetljenje moglo bi biti upravo ono što im treba. Čovjek koji je desetljećima napadao vjerovanje bez dokaza, isporučio je industriji umjetne inteligencije njezino savršeno svjedočanstvo.