U svijetu sveprisutne digitalizacije, teško da na poslu možete izbjeći chatbotove. U poslovnom okruženju imaju široku primjenu - koriste se za podršku korisnicima, automatsko odgovaranje na pitanja, obavljanje transakcija, kao i prikupljanje i analizu podataka. Ovi alati pomažu tvrtkama poboljšati komunikaciju s klijentima, smanjiti operativne troškove i pružiti bolje korisničko iskustvo. Međutim, oni tvrtkama donose i neke rizike.
Istraživači tvrtke Kaspersky kažu da su prije samo nekoliko mjeseci ChatGPT i drugi chatbotovi temeljeni na velikim jezičnim modelima (LLM) još uvijek bili novost. Korisnici su ih koristili za skladanje pjesama i tekstova u stilu poznatih umjetnika (Nick Cave, primjerice, nije bio impresioniran njihovom verzijom pjesme u 'svom stilu'), istraživači su čak spominjali dizanje podatkovnih centara u oblak kako bi spriječili umjetnu inteligenciju da oslobodi Armagedon, dok su sigurnosni stručnjaci uvjerili tvrdoglavog chatbota da im da upute za prisluškivanje telefona i krađu automobila.
Dok su neke tvrtke potpuno zabranile alate poput ChatGPT-a ili ograničile njegovu upotrebu, navodeći zabrinutost za informacijsku sigurnost, druge su se potpuno posvetile generativnoj umjetnoj inteligenciji, pokušavajući izgraditi i pokrenuti programe obuke za cijelu tvrtku kako bi zaposlenici ubrzali korištenje alata.
Čitaj više
Hrvatski pioniri strojnog prevođenja dokazuju da je suživot s UI-jem moguć
Zagrebačka tvrtka za jezične usluge Ciklopea ima klijente diljem svijeta, a više od 90 posto prihoda ostvaruje u EU-u.
28.07.2023
Digitalno osiguranje Laqo u suradnji s Infobipom zaposlilo umjetnu inteligenciju
Laqo odsad u korisničkoj podršci koristi platformu umjetne inteligencije OpenAI GPT.
29.06.2023
Više od tisuću velikih kibernetičkih napada samo prošle godine
Prošle je godine izvršeno više od tisuću velikih kibernetičkih napada.
30.10.2023
Hrvatska u digitalizaciji zapela na pola puta između Baščanske ploče i umjetne inteligencije
U Hrvatskoj 63 posto građana ima osnovne digitalne vještine.
27.09.2023
Danas se mnogi od njih oslanjaju na ChatGPT u svom poslovanju. U svakom slučaju, činjenica da se chatbotovi sve više koriste na radnom mjestu postavlja pitanje: mogu li im se vjerovati korporativni podaci? Istraživači tvrtke Kaspersky identificirali su ključne rizike povezane s korištenjem ChatGPT-a i sličnih tehnoloških rješenja u poslovnom okruženju.
Potencijalne prijetnje privatnosti
Većina chatbotova temeljenih na LLM-u (kao što su ChatGPT, Microsoftov Bing Chat, Googleov Bard i drugi) usluge su temeljene na oblaku. Korisnik kreira račun i dobiva pristup botu. Neuronska mreža, ogroman sustav koji zahtijeva mnogo resursa, radi na strani pružatelja usluga, što znači da vlasnik usluge ima pristup razgovorima korisnika s chatbotom. Štoviše, mnogi chatbotovi omogućuju vam da spremite svoju povijest razgovora na poslužitelj kako biste joj se vratili kasnije, objašnjavaju stručnjaci Kasperskyja. Iako pomažu zaposlenicima, mogu ugroziti poslovanje, zaključuju.
1. Curenje podataka ili hakiranje od strane pružatelja usluga
Iako se chatbotovi temelje na jezičnim modelima velikih tehnoloških tvrtki, čak ni oni nisu imuni na hakiranje ili slučajno curenje podataka. Jedan primjer može biti incident u kojem korisnici ChatGPT-a mogu vidjeti poruke iz povijesti drugih aktivnih sugovornika. Takvi slučajevi tvrtkama predstavljaju ozbiljan sigurnosni rizik.
2. Curenje podataka kroz chatbotove
U teoriji, razgovori chatbota mogu se koristiti za obuku budućih modela. Međutim, budući da je jezični model temeljen na neuronskim mrežama podložan junk memoriji, postoji rizik da će osjetljivi podaci, poput telefonskih brojeva ili osobnih podataka, biti pohranjeni. Ako ti podaci dospiju do modula za obuku, mogu predstavljati ozbiljan sigurnosni rizik.
3. Zlonamjerni klijent
Ovaj rizik može se pretvoriti u veliki problem, posebno tamo gdje su službene usluge ChatGPT blokirane. Korisnici koji pokušavaju pronaći neslužbene alternative često su izloženi zlonamjernom softveru koji se pretvara u klijente ili aplikacije. To otvara vrata raznim zlonamjernim aktivnostima.
4. Hakiranje računa
Napadači mogu pokušati pristupiti korisničkim računima zaposlenika i njihovim podacima putem phishing napada ili korištenjem ukradenih podataka za prijavu.
Kako zaključuju istraživači tvrtke Kaspersky, kod korištenja chatbota gubitak podataka je glavni rizik, kako za korisnike tako i za poslovne subjekte. Kako dodaju, rizik od curenja osjetljivih podataka najveći je kada zaposlenici koriste osobne račune u poslovne svrhe.
"Stoga treba raditi na podizanju svijesti zaposlenika o nužnosti odgovornog korištenja ovakvih tehnologija. S jedne strane, zaposlenici bi trebali razumjeti koji su podaci povjerljivi, radi li se o osobnoj ili poslovnoj tajni, kao i razumjeti razloge zašto takva podaci se ne smiju slati chatbotu. S druge strane, tvrtka mora navesti jasna pravila za korištenje takvih usluga, ako su dopuštene", komentira Ana Larkina, stručnjakinja za sigurnost i privatnost u Kasperskyju.
Zabrinutost dijeli i Team8, poduzetnička tvrtka sa sjedištem u Izraelu, čije izvješće pokazuje da bi široko prihvaćanje novih AI chatbota moglo učiniti tvrtke ranjivima na curenje podataka i tužbe. Tvrtke koje koriste alate generativne umjetne inteligencije poput ChatGPT-a mogle bi ugroziti povjerljive informacije o kupcima i poslovne tajne, prema izvješću, navodi Bloomberg. Postoji strah da bi hakeri mogli koristiti botove za pristup osjetljivim korporativnim informacijama ili za izvođenje određenih radnji protiv tvrtke. Također postoji zabrinutost da bi tvrtke s umjetnom inteligencijom u budućnosti mogle iskoristiti povjerljive informacije koje se sada unose u chatbotove.
Velike tehnološke tvrtke, uključujući Microsoft i Alphabet, obučavaju svoje modele na podacima s interneta kako bi korisnicima pružili sveobuhvatno rješenje za njihove upite. Ako se tim alatima daju povjerljivi ili privatni podaci, bit će vrlo teško izbrisati informacije, stoji u izvješću.
"Ako tvrtka koristi generativnu umjetnu inteligenciju, to može dovesti do pristupa i obrade osjetljivih informacija, intelektualnog vlasništva, izvornog koda, poslovnih tajni i drugih podataka, putem izravnog korisničkog unosa ili API-ja, uključujući podatke o klijentima ili privatne i povjerljive informacije", navodi se. navodi u izvješću koje klasificira rizik kao 'visok'. U izvješću se navodi da se rizicima može upravljati ako se uspostave odgovarajuće zaštitne mjere.
Za sigurno korištenje chatbota, Kaspersky stručnjaci preporučuju sljedeće:
- Koristite jake, jedinstvene lozinke
- Čuvajte se phishing napada
- Ažurirajte softver
- Ograničite dijeljenje korporativnih podataka
- Provjerite URL-ove i web stranice
- Koristite korporativno sigurnosno rješenje