Microsoft i OpenAI istražuju je li skupina povezana s razvojem startupa DeepSeek stekla tehnološke tajne OpenAI-ja, izjavili su neimenovani izvori upoznati sa situacijom.
Microsoftovi stručnjaci za sigurnost još su prošle jeseni identificirali pojedince za koje vjeruju da su povezani s DeepSeekom, a koji su preuzeli veliku količinu podataka OpenAI-ja koristeći njegovo aplikacijsko programsko sučelje (API), tvrde izvori koji su željeli ostati anonimni jer je slučaj povjerljiv. Programeri softvera inače mogu platiti licencu za korištenje API-ja kako bi integrirali modele umjetne inteligencije OpenAI-ja u vlastite aplikacije.
Microsoft, tehnološki partner OpenAI-ja i njegov najveći ulagač, obavijestio je OpenAI o uočenim nepravilnostima. Takva aktivnost mogla bi predstavljati kršenje uvjeta korištenja OpenAI-ja ili bi mogla značiti pokušaj skupine da preuzme količine podataka iznad granica dopuštenih općim uvjetima korištenja tih sučelja.
DeepSeek je početkom ovog mjeseca objavio novi open-source model umjetne inteligencije pod nazivom R1, koji može oponašati ljudsko razmišljanje i uzdrmao tržište kojim dominiraju OpenAI i američki konkurenti poput Googlea i Mete. Kineski startup tvrdi da je R1 na istoj razini ili čak bolji od vodećih modela iz SAD-a. To navodno dokazuju različiti pokazatelji uspješnosti, uključujući matematičke zadatke i opće znanje, a pritom je razvijen uz znatno niže troškove. Dionice američkih kompanija povezanih s umjetnom inteligencijom, uključujući Microsoft, Nvidiju, Oracle i matičnu tvrtku Googlea Alphabet, u ponedjeljak su naglo pale, brišući gotovo bilijun dolara tržišne vrijednosti.
OpenAI nije se oglasio na zahtjev za komentar, dok je Microsoft odbio komentirati situaciju. DeepSeek i njegov matični fond High-Flyer također nisu odgovorili na upite e-poštom.
David Sacks, voditelj skupine za razvoj umjetne inteligencije pod vodstvom predsjednika Donalda Trumpa, u utorak je izjavio da postoje "jasni dokazi" da se DeepSeek pri razvoju vlastite tehnologije oslanjao na modele OpenAI-ja. U intervjuu za Fox News, Sacks je opisao tehniku zvanu destilacija, pri kojoj jedan AI model koristi rezultate drugog modela za treniranje i razvoj sličnih sposobnosti.
"Postoje značajni dokazi da je DeepSeek stekao znanje iz modela OpenAI-ja i mislim da OpenAI s time nije nimalo zadovoljan", rekao je Sacks, ne iznoseći pritom konkretne dokaze.
U svojoj izjavi OpenAI nije izravno komentirao tvrdnje o DeepSeeku. "Svjesni smo da tvrtke sa sjedištem u Kini – i drugdje – neprestano pokušavaju destilirati modele vodećih američkih AI kompanija", izjavio je glasnogovornik OpenAI-ja. "Kao vodeći razvijači AI/ja, provodimo protumjere za zaštitu naše intelektualne svojine, uključujući pažljivu procjenu granica mogućnosti koje implementiramo u naše modele. Smatramo da je, gledajući unaprijed, od ključne važnosti bliska suradnja s američkom vladom kako bismo osigurali najbolju zaštitu najnaprednijih modela od pokušaja konkurencije i suparničkih država da prisvoje američku tehnologiju", dodao je glasnogovornik.