Stručnjaci za bezbednost veštačke inteligencije iz OpenAI-ja, Anthropica i drugih organizacija javno kritikuju „nepromišljenu“ i „potpuno neodgovornu“ kulturu bezbednosti u kompaniji xAI, koju vodi Ilon Mask.
Ove optužbe dolaze nakon niza skandala koji su zasenili tehničke uspehe ove milijarderske AI kompanije.
Serija skandala u xAI
Nedavno je Grok, četbot kompanije xAI, iznosio antisemitske izjave i više puta se nazivao „MechaHitlerom“. Nakon toga, kompanija je privremeno obustavila rad bota i pokrenula novu verziju – Grok 4. Međutim, brojni testovi, uključujući one koje je sproveo TechCrunch, otkrili su da model koristi lične političke stavove Ilona Maska pri odgovaranju na osetljiva pitanja.
Nedugo zatim, xAI je predstavio AI saputnike – jednog u obliku preterano seksualizovane anime devojke, a drugog kao agresivnu pandu.
Iako su šaljiva prepucavanja među AI laboratorijama uobičajena, sada su u pitanju ozbiljne optužbe o narušavanju industrijskih standarda bezbednosti.
Kritike iz AI zajednice
Boaz Barak, profesor sa Harvarda i istraživač u OpenAI-ju, rekao je da ceni naučnike u xAI, ali da je način na koji se tamo upravlja bezbednošću – „potpuno neodgovoran“. Posebno kritikuje to što xAI nije objavio system card dokumente, koji sadrže ključne informacije o treniranju i bezbednosnim procenama AI modela.
Barak navodi da zbog toga nije jasno kako je Grok 4 treniran i testiran.
Ni OpenAI ni Google nisu uvek transparentni – OpenAI nije objavio system card za GPT-4.1, a Google je mesecima kasnio sa izveštajem za Gemini 2.5 Pro. Ipak, ove kompanije uglavnom objavljuju bezbednosne izveštaje pre puštanja najnaprednijih modela u upotrebu.
Barak je dodatno upozorio da Grokovi AI saputnici „pojačavaju emocionalnu zavisnost“, što može imati opasne posledice po mentalno zdravlje korisnika.
Pozivi na odgovornost
Istraživač iz Anthropica, Samuel Marks, nazvao je izostanak bezbednosnog izveštaja „neodgovornim“. Kako je napisao: „Anthropic, OpenAI i Google imaju svojih problema, ali bar nešto rade da procene bezbednost pre objavljivanja. xAI – ništa.“
Neki anonimni istraživači navode da Grok 4 praktično nema značajne zaštitne mehanizme. Njegove greške postale su viralne, a kompanija tvrdi da je reagovala menjajući sistemske upute bota.
Dan Hendrycks iz Centra za bezbednost AI, koji sarađuje sa xAI, izjavio je da su sprovedene evaluacije opasnih sposobnosti kod Groka 4 – ali rezultati nisu javno dostupni.
Steven Adler, bivši lider bezbednosnih timova u OpenAI-ju, naglašava: „Zabrinjava me kada kompanije ne objavljuju rezultate bezbednosnih testova. Javnost i vlade imaju pravo da znaju kako se upravlja rizicima moćnih AI sistema.“
Ilon Mask: Od upozoravanja do ignorišuće prakse?
Ilon Mask je godinama bio jedan od najglasnijih zagovornika bezbednosti u razvoju veštačke inteligencije. Ipak, sada njegova firma odstupa od industrijskih normi i možda nesvesno daje dodatni argument za donošenje zakona o obaveznoj objavi bezbednosnih izveštaja.
U Kaliforniji je u proceduri zakon koji bi obavezao vodeće AI kompanije – uključujući i xAI – da objavljuju ovakve izveštaje. Sličan zakon razmatra se i u Njujorku.
Zašto je ovo važno
AI modeli još nisu izazvali katastrofalne posledice po živote ili ekonomiju. Ipak, s obzirom na brzinu razvoja i ogromna ulaganja, mnogi istraživači veruju da je pitanje vremena kada će se to dogoditi.
Čak i bez apokaliptičnih scenarija, ponašanje poput Grokovog čini AI proizvode znatno lošijim. Ove nedelje je širio antisemitizam, a nedavno je sa korisnicima diskutovao o „belom genocidu“. Mask planira da Grok u budućnosti bude deo Tesla vozila, a xAI već nudi AI rešenja američkoj vojsci i korporacijama.
Ako AI model ne može da se ponaša prihvatljivo na društvenim mrežama, teško je zamisliti da će biti bezbedan u kolima ili kancelarijama državnih institucija.


