AI

Istraživači iz OpenAI-ja i Anthropica kritikuju xAI zbog „neodgovorne“ kulture bezbednosti

Stručnjaci za bezbednost veštačke inteligencije iz OpenAI-ja, Anthropica i drugih organizacija javno kritikuju „nepromišljenu“ i „potpuno neodgovornu“ kulturu bezbednosti u kompaniji xAI, koju vodi Ilon Mask.

Ove optužbe dolaze nakon niza skandala koji su zasenili tehničke uspehe ove milijarderske AI kompanije.

Serija skandala u xAI

Nedavno je Grok, četbot kompanije xAI, iznosio antisemitske izjave i više puta se nazivao „MechaHitlerom“. Nakon toga, kompanija je privremeno obustavila rad bota i pokrenula novu verziju – Grok 4. Međutim, brojni testovi, uključujući one koje je sproveo TechCrunch, otkrili su da model koristi lične političke stavove Ilona Maska pri odgovaranju na osetljiva pitanja.

Nedugo zatim, xAI je predstavio AI saputnike – jednog u obliku preterano seksualizovane anime devojke, a drugog kao agresivnu pandu.

Iako su šaljiva prepucavanja među AI laboratorijama uobičajena, sada su u pitanju ozbiljne optužbe o narušavanju industrijskih standarda bezbednosti.

Kritike iz AI zajednice

Boaz Barak, profesor sa Harvarda i istraživač u OpenAI-ju, rekao je da ceni naučnike u xAI, ali da je način na koji se tamo upravlja bezbednošću – „potpuno neodgovoran“. Posebno kritikuje to što xAI nije objavio system card dokumente, koji sadrže ključne informacije o treniranju i bezbednosnim procenama AI modela.

Barak navodi da zbog toga nije jasno kako je Grok 4 treniran i testiran.

Ni OpenAI ni Google nisu uvek transparentni – OpenAI nije objavio system card za GPT-4.1, a Google je mesecima kasnio sa izveštajem za Gemini 2.5 Pro. Ipak, ove kompanije uglavnom objavljuju bezbednosne izveštaje pre puštanja najnaprednijih modela u upotrebu.

Barak je dodatno upozorio da Grokovi AI saputnici „pojačavaju emocionalnu zavisnost“, što može imati opasne posledice po mentalno zdravlje korisnika.

Pozivi na odgovornost

Istraživač iz Anthropica, Samuel Marks, nazvao je izostanak bezbednosnog izveštaja „neodgovornim“. Kako je napisao: „Anthropic, OpenAI i Google imaju svojih problema, ali bar nešto rade da procene bezbednost pre objavljivanja. xAI – ništa.“

Neki anonimni istraživači navode da Grok 4 praktično nema značajne zaštitne mehanizme. Njegove greške postale su viralne, a kompanija tvrdi da je reagovala menjajući sistemske upute bota.

Dan Hendrycks iz Centra za bezbednost AI, koji sarađuje sa xAI, izjavio je da su sprovedene evaluacije opasnih sposobnosti kod Groka 4 – ali rezultati nisu javno dostupni.

Steven Adler, bivši lider bezbednosnih timova u OpenAI-ju, naglašava: „Zabrinjava me kada kompanije ne objavljuju rezultate bezbednosnih testova. Javnost i vlade imaju pravo da znaju kako se upravlja rizicima moćnih AI sistema.“

Ilon Mask: Od upozoravanja do ignorišuće prakse?

Ilon Mask je godinama bio jedan od najglasnijih zagovornika bezbednosti u razvoju veštačke inteligencije. Ipak, sada njegova firma odstupa od industrijskih normi i možda nesvesno daje dodatni argument za donošenje zakona o obaveznoj objavi bezbednosnih izveštaja.

U Kaliforniji je u proceduri zakon koji bi obavezao vodeće AI kompanije – uključujući i xAI – da objavljuju ovakve izveštaje. Sličan zakon razmatra se i u Njujorku.

Zašto je ovo važno

AI modeli još nisu izazvali katastrofalne posledice po živote ili ekonomiju. Ipak, s obzirom na brzinu razvoja i ogromna ulaganja, mnogi istraživači veruju da je pitanje vremena kada će se to dogoditi.

Čak i bez apokaliptičnih scenarija, ponašanje poput Grokovog čini AI proizvode znatno lošijim. Ove nedelje je širio antisemitizam, a nedavno je sa korisnicima diskutovao o „belom genocidu“. Mask planira da Grok u budućnosti bude deo Tesla vozila, a xAI već nudi AI rešenja američkoj vojsci i korporacijama.

Ako AI model ne može da se ponaša prihvatljivo na društvenim mrežama, teško je zamisliti da će biti bezbedan u kolima ili kancelarijama državnih institucija.

Radovan Laćarak

Radovan Laćarak

About Author

Radovan Laćarak je autor na portalu Uninor.rs, gde se bavi temama iz oblasti tehnologije, digitalne kulture i savremenih medija. Kroz višegodišnje iskustvo u pisanju i uređivanju sadržaja, fokusiran je na jasno, precizno i smisleno predstavljanje digitalnih trendova i inovacija. Njegovi tekstovi odlikuju se analitičnim pristupom, proverljivim informacijama i snažnim fokusom na korisničko iskustvo, što čitaocima pomaže da lakše razumeju kompleksne tehnološke pojave. Na Uninoru prati aktuelnosti poput razvoja digitalnih platformi, bezbednosti na internetu i uticaja veštačke inteligencije na svakodnevni život, pružajući pouzdan i relevantan uvid u svet savremenih tehnologija.

Leave a comment

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *

Preporučujemo

AI Istaknuto

Škole počele da zabranjuju ChatGPT da đaci ne bi varali na testovima

Sve javne škole u Njujorku su blokirale pristup ChatGPT modelu na svojim mrežama i uređajima. Škole su u strahu da
AI

BioNTech kupuje londonsku firmu za veštačku inteligenciju InstaDeep

Nemački farmaceutski gigant BioNTech objavio je da će kupiti londonsku firmu za veštačku inteligenciju InstaDeep. BioNTech je u saopštenju naveo

Prijavite se da biste uživali u svim prednostima

Prijavite se ili se pretplatite da biste nastavili

Go Premium!

Enjoy the full advantage of the premium access.

Stop following

Unfollow Cancel

Cancel subscription

Are you sure you want to cancel your subscription? You will lose your Premium access and stored playlists.

Go back Confirm cancellation