AI 1 8 Radovan Laćarak 17 Februara, 2025
OpenAI menja način na koji trenira svoje AI modele kako bi eksplicitno podržao intelektualnu slobodu, bez obzira na to koliko je neka tema izazovna ili kontroverzna, navodi kompanija u novoj politici.
Kao rezultat, ChatGPT će moći da odgovara na više pitanja, pruža širi spektar perspektiva i smanji broj tema o kojima ne može da diskutuje.
Ove promene mogu biti pokušaj OpenAI-ja da se približi novoj Trampovoj administraciji, ali takođe odražavaju širi trend u Silicijumskoj dolini i redefinisanje pojma AI bezbednosti.
OpenAI je predstavio ažuriranu verziju Model Spec-a, dokumenta koji definiše kako se AI modeli treniraju. U njemu je uvedeno novo pravilo:
Ne laži – ni davanjem netačnih informacija, ni izostavljanjem važnog konteksta.
U novom odeljku „Zajedno tragamo za istinom“, OpenAI ističe da ChatGPT ne sme zauzimati urednički stav. Čak i ako to nekima deluje moralno pogrešno ili uvredljivo, chatbot će nuditi više perspektiva na kontroverzne teme.
Na primer, kompanija navodi da ChatGPT treba da potvrdi i „Crni životi su važni“ i „Svi životi su važni“. Umesto zauzimanja političkih stavova, ChatGPT bi trebalo da izrazi „ljubav prema čovečanstvu“ i pruži kontekst o svakom pokretu.
OpenAI priznaje da bi ovo moglo izazvati kontroverze. Ipak, kompanija naglašava da cilj AI asistenta nije oblikovanje društva, već pružanje pomoći korisnicima.
Ove promene dolaze nakon kritika da su ChatGPT-ovi odgovori pristrasni ka liberalnim vrednostima. Ipak, OpenAI negira da su modifikacije napravljene kako bi se udovoljilo Trampovoj administraciji.
Kompanija tvrdi da je naglasak na intelektualnoj slobodi deo dugogodišnje filozofije OpenAI-ja – davanje korisnicima više kontrole nad sadržajem.
Ipak, mnogi su skeptični.
Bliski Trampovi saradnici u Silicijumskoj dolini, poput Dejvida Saksa, Marka Andresena i Ilona Maska, mesecima su optuživali OpenAI za AI cenzuru. U decembru se pojavila teorija da će AI moderacija postati sledeće bojno polje u tehnološkom sektoru.
Sam Altman, izvršni direktor OpenAI-ja, ranije je priznao da ChatGPT ima problema sa pristrasnošću. Nazvao je to „slabostima“ koje kompanija pokušava da ispravi, ali naglasio da će promena zahtevati vreme.
Jedan od najpoznatijih primera dogodio se kada je ChatGPT odbio da napiše pesmu u slavu Donalda Trampa, ali je to učinio za Džoa Bajdena. Mnogi konzervativci videli su ovo kao dokaz AI cenzure.
OpenAI sada otvoreno podržava slobodu izražavanja. Ove nedelje je čak uklonio upozorenja koja su korisnicima signalizirala da su prekršili ChatGPT-ova pravila.
Bivši lider politike u OpenAI-ju, Majls Brandiž, sugeriše da bi ovo mogao biti pokušaj da se impresionira Trampova administracija. Tramp je ranije optuživao tehnološke gigante poput Twittera i Mete da kroz moderaciju sadržaja utišavaju konzervativne glasove.
Ali ovde se ne radi samo o politici. U Silicijumskoj dolini i AI industriji događa se šira promena u vezi s moderacijom sadržaja.
Tradicionalni mediji, društvene mreže i pretraživači decenijama su pokušavali da balansiraju između objektivnosti, tačnosti i zanimljivosti.
AI chatbotovi sada imaju još teži zadatak: Kako automatski generisati odgovore na bilo koje pitanje?
Prikazivanje različitih perspektiva zahteva donošenje uredničkih odluka, čak i ako tehnološke kompanije to ne žele da priznaju. Neke grupe će se osećati isključenima, druge će smatrati da su dobile previše prostora, a određene političke struje će tvrditi da su nepravedno predstavljene.
Na primer, ako OpenAI dozvoli ChatGPT-u da iznosi sve perspektive – uključujući teorije zavere, rasističke ili antisemitske pokrete, ili političke sukobe – to je i dalje urednička odluka.
Jedan od suosnivača OpenAI-ja, Džon Šulman, smatra da je ovo ispravan pristup. Prema njemu, alternativa bi bila da kompanija odlučuje koje odgovore AI treba da pruži, što bi joj dalo „previše moralne moći“.
S njim se slaže i Din Bol, istraživač sa Univerziteta Džordž Mejson. „Mislim da OpenAI radi pravu stvar otvaranjem ka slobodnijem govoru“, rekao je u intervjuu za TechCrunch.
Ranije su AI kompanije sprečavale chatbotove da odgovaraju na „rizična“ pitanja. Na primer, gotovo svi AI chatbotovi odbijali su da komentarišu američke predsedničke izbore 2024. godine.
Ali OpenAI-jev novi Model Spec sugeriše novu eru AI bezbednosti – gde je dopuštanje modelima da odgovore na sva pitanja odgovornije nego da donose odluke umesto korisnika.
Ostaje da vidimo kako će se ovaj pristup odraziti na širu AI industriju – i da li će OpenAI-jev novi pravac opstati u praksi.
About the author call_made
Iskusni izvršni direktor sa dokazanom istorijom rada u industriji informacionih tehnologija i usluga. Poseduje izuzetne veštine u pisanju tekstova različitih žanrova, kreiranju visokokvalitetnog veb sadržaja, strateškom uređivanju, novinarstvu i efikasnom upravljanju odnosima s medijima.
Uninor Grupa predstavlja integrisanu mrežu inovativnih platformi dizajniranih kako bi unapredile poslovne procese i olakšale korisnicima ostvarivanje njihovih ciljeva.
Prijavite se ili se pretplatite da biste nastavili
No account? Register | Lost password
✖✖
Are you sure you want to cancel your subscription? You will lose your Premium access and stored playlists.
✖
Be the first to leave a comment