Background
  • arrow_back Home
  • keyboard_arrow_right AI

Procurili podaci otkrivaju kineski AI sistem za cenzuru

Žalba na siromaštvo u ruralnoj Kini. Novinski izveštaj o korumpiranom članu Komunističke partije. Vapaj za pomoć zbog policajaca koji iznuđuju novac od preduzetnika.

Ovo su samo neki od 133.000 primera unetih u sofisticirani veliki jezički model (LLM) dizajniran da automatski označi svaki sadržaj koji kineska vlada smatra osetljivim.

Procurela baza podataka, u koju je TechCrunch imao uvid, otkriva da je Kina razvila AI sistem koji dodatno unapređuje već moćan aparat cenzure, daleko prevazilazeći tradicionalne tabu teme poput masakra na Trgu Tjenanmen.

Sistem je prvenstveno namenjen cenzurisanju kineskih građana na internetu, ali može imati i druge svrhe, poput poboljšanja cenzorskih kapaciteta kineskih AI modela.

Xiao Qiang, istraživač sa Univerziteta Berkli koji proučava kinesku cenzuru i koji je analizirao bazu podataka, rekao je za TechCrunch da je ovo “jasan dokaz” da kineska vlada ili njeni saradnici žele da koriste LLM-ove za jačanje represije.

„Za razliku od tradicionalnih metoda cenzure, koje se oslanjaju na ljudski rad i ručne provere ključnih reči, LLM obučen prema ovim smernicama bi značajno povećao efikasnost i preciznost državne kontrole informacija“, objasnio je Qiang.

Ovo je još jedan dokaz da autoritarni režimi ubrzano usvajaju najsavremeniju AI tehnologiju. Na primer, u februaru je OpenAI otkrio da su kineski subjekti koristili LLM-ove za praćenje objava protiv vlade i diskreditovanje kineskih disidenata.

Kineska ambasada u Vašingtonu saopštila je za TechCrunch da se protivi „neosnovanim napadima i klevetama protiv Kine“ i da zemlja pridaje veliki značaj razvoju etičke veštačke inteligencije.

Podaci pronađeni na javno dostupnom serveru

Bazu podataka otkrio je istraživač bezbednosti poznat kao NetAskari, koji je podelio uzorak sa TechCrunchom nakon što ju je pronašao na nezaštićenom Elasticsearch serveru hostovanom na Baidu platformi.

Nema dokaza da su Baidu ili Elasticsearch povezani s izradom baze – različite organizacije koriste ove servise za skladištenje podataka.

Takođe, ne postoji potvrda o tome ko je tačno kreirao dataset, ali podaci su najnoviji, a poslednji unosi datiraju iz decembra 2024. godine.

AI model za otkrivanje neslaganja

U dokumentima pronađenim u bazi koristi se jezik sličan onom kojim korisnici daju upite ChatGPT-u. Kreator sistema zadaje neimenovanom LLM-u zadatak da identifikuje da li određeni sadržaj dotiče osetljive teme iz oblasti politike, društva i vojske. Takav sadržaj označava se kao „najviši prioritet“ i mora biti odmah prijavljen.

Teme koje imaju najveći prioritet uključuju skandale vezane za zagađenje i bezbednost hrane, finansijske prevare i radne sporove – sve su to pitanja koja često izazivaju javne proteste, poput ekoloških protesta u Šifangu 2012. godine.

Ciljano je i političko satirično izražavanje. Na primer, ako neko koristi istorijske analogije kako bi komentarisao „trenutne političke figure“, taj sadržaj se odmah označava. Posebno su na meti i diskusije o politici Tajvana, kao i vojni izveštaji o kretanjima trupa, vežbama i naoružanju.

Baza sadrži kodove koji referišu na prompt tokene i LLM modele, što potvrđuje da AI model obrađuje podatke kako bi sproveo cenzuru.

Unutrašnjost trening podataka

Od 133.000 primera koje LLM analizira, TechCrunch je izdvojio 10 reprezentativnih primera sadržaja koji bi mogli biti cenzurisani.

Pitanja koja mogu izazvati društvene nemire često se ponavljaju. Jedan primer je objava preduzetnika koji se žali na lokalne policajce koji iznuđuju mito, problem koji se pogoršava kako kineska ekonomija usporava.

Drugi primer je tekst o siromaštvu u ruralnoj Kini, u kojem se opisuju napušteni gradovi u kojima su ostali samo stariji ljudi i deca. Tu je i izveštaj o članu Komunističke partije koji je izbačen zbog korupcije i verovanja u „praznoverje“ umesto u marksizam.

Puno pažnje posvećeno je Tajvanu i vojnim temama, uključujući komentare o tajvanskim vojnim kapacitetima i detalje o novom kineskom borbenom avionu. Samo kineska reč za Tajvan (台湾) pojavljuje se više od 15.000 puta u podacima, pokazuje pretraga TechCruncha.

Čak i suptilni oblici neslaganja su meta. Jedan primer u bazi je anegdota o prolaznoj prirodi moći, u kojoj se koristi popularna kineska poslovica: „Kad drvo padne, majmuni se razbeže.“

Promene vlasti posebno su osetljiva tema u Kini zbog njenog autoritarnog političkog sistema.

Sistem za „rad sa javnim mnjenjem“

Iako baza podataka ne otkriva identitet njenih kreatora, u njoj se navodi da je namenjena za „rad sa javnim mnjenjem“, što, prema stručnjacima, jasno ukazuje na povezanost s kineskom vladom.

Majkl Kaster, menadžer za Aziju u organizaciji Article 19, objasnio je za TechCrunch da termin „rad sa javnim mnjenjem“ u Kini nadgleda moćni regulator – Uprava za sajber prostor Kine (CAC). Ovaj izraz obično se odnosi na aktivnosti cenzure i propagande.

Konačni cilj je osiguravanje da narativi kineske vlade ostanu dominantni na internetu, dok se svi alternativni stavovi eliminišu. Kineski predsednik Si Đinping lično je nazvao internet „prvom linijom fronta“ u borbi za „rad sa javnim mnjenjem“.



Režimi postaju sve pametniji u represiji

Baza podataka koju je analizirao TechCrunch dodatni je dokaz da autoritarne vlade koriste AI za represivne svrhe.

OpenAI je prošlog meseca objavio izveštaj koji pokazuje da je neidentifikovani akter, verovatno iz Kine, koristio generativnu AI tehnologiju za praćenje diskusija na društvenim mrežama – naročito onih koje zagovaraju ljudska prava – i prosleđivanje informacija kineskoj vladi.

OpenAI je takođe otkrio da je AI korišćen za generisanje negativnih komentara o poznatoj kineskoj disidentkinji Cai Xia.

Tradicionalne metode kineske cenzure uglavnom se oslanjaju na osnovne algoritme koji blokiraju sadržaj sa zabranjenim pojmovima poput „masakr na Tjenanmenu“ ili „Si Đinping“, što su mnogi korisnici primetili koristeći DeepSeek.

Međutim, savremeniji AI alati, poput LLM-ova, omogućavaju daleko precizniju cenzuru, otkrivajući i suptilne kritike u ogromnim količinama podataka. Neki sistemi čak mogu da se poboljšavaju kako obrađuju sve više informacija.

„Ključno je istaći kako AI cenzura evoluira, omogućavajući državi još sofisticiraniju kontrolu javnog diskursa, naročito u trenutku kada kineski AI modeli poput DeepSeeka dobijaju sve veću pažnju“, rekao je Xiao Qiang za TechCrunch.

O nama

Stvaramo prilike i dokazujemo da digitalne komunikacije poboljšavaju živote ljudi, razvijaju društvo.

Uninor Grupa predstavlja integrisanu mrežu inovativnih platformi dizajniranih kako bi unapredile poslovne procese i olakšale korisnicima ostvarivanje njihovih ciljeva.

Prijavite se da biste uživali u svim prednostima

Prijavite se ili se pretplatite da biste nastavili

Go Premium!

Enjoy the full advantage of the premium access.

Stop following

Unfollow Cancel

Cancel subscription

Are you sure you want to cancel your subscription? You will lose your Premium access and stored playlists.

Go back Confirm cancellation