OpenAI je zabrinut da bi ljudi mogli početi previše da se oslanjaju na ChatGPT kao saputnika, što bi potencijalno moglo dovesti do „zavisnosti“, zbog njegovog novog modusa rada koji zvuči kao ljudski glas.
Ovo otkriće dolazi iz izveštaja koji je OpenAI objavio u četvrtak o bezbednosnoj proveri alata — koji je počeo da se uvodi korisnicima koji plaćaju prošle nedelje — i velikog jezičkog AI modela na kojem radi.
Napredni glasovni mod ChatGPT-a zvuči izuzetno realno. Odgovara u realnom vremenu, može da se prilagodi prekidima u govoru, pravi zvukove koje ljudi obično prave tokom razgovora, kao što su smeh ili „hmms“. Takođe može da proceni emocionalno stanje govornika na osnovu tona njegovog glasa.
Samo nekoliko minuta nakon što je OpenAI najavio ovu funkciju na događaju ranije ove godine, počela su poređenja sa AI digitalnim asistentom iz filma „Her“ iz 2013. godine, sa kojim glavni junak započinje ljubavnu vezu, samo da bi na kraju bio slomljenog srca kada AI prizna da ima „odnose“ sa stotinama drugih korisnika.
Sada je OpenAI očigledno zabrinut da bi ova fikcija mogla postati stvarnost, nakon što je zabeležio kako korisnici razgovaraju sa ChatGPT-ovim glasovnim modom koristeći jezik koji „izražava zajedničke veze“ sa alatom.
Na kraju, „korisnici bi mogli formirati socijalne odnose sa AI, smanjujući potrebu za ljudskom interakcijom — što bi moglo koristiti usamljenim pojedincima, ali i negativno uticati na zdrave odnose,“ navodi se u izveštaju. Dodaje se da slušanje informacija od bota koji zvuči kao čovek može navesti korisnike da previše veruju alatu, s obzirom na to da AI ima sklonost da pravi greške.
Izveštaj naglašava veliki rizik vezan za veštačku inteligenciju: tehnološke kompanije se utrkuju da brzo predstave javnosti AI alate za koje kažu da bi mogli promeniti način na koji živimo, radimo, socijalizujemo se i nalazimo informacije. Ali to rade pre nego što iko stvarno razume šta te implikacije zaista znače. Kao i kod mnogih tehnoloških inovacija, kompanije često imaju jednu ideju o tome kako njihovi alati mogu i treba da se koriste, ali korisnici pronalaze čitav niz drugih potencijalnih primena, često sa nepredviđenim posledicama.
Neki ljudi već formiraju ono što opisuju kao romantične veze sa AI chatbotovima, što izaziva zabrinutost kod stručnjaka za odnose.
„Velika je odgovornost na kompanijama da se stvarno kreću kroz ovo na etički i odgovoran način, a sve je trenutno u fazi eksperimentisanja,“ izjavila je za CNN Liesel Sharabi, profesorka sa Državnog univerziteta u Arizoni, koja proučava tehnologiju i ljudsku komunikaciju. „Zabrinjava me kada ljudi formiraju zaista duboke veze sa tehnologijom koja možda neće postojati dugoročno i koja se stalno razvija.“
OpenAI je rekao da bi interakcije korisnika sa ChatGPT-ovim glasovnim modom takođe mogle, vremenom, uticati na to šta se smatra normalnim u socijalnim interakcijama.
„Naši modeli su popustljivi, dopuštaju korisnicima da ih prekinu i ‘preuzmu mikrofon’ u bilo kom trenutku, što je, dok se očekuje za AI, anti-normativno u ljudskim interakcijama,“ navodi kompanija u izveštaju.
Za sada, OpenAI kaže da je posvećen izgradnji AI „na siguran način“ i planira da nastavi da proučava potencijal za „emocionalnu zavisnost“ korisnika od svojih alata.
Be the first to leave a comment