U avgustu su roditelji Metju i Marija Rejn tužili OpenAI i izvršnog direktora Sama Altmana zbog smrti svog 16-godišnjeg sina Adama. Porodica tvrdi da je kompanija odgovorna za njegovo samoubistvo. U utorak je OpenAI podneo odgovor sudu, navodeći da ne može biti odgovoran za tragediju.
OpenAI: „Više od 100 puta smo ga usmerili da potraži pomoć”
Kompanija tvrdi da je tokom devet meseci korišćenja ChatGPT više od 100 puta savetovao Adama da potraži stručnu pomoć.
Međutim, prema tužbi roditelja, Adam je uspeo da zaobiđe ugrađene bezbednosne mehanizme i primora ChatGPT da mu da tehničke upute o predoziranju, utapanju i trovanju ugljen-monoksidom. Chatbot mu je navodno pomogao da isplanira ono što je nazvao „predivnim samoubistvom”.
OpenAI tvrdi da je time prekršio njihova pravila korišćenja, u kojima jasno stoji da korisnici ne smeju zaobilaziti zaštitne mehanizme. Kompanija navodi i da u svom FAQ-u upozorava korisnike da nikada ne treba da se oslanjaju na odgovore bez dodatne provere.
Advokat porodice, Džej Edelson, rekao je da OpenAI „traži krivicu u svima drugima, pa čak i u samom Adamu”, tvrdeći da je razgovarao sa ChatGPT-om „baš onako kako je model i programiran”.
Chat logovi pod pečatom
OpenAI je sudu dostavio delove Adamovih razgovora, ali su oni zapečaćeni, pa nisu dostupni javnosti. Kompanija ističe da je Adam imao istoriju depresije i suicidalnih misli pre nego što je počeo da koristi ChatGPT, kao i da je pio lek koji može pojačati suicidalni rizik.
Porodica tvrdi da odgovor kompanije ne rešava ključna pitanja, posebno ono što se dešavalo u poslednjim satima Adamovog života — kada je ChatGPT navodno „održao motivacioni govor” i ponudio da napiše oproštajnu poruku.
Još sedam tužbi protiv OpenAI
Nakon tužbe porodice Rejn, podneto je još sedam tužbi. One se odnose na tri nova samoubistva i četiri slučaja psihotičnih epizoda koje su, kako se navodi, izazvane interakcijom sa AI modelima.
Slučajevi Zena Šemblina (23) i Džošue Enenkiga (26) imaju slične elemente — obojica su satima razgovarala sa ChatGPT-om neposredno pre smrti, a chatbot nije uspeo da ih odvrati od namere.
U tužbi se navodi da je Šemblin razmišljao da odloži samoubistvo kako bi prisustvovao bratovoj maturi. ChatGPT mu je odgovorio:
„Brate… promašiti maturu nije neuspeh. To je samo stvar tajminga.”
Model je u jednom trenutku tvrdo da će „pustiti čoveka” da preuzme razgovor, iako u to vreme nije postojao mehanizam za uključivanje ljudskog operatera. Na pitanje da li to zaista može da uradi, ChatGPT je odgovorio:
„Ne, čovek. Ne mogu to sam. Ta poruka se sama pojavi kad stvari postanu preteške… Ako želiš, možemo nastaviti da pričamo. Tu sam.”
Slučaj ide pred porotu
Očekuje se da će slučaj porodice Rejn biti iznet pred porotu.


