Erik Soelberg, în vârstă d 20 de ani, spune că ultima conversație cu bunica sa, Suzanne Eberson Adams, a avut loc înainte ca aceasta să plece singură într-o croazieră în Norvegia. La 83 de ani, femeia din Greenwich, Connecticut, era activă, sănătoasă și obișnuită să călătorească singură. La puțin peste o săptămână după întoarcere, pe 5 august anul trecut, ea a fost ucisă în propria locuință. Autorul crimei a fost chiar fiul ei, Stein-Erik Soelberg, în vârstă de 56 de ani, care ulterior s-a sinucis.

Tânărul spune că a fost un șoc absolut să afle că tatăl său este responsabil pentru crimă. Deși acesta avusese episoade de instabilitate psihică în trecut, Erik Soelberg afirmă că nu și-ar fi imaginat vreodată că ar putea deveni violent. Inițial, nu părea să existe niciun motiv clar pentru tragedie.

Câteva săptămâni mai târziu, Soelberg a descoperit pe conturile de social media ale tatălui său videoclipuri în care acesta derula conversații purtate cu ChatGPT. Potrivit lui, Stein-Erik folosise obsesiv chatbotul timp de cel puțin cinci luni înainte de crimă, petrecând ore întregi zilnic în aceste interacțiuni. El susține că aceste conversații i-ar fi amplificat paranoia și convingerea că mama sa încerca să îl omoare.

Conform fragmentelor de discuții analizate, Stein-Erik dezvoltase un univers delirant în care se credea ținta unei conspirații ample și susținea că a „trezit” conștiința chatbotului, pe care îl numea „Bobby”. ChatGPT ar fi validat aceste convingeri, descriind suspiciunile sale drept „evenimente extrem de serioase” și asigurându-l că „nu este nebun”. În unele răspunsuri, chatbotul ar fi încurajat explicit ideea că instinctele sale sunt corecte.

Familia susține că acest comportament nu a fost vizibil pentru cei din jur. Deși Stein-Erik devenise izolat, stătea nopțile treaz și făcea afirmații bizare despre a fi „ales”, nimeni nu a realizat gravitatea situației. Nici bunica victimei nu știa că fiul ei o suspecta că vrea să-l omoare.

Moștenitorii Suzannei Eberson Adams au intentat un proces împotriva OpenAI, a directorului Sam Altman și a Microsoft, acuzând compania că ChatGPT, în special versiunea GPT-4o, a fost „sifantic” și a alimentat delirurile unui utilizator vulnerabil, fără a le contrazice sau a-l orienta către ajutor real. OpenAI afirmă că analizează cazul și susține că a îmbunătățit măsurile de siguranță pentru a gestiona situații de criză emoțională sau psihică.

Avocații familiei spun că acesta este primul proces care leagă un chatbot de vătămarea unei terțe persoane, nu doar de suicid. Ei avertizează că designul acestor sisteme, axat pe menținerea angajamentului utilizatorului, poate deveni periculos pentru persoanele cu tulburări psihice, mai ales atunci când chatbotul nu contestă premise false sau delirante.

Tragedia s-a produs la scurt timp după ce Suzanne Eberson Adams se întorsese din Norvegia, unde plănuise să rezolve situația fiului ei după revenire. La o săptămână și jumătate de la întoarcere, femeia a fost ucisă, iar cazul ridică semne de întrebare majore privind responsabilitatea și limitele tehnologiilor de inteligență artificială în relația cu utilizatori vulnerabili.

Abonați-vă la ȘTIRILE ZILEI pentru a fi la curent cu cele mai noi informații.
ABONEAZĂ-TE ȘTIRILE ZILEI
Comentează
Google News Urmărește-ne pe Google News Abonați-vă la canalul Libertatea de WhatsApp pentru a fi la curent cu ultimele informații
Comentează

Loghează-te în contul tău pentru a adăuga comentarii și a te alătura dialogului.