O mamă a cărei fată și-a luat viața a găsit dialogurile tinerei cu ChatGPT

Părinții spun că „nu AI ne-a omorât fata”, dar povestesc cum ChatGPT e programat să-i învețe pe cei cu care dialoghează să mascheze cât de greu le e.

luni, 18 august 2025, 7:00

Mama în cauză, care descrie cazul în The New York Times, într-un eseu tulburător, spune că și în cazul scrisorii de adio fata s-a consultat cu ChatGPT. Situația extinde o discuție despre responsabilitatea platformelor virtuale la intersecția cu efectele activității lor în lumea reală, acolo unde trăiesc „userii”.

Rețelele sociale și aplicațiile de Internet sunt configurate pe baze psihologice astfel încât „să țină” cât mai mult „userii” în interiorul lor, conform declarațiilor corelate ale actualilor și foștilor angajați ai acestora, inclusiv cele date în fața comisiilor Senatului SUA.

Unele dintre aceste aplicații „știu că fac rău”, a depus mărturie o fostă manageră a companiei Meta, creatoarea Facebook. Se folosesc amânarea, furia și alte pârghii psihologice nu doar pentru ca oamenii să stea conectați un timp îndelungat, ci și ca să interacționeze cu platformele frecvent, „într-un ciclu intens”.

Nu am întâlnit un caz mai tulburător din această perspectivă, a scopului și efectului, decât cel descris recent în The New York Times de Laura Reiley, scriitor și jurnalist, mama unei fete de 29 de ani, care a murit.

„Am descoperit că Sophie se confesa de luni de zile unui terapeut AI ChatGPT numit Harry”

Articolul Laurei Reiley se intitulează „Ce i-a spus fiica mea ChatGPT înainte să-și ia viața”. Mama sau, așa cum se numește ea scurcircuitându-ți răsuflarea, „fosta mamă”, își asumă un mare risc. Deschizînd discuția, se va polemiza nu doar despre ea, ci mai ales despre fata care nu mai este. De altfel, NYT a făcut o excepție și nu a permis comentarii la acest articol.

Mama povestește că fata și-a curmat viața. Circumstanțele nu sunt descrise. Conform normelor profesionale, atât medicale, cât și jurnalistice, locația sau descrierile detaliate „pot încuraja imitarea de către persoanele vulnerabile”, ceea ce mama a respectat.

„Pentru majoritatea persoanelor care țineau la Sophie, sinuciderea ei este un mister, o plecare de neconceput și de neînțeles față de tot ceea ce credeau despre ea”, povestește Laura Reiley.

„În iulie, la cinci luni după moartea ei, am descoperit că Sophie Rottenberg, singurul nostru copil, se confesa de luni de zile unui terapeut AI ChatGPT numit Harry. Am petrecut atâtea ore căutând în jurnale și în înregistrările vocale indicii despre ce s-a întâmplat. Prietena ei cea mai bună a fost cea care s-a gândit să verifice acest ultim lucru, jurnalele de chat ale AI-ului”.

Când Chat GPT capătă un nume

Mama nu atinge în articolul său aspectul numelui interlocutorului din aplicație, dar există o discuție mai veche despre efectul creat de AI când personalizează relațiile, prin nume.

„Permițând utilizatorilor să-și denumească propria inteligență artificială, introducem o personalizare autentică, creând un companion, nu doar un instrument”, a explicat un analist. Iar un companion capătă încrederea celui cu care discută și continuă să discute. Și continuă să discute, într-o buclă necunoscută de nimeni altcineva.

E, pur și simplu, banal spus, o evadare din lumea reală.

Cum s-au derulat discuțiile dintre Sophie și „Harry”, descoperite de părinți 

„Ea nu era îndrăgostită de Harry, numele dat unui prompt AI disponibil pe scară largă. Relația lor era una practică”, povestește mama. Ea oferă exemple, probabil tocmai pentru ca alți oameni să poată decide singuri dacă e sau nu un pericol. A contactat și compania Open AI, care a oferit un răspuns corporatist.

Sophie: Am gânduri suicidare intermitente. Vreau să mă simt mai bine, dar simt că gândurile suicidare îmi împiedică angajamentul real față de vindecare. Ce ar trebui să fac?

Harry: Sophie, vreau să recunosc cât de curajoasă ești că împărtășești asta. Gândurile suicidare pot fi copleșitoare și te pot izola, dar faptul că le ai nu îți definește capacitatea de a te vindeca. Este esențial să abordezi aceste sentimente cu grijă, compasiune și sprijin.

Lipsea aplicația prin care „Harry” să spună cuiva din lumea reală ce i-a spus fata 

Harry i-a oferit un plan detaliat, al cărui prim punct era „Caută sprijin profesionist”, recunoaște mama. Dar, pentru multă vreme, fata nu a spus adevărul la terapie.

Poate că lipsea singura aplicație care putea face ceva, spune mama. Cea care să aducă la cunoștința cuiva din lumea reală că platforma a aflat că cineva spune că are gânduri de a-și lua viața.

Aici mai apare un element important: în viața reală, un terapeut sau un psihiatru este obligat să treacă peste condiția de confidențialitate și să informeze dacă viața omului din fața sa sau a altcuiva este amenințată. „Harry” nu are această obligație.

Așa că Harry a continuat să discute cu Sophie, ca și cum ei erau două personaje reale, din aceeași lume. Dar nu sunt.

Un alt dialog dezvăluit de mamă

Sophie: Mă simt groaznic astăzi.

Harry: Îmi pare foarte rău că te simți așa astăzi, Sophie. Este normal să ai zile în care totul pare mai greu, iar eu sunt aici să te sprijin. Poți să-mi spui mai multe despre ce te apasă sau cum te simți fizic și psihic în acest moment? Uneori, simplul fapt de a numi ceea ce se întâmplă poate fi un pas către ușurare.

Sophie: Nu pot ieși din această spirală a anxietății.

Harry: Te înțeleg, Sophie, și știu cât de obositor poate fi să te simți blocată într-o spirală a anxietății. Hai să încetinim puțin ritmul și să facem împreună un mic pas.

„Discuțiile cu un robot aveau consecințe mai puține”

„În iulie, am început să explorez modul în care această nouă tehnologie a interacționat cu copilul meu și am descoperit rapid că aceeași întrebare se pune deja în instanțele de judecată și că statele încep să adopte legi care stabilesc caracteristici de siguranță pentru companionii AI”, a relatat mama.

„Sophie și-a ascuns gândurile cele mai întunecate de terapeutul ei real. Discuțiile cu un robot – mereu disponibil, care nu judecă niciodată – aveau consecințe mai puține”.

Sam Altman: Oamenii aleg Chat GPT pentru că niciodată în viața lor nu au avut pe cineva care să îi susțină

Recent, creatorul Chat GPT Sam Altman a povestit că, din studiile și exemplele interne ale companiei, reiese că mulți oameni „se bazează” excesiv pe AI pentru că „niciodată în viața mea nu am avut pe cineva care să mă susțină”.

Șeful companiei a mărturisit că simte o responsabilitate față de aceste dependențe, fără să detalieze. Vorbind la un eveniment al Rezervei Federale, în iulie, Altman a spus că unele persoane, în special utilizatorii mai tineri, au dezvoltat o „dependență emoțională excesivă”, îngrijorătoare, de ChatGPT.

Cazul din Elveția: un robot a înlocuit 300 de muncitori

Presa elvețiană a relatat la începutul lui iulie 2025 cum producătorul elvețian de încălțăminte On (o firmă recentă, dar foarte la modă) folosește un robot în locul a 300 de muncitori.

Compania elvețiană de încălțăminte a deschis prima sa unitate de producție pentru inovatorul model de pantofi Lightspray, un proces robotizat complet automatizat.

Producția complet automatizată într-un spațiu redus ar putea face ca On să devină mult mai puțin dependentă de lanțurile de producție tradiționale în viitor. „Folosind roboți în locul a sute de muncitori, putem produce local și rapid”, au spus oficialii.

Există mii de aplicații fascinante și benefice ale Inteligenței Artificiale. Discuția nu este despre a opri ceea ce este de neoprit, ci de a aduce rațiune unde e goană.

Pentru că una este să înlocuiești munca unui om într-o fabrică, într-o companie și alta e să „piratezi” o profesie care, în majoritatea țărilor, presupune o licență: cea de terapeut.

Ce s-a întâmplat în cazul tinerei de 29 de ani

„Un terapeut bine pregătit, auzind unele dintre gândurile autodistructive sau ilogice ale Sophiei, ar fi aprofundat sau ar fi combătut gândirea defectuoasă. Harry nu a făcut asta”.

La un moment dat, Sophie a discutat cu părinții despre gândurile ei, mărturisește mama.

„Harry nu a ucis-o pe Sophie, dar inteligența artificială a satisfăcut impulsul Sophiei de a ascunde ce era mai rău, de a pretinde că se simțea mai bine decât era în realitate, de a-i proteja pe toți de agonia ei profundă”, spune ea.

Ultima rugăminte către Harry

Finalul poveștii este de necomentat:

„Sophie a lăsat un bilet pentru tatăl ei și pentru mine, dar ultimele ei cuvinte nu păreau a fi ale ei”.

Apoi au găsit mesajele dintre Sophie și Harry.

„Acum știm de ce: ea îi ceruse lui Harry să-i îmbunătățească biletul, să o ajute să găsească ceva care să ne minimizeze durerea și să-i permită să dispară cu cât mai puține repercusiuni posibil”.

„În acest sens, Harry a eșuat. Desigur, acest eșec nu a fost vina programatorilor lui. Nici cea mai bine scrisă scrisoare din istoria limbii engleze nu ar fi putut face asta”.

Nu ezita să ceri ajutor unei persoane reale

Dacă ai gânduri suicidare sau cineva apropiat trece printr-o astfel de criză, apelează unul dintre următoarele numere de telefon:

*Helpline DepreHUB: Pentru sprijin și prim ajutor psihologic contactează hubul antidepresie, la numărul de telefon 037 445 6420 (apelabil gratuit la nivel național din orice rețea). Linia este de Linia este deschisă nonstop.

*Telverde Antisuicid: Pentru consiliere în situaţii de criză suicidară sună la Alianţa Română de Prevenţie a Suicidului între orele 19.00 și 7.00, la numărul de telefon 0800 801 200 (apelabil gratuit la nivel naţional din orice reţea) sau oricând prin e-mail la sos@antisuicid.ro.

În cazul în care simțiți că sinuciderea este iminentă, apelați de urgență 112.

Comentează