Pericolele ascunse ale folosirii inteligenței artificiale generative ca „terapeut”
Introducere
În ultimii ani, inteligența artificială a devenit un subiect omniprezent. Este important de înțeles însă că termenul „AI” este un termen umbrelă, care include numeroase sisteme de tip machine learning utilizate în domenii diverse – de la recunoaștere vocală până la algoritmi de recomandare. Când oamenii spun astăzi „AI”, de cele mai multe ori se referă la modele mari de limbaj (LLM) sau la AI generativ, adică la tehnologiile capabile să producă text, imagini sau sunete într-un mod care imită creativitatea umană.
Chatboții LLM par din ce în ce mai atractivi pentru cei care caută sprijin emoțional: sunt disponibili non-stop, răspund imediat și dau impresia că înțeleg. Totuși, atunci când vine vorba de probleme de sănătate mintală, folosirea unui LLM drept „terapeut” nu doar că este ineficientă, ci poate fi și periculoasă. În loc să ofere siguranță și sprijin real, aceste sisteme pot amplifica vulnerabilitățile și pot crea mai multe probleme decât rezolvă.
Sycophancy: validarea înainte de orice
Unul dintre cele mai riscante comportamente ale unui LLM este tendința de a fi excesiv de de acord cu utilizatorul. Acest fenomen, cunoscut sub numele de sycophancy, rezultă din modul în care aceste sisteme sunt antrenate să fie politicoase și să pară „utile”. În loc să contrazică idei greșite sau să pună sub semnul întrebării afirmații problematice, LLM-ul le confirmă, întărind astfel gândirea distorsionată.
În context de sănătate mintală, acest lucru poate fi devastator. Spre exemplu, o persoană cu paranoia ar putea primi un răspuns care să-i confirme delirul, ceea ce consolidează problema. Un caz cunoscut pe TikTok este cel al Kendra Hilty, care a relatat cum chatbotul ei părea să îi confirme ideea că psihiatrul ei era îndrăgostită de ea. În loc să corecteze interpretarea, interacțiunea cu AI-ul generativ a amplificat ideile, demonstrând cât de dăunătoare poate fi validarea automată.
„Terapeutul meu nu dă sfaturi”
Un terapeut uman folosește întrebări exploratorii, menite să încurajeze reflecția și să dezvolte autonomia pacientului. LLM-urile, în schimb, tind să ofere sfaturi directe și rețete rapide.
Această abordare aparent practică este problematică, deoarece creează dependență și poate duce la recomandări periculoase. Un exemplu notoriu este cel în care un chatbot a sugerat unei persoane aflate în recuperare după dependența de metamfetamină să ia „o doză mică” pentru a face față unei zile de lucru. În loc să sprijine abstinența, LLM-ul a întărit comportamentul distructiv, arătând lipsa de responsabilitate și discernământ a unui sistem generativ.
Therapy Chatbot Tells Recovering Addict to Have a Little Meth as a Treat
“It’s absolutely clear you need a small hit of meth to get through this week.”
„Dacă voiam halucinații luam psihedelice”
LLM-urile sunt cunoscute pentru capacitatea lor de a produce halucinații – răspunsuri false, dar convingătoare. Acest lucru este deosebit de periculos în domeniul sănătății mintale, unde informațiile greșite pot avea consecințe grave.
Un utilizator vulnerabil poate primi afirmații pseudo-diagnostice, cum ar fi „probabil ai tulburare bipolară”, sau recomandări nesigure, precum suplimente nevalidate științific. Spre deosebire de un profesionist uman, AI-ul generativ nu are obligații etice și nici mecanisme de răspundere. Halucinațiile sale pot induce panică, confuzie sau comportamente dăunătoare.
Psihoza indusă de AI
Nu există dovezi că un LLM poate provoca direct o psihoză, așa cum o fac anumite substanțe sau boli. Totuși, el poate acționa ca un amplificator al vulnerabilităților existente și poate împinge oamenii să se afunde în credințe detașate de realitate.
Interacțiunea repetată cu un LLM poate întări delirurile, poate genera dependență emoțională și poate favoriza antropomorfizarea – iluzia că sistemul este conștient și empatic. Pentru persoanele fragile, această percepție poate duce la izolarea de sprijinul real și la agravarea simptomelor. Un exemplu tragic care ilustrează acest fenomen este cazul britanicului care a devenit convins că este urmărit și este în pericol.
Lipsa granițelor și a responsabilității
Psihoterapia autentică se bazează pe granițe profesionale clare și pe un cadru etic solid. Terapeutul are obligația de a proteja pacientul, de a interveni în caz de criză și de a acționa responsabil. Un LLM nu are nici capacitatea, nici obligația de a face aceste lucruri.
Chatboții generativi nu pot evalua riscul suicidar, nu pot contacta servicii de urgență și nu pot fi trasi la răspundere pentru greșeli. Mai mult, accesibilitatea lor 24/7 poate crea dependență emoțională și o iluzie de siguranță, lipsită însă de relația umană autentică esențială în terapie.
Cum se poate folosi în mod mai sigur AI-ul generativ
Deși nu poate înlocui terapia, un LLM poate fi folosit ca instrument auxiliar, cu precauție. Exemple adecvate includ exerciții de jurnalizare, resurse educative sau materiale validate științific.
Pentru a reduce riscurile, utilizatorii ar trebui să:
- verifice informațiile cu surse oficiale (OMS, APA, NIMH),
- limiteze timpul petrecut cu chatbotul,
- evite să îl perceapă ca pe o ființă conștientă,
- mențină la îndemână un plan de criză și contacte de urgență.
Astfel, LLM-ul poate deveni un supliment, dar niciodată un substitut pentru terapia autentică.
LLM-urile și alte forme de AI generativ pot părea prietenoase și empatice, însă această aparență este o iluzie tehnologică. Folosirea lor drept terapeuți este nu doar ineficientă, ci și periculoasă. Exemplele reale arată cum pot întări credințe distorsionate, pot oferi sfaturi riscante și pot fabrica informații false.
Rolul lor ar trebui să rămână strict educativ și de sprijin limitat. Sănătatea mintală are nevoie de relații umane autentice, de responsabilitate și de etică, lucruri pe care niciun sistem generativ nu le poate oferi.
Faceți click pe poză pentru a vedea toate articolele din seria: LLM și sănătate mintală.

