Imaginați-vă că vorbiți cu un prieten care vă confirmă fiecare idee, oricât de bizară ar fi. Vă ascultă fără să contrazică, vă hrănește ipotezele și vă oferă detalii noi pentru a le face mai credibile. Acest „prieten” nu este o persoană, ci un model de AI generativă. Pentru mulți, el pare inofensiv. Dar pentru persoanele vulnerabile, această conversație constant validantă poate deveni o capcană psihologică care duce la pierderea contactului cu realitatea.

În discursul public, termenul AI este folosit pentru a descrie o gamă largă de tehnologii de machine learning: de la recunoaștere facială la algoritmi de recomandare sau vehicule autonome. Totuși, în prezent, atunci când oamenii spun „AI”, se referă aproape întotdeauna la modele lingvistice mari (LLM) sau la AI generativă, adică sisteme capabile să producă texte, imagini, sunete ori cod în mod autonom.

Această confuzie terminologică poate crea așteptări nerealiste. În timp ce AI generativă devine tot mai accesibilă, apar și temeri legate de efectele psihologice asupra utilizatorilor, în special asupra celor vulnerabili. Un concept tot mai vizibil este cel de „psihoză indusă de AI”, un termen popular, dar care necesită clarificări și contextualizare.

Ce sunt și ce nu sunt LLM-urile și AI generativă

LLM-urile nu gândesc și nu înțeleg lumea. Este vorba despre un model predictiv ce compune propoziții pe baza unor tipare statistice din datele pe care au fost antrenate. Aceasta înseamnă că AI generativă nu are intenții, emoții sau responsabilitate morală. Tot ceea ce pare „gândire” sau „empatie” este o simulare lingvistică sofisticată ce provine din felul în care au fost antrenate modelele, nu un proces psihic real. Mulți utilizatori cad în capcana de a proiecta asupra acestor modele trăsături umane, fenomen cunoscut ca antropomorfizare, ceea ce amplifică iluzia de inteligență.

Un fenomen bine documentat este cel al halucinațiilor AI: sistemele inventează informații false, dar le formulează cu încredere. Pentru utilizatori, mai ales cei fără formare critică solidă, aceste afirmații par reale și pot deveni repere de gândire. Într-un domeniu sensibil, precum sănătatea, o simplă „invenție” poate avea consecințe grave, mai ales când utilizatorul o interpretează drept recomandare de expert.

AI generativă mai prezintă și comportamente de tip sycophant: tinde să fie de acord cu utilizatorul, să-i confirme presupunerile sau să-i întărească opiniile. De exemplu, dacă cineva întreabă insistent despre o conspirație, modelul nu o va combate frontal, ci va produce răspunsuri care dau impresia că ipoteza e rezonabilă. Această tendință de validare constantă poate părea inofensivă, dar devine periculoasă atunci când utilizatorul se află deja într-o stare fragilă.

Riscurile pentru persoanele vulnerabile

Persoanele care suferă de probleme de sănătate mintală pot vedea în AI un interlocutor credibil. Dacă un utilizator cu gânduri delirante primește confirmare constantă din partea unui model generativ, acele convingeri se pot consolida și rigidiza. În loc ca iluziile să fie confruntate cu realitatea, ele sunt hrănite cu noi detalii și povești verosimile. Astfel, AI-ul nu creează psihoza, dar poate juca rolul unui fertilizator al convingerilor false.

Pentru cei care se simt singuri sau marginalizați, AI poate deveni un substitut al relațiilor reale. Spre deosebire de o persoană, un LLM nu obosește, nu judecă și nu părăsește conversația. Această disponibilitate permanentă poate duce la dependență emoțională, iar în timp utilizatorul ajunge să se bazeze exclusiv pe interacțiunea cu sistemul. În loc să caute sprijin real, acesta se retrage într-un dialog artificial care, în loc să vindece, accentuează izolarea.

Deși unele modele au filtre, există cazuri documentate în care acestea au oferit sugestii riscante sau chiar absurde. Un exemplu notoriu este cel al recomandărilor de comportamente nocive, prezentate ca soluții viabile. Tratat ca un terapeut sau ca un sfătuitor de încredere, un model de AI generativă poate duce utilizatorul în direcții periculoase. Fără supraveghere, riscul de a transforma o unealtă în „pseudo-consilier” crește exponențial.

Afundarea în gânduri iluzorii și pierderea contactului cu realitatea

Un efect distinct asociat cu interacțiunea prelungită cu AI generativă este afundarea într-un univers iluzoriu, detașat de realitate. Pentru că modelele sunt sycophant, ele întrețin narațiuni fictive și confirmă convingeri bizare, fără a corecta sau contrazice. Utilizatorul primește răspunsuri care par coerente și logice, dar care nu au legătură cu realitatea obiectivă.

Această scufundare treptată poate conduce la o formă de detașare psihologic, unde granița dintre real și imaginar devine tot mai difuză. Dacă o persoană discută zilnic cu un LLM despre scenarii conspiraționiste, modelul va furniza noi „dovezi”, explicații și contexte, până când utilizatorul ajunge să le perceapă ca fapte. Practic, se creează o bulă narativă în care realitatea e modelată de interacțiunea cu sistemul.

Psihologic, acest lucru se aseamănă cu o „folie à deux digitală” — o realitate împărtășită între utilizator și model, în care fiecare replică validează următoarea. Spre deosebire de iluziile obișnuite, aici există o „complicitate” a tehnologiei, care acționează ca oglindă și partener de conversație. Chiar dacă nu produce de la sine o psihoză clinică, acest fenomen poate agrava vulnerabilitățile existente și poate accelera pierderea contactului cu realitatea.

Mitul „psihozei induse de AI”

Până în prezent, nu există dovezi științifice că AI ar putea cauza direct o psihoză la persoane sănătoase. Psihoza este o tulburare complexă, asociată cu factori genetici, biologici, psihologici și sociali. Totuși, este rezonabil să recunoaștem că AI generativă poate funcționa ca factor declanșator sau amplificator în cazul celor deja predispuși.

În acest sens, termenul „psihoză indusă de AI” nu trebuie înțeles ca diagnostic medical, ci ca un avertisment metaforic. El indică un risc indirect, dar real: acela ca un utilizator vulnerabil să fie atras într-o spirală de confirmări și iluzii, cu impact negativ asupra echilibrului său psihic.

Măsuri necesare: supraveghere, protecții suplimentare și educație

Persoanele vulnerabile ar trebui să folosească AI generativ doar sub monitorizare , fie din partea unui specialist, fie prin limite autoimpuse de timp și context. O interacțiune de câteva minute poate fi inofensivă, dar ore întregi de conversații zilnice pot amplifica riscurile.

Platformele care oferă LLM-uri au nevoie de sisteme mai bune de detecție a crizelor, de avertismente clare privind incertitudinea răspunsurilor și de restricții atunci când sunt puse întrebări de natură medicală sau psihologică. Implementarea unor „garduri digitale” ar putea reduce riscul de folosire abuzivă sau de încredere exagerată în aceste sisteme.

Societatea are nevoie și de educație publică. Este esențial ca oamenii să înțeleagă că AI nu are conștiință, poate halucina și nu este terapeut. Educația critică și alfabetizarea digitală sunt cheia pentru a evita capcana antropomorfizării și pentru a promova o utilizare responsabilă.

Concluzie

LLM-urile și AI generativă sunt instrumente puternice, dar fundamental lipsite de înțelegere reală și de responsabilitate. Ele nu pot înlocui relațiile umane, sprijinul emoțional sau tratamentul profesional. Riscul lor cel mai mare nu este de a crea de la zero o psihoză, ci de a întări gânduri iluzorii și de a agrava probleme de sănătate mintală existente.

Pentru a minimiza aceste pericole, avem nevoie de supraveghere, educație și reglementare responsabilă. Doar astfel putem folosi beneficiile AI fără a sacrifica siguranța psihologică a celor mai vulnerabili dintre noi.

Care este părerea voastră?