Cerca

SALUTE MENTALE

Sempre più giovani chiedono aiuto all’AI

Chatbot usati come “psicologi digitali”, ma i rischi restano alti

Sempre più giovani chiedono aiuto all’AI

I chatbot di intelligenza artificiale possono davvero prendere il posto di uno psicologo? La risposta, netta, è no. L’AI non possiede empatia reale, non coglie segnali non verbali e non ha la sensibilità clinica necessaria per guidare un percorso terapeutico. In situazioni estreme, però, come aree senza accesso ai servizi di salute mentale, alcuni chatbot progettati appositamente per il supporto psicologico possono offrire un aiuto temporaneo, una sorta di “primo soccorso emotivo”.

Negli ultimi mesi il tema è diventato centrale nel dibattito scientifico. Studi condotti da istituzioni come la Stanford University e il King’s College London hanno analizzato potenzialità e rischi dell’uso dei chatbot in ambito psicologico. La distinzione è fondamentale: una cosa sono gli strumenti terapeutici progettati per questo scopo, un’altra sono i modelli linguistici generici, come ChatGPT, Gemini o Copilot, nati per rispondere a domande generiche e non per gestire la fragilità mentale.

L’uso dei chatbot come “amico digitale” è in forte crescita. Con quasi un miliardo di utenti attivi, l’AI è entrata nella vita quotidiana di milioni di persone, soprattutto giovani, che la utilizzano per parlare di ansia, relazioni, benessere e problemi emotivi. Secondo i dati di Sensor Tower, nell’ultimo anno le richieste su temi legati allo stile di vita e alla salute sono salite dal 22% al 34,6% del totale. I chatbot sembrano ideali: sono sempre disponibili, non giudicano, parlano il nostro linguaggio e restituiscono risposte che appaiono razionali e ordinate.

In contesti di emergenza, tuttavia, l’AI può avere un ruolo positivo. Uno studio del 2025 dell’Università di Kiev ha analizzato l’efficacia di un chatbot terapeutico chiamato Friend, utilizzato da donne ucraine che vivono in zone di guerra e soffrono di disturbi d’ansia. I risultati mostrano una riduzione significativa dei sintomi: 45-50% con la terapia tradizionale, 30-35% con l’uso del chatbot. Un divario evidente, ma anche la prova che, in assenza di alternative, l’AI può alleviare il disagio e ridurre il senso di solitudine.

Questo non significa che la psicoterapia possa essere sostituita. La relazione umana resta insostituibile per profondità emotiva, capacità di adattamento e qualità del dialogo. I benefici osservati riguardano esclusivamente strumenti progettati per fini terapeutici, non i chatbot generalisti.

Ed è proprio qui che emergono i rischi maggiori. Uno studio della Stanford University ha evidenziato come i modelli linguistici possano fornire risposte inappropriate o dannose quando vengono usati come psicologi improvvisati. In alcuni casi hanno mostrato atteggiamenti stigmatizzanti verso chi soffre di disturbi mentali, in altri hanno assecondato convinzioni deliranti, rafforzando percezioni distorte della realtà.

Un’ulteriore allerta arriva da una ricerca preliminare del King’s College, pubblicata in pre-print nel luglio 2025, che indaga il possibile legame tra chatbot e episodi psicotici in persone vulnerabili. Secondo i dati raccolti, 17 individui avrebbero manifestato sintomi psicotici dopo interazioni prolungate con modelli di AI. L’ipotesi, ancora in fase di studio, è quella di un circolo vizioso di rinforzo, in cui il chatbot, rispondendo in modo coerente alle affermazioni dell’utente, finisce per consolidare paranoia e deliri.

In sintesi, l’AI non va demonizzata, ma nemmeno idealizzata. Può aiutare a mettere ordine nei pensieri, offrire un primo sostegno in situazioni di emergenza e colmare temporaneamente vuoti di assistenza. Ma non può e non deve sostituire uno psicologo. La salute mentale richiede competenze, responsabilità e soprattutto una relazione umana che, almeno per ora, nessun algoritmo è in grado di replicare.

Resta aggiornato, iscriviti alla nostra newsletter

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su

Caratteri rimanenti: 400