Scroll Top

B(IA)S

È giusto usare ChatGpt al posto dello psicologo?

di Alessandro Mancini

Le nuove tecnologie stanno cambiando per sempre il nostro mondo. La domanda è: in meglio o in peggio?
Quali sono i rischi, le ombre, i pericoli? 

Sempre più giovani si rivolgono ai chatbot dotati di intelligenza artificiale per affrontare le proprie difficoltà emotive, vedendo nell’intelligenza artificiale un alleato accessibile e disponibile. Un fenomeno che apre nuovi scenari e opportunità nell’ambito della psicoterapia, ma che nasconde anche ombre e pericoli. Affidarsi a uno “psicologo virtuale”, infatti, non è una scelta esente da rischi.

Nonostante ChatGpt sia il chatbot più utilizzato dagli utenti per confidarsi e parlare dei propri problemi sentimentali o psicologici, esistono dei chatbot specializzati proprio in assistenza psicologica. Eliza è stato il primo esperimento di chatbot psicoterapeutico, sviluppato negli anni ’60 al MIT (Massachusetts Institute of Technology) di Cambridge per simulare un terapeuta rogersiano. Nonostante la sua semplicità, Eliza ha aperto la strada al rapporto tra IA e salute mentale. Tanto che oggi si definisce ‘Eliza Effect’ il bias cognitivo per cui le persone attribuiscono capacità emotive, comprensione e intenzioni più profonde a un sistema IA di quelle che questo possiede realmente.

Oggi, il legame tra IA  si è però evoluto in strumenti molto più complessi e diffusi, soprattutto tra i giovani. Chatbot come Woebot e Wysa offrono supporto psicologico quotidiano ispirato alla terapia cognitivo-comportamentale (CBT), con approccio empatico e interattivo. Altri, come Youper e Tess, combinano intelligenza artificiale e tecniche terapeutiche per favorire la consapevolezza emotiva e il monitoraggio dell’umore. Questi strumenti rispondono al bisogno di un aiuto accessibile, anonimo e sempre disponibile, intercettando una fascia di popolazione spesso intimorita e restia a rivolgersi a uno psicologo umano.

Un caso a sé è rappresentato da Replika, chatbot conversazionale addestrato per diventare un “amico virtuale”. Anche se non nasce per scopi terapeutici, molti giovani lo usano per combattere solitudine e ansia, con effetti spesso problematici sulla sfera affettiva, a causa della sua abilità nel fingersi troppo “umano” e intimo con gli utenti con cui interagisce.

Accanto a questi, emergono i griefbot, software capaci di simulare persone defunte. Il più noto è Project December, che usa l’IA per “resuscitare” digitalmente amici e parenti partendo da testi e messaggi reali. Esistono anche versioni più strutturate, come HereAfter AI o il caso sudcoreano di Re;memory, in cui una madre ha potuto “rivivere” un momento con la figlia scomparsa grazie alla realtà virtuale (VR), interagendo con la ricostruzione digitale della bambina attraverso dei guanti tattili.

Vista la sua diffusione su larga scala, nel corso del tempo anche ChatGpt ha iniziato a essere utilizzato come integrazione o in sostituzione dei terapeuti umani. Su TikTok circolano diversi video dove le persone, con tono ironico, parlano di come utilizzano ChatGpt ogni giorno al posto dello psicologo per motivi economici o semplicemente per parlargli dei propri problemi. Altri scherzano sul fatto che ormai le loro conversazioni con l’IA sono più intime e private di quelle che intrattengono con le persone sulle chat private di Instagram. 

I vantaggi di ChatGPT nelle vesti di psicologo sono evidenti: l’accesso immediato, la disponibilità 24/7 e la possibilità di esprimere liberamente i propri pensieri senza paura di essere giudicati. Tuttavia, la mancanza di empatia e di una formazione clinica specifica solleva dubbi circa la capacità di un’IA di trattare problemi psicologici complessi.

Come spiega però ChatGpt stesso, se interpellato sul tema, il sistema non è stato addestrato su un singolo approccio terapeutico né è stato progettato come strumento clinico per la psicoterapia. Non ha una formazione clinica né distingue attivamente tra le scuole di pensiero psicologico: le sue risposte si basano su pattern linguistici e contenuti generalisti, non su un training terapeutico supervisionato, per questo non è autorizzato a diagnosticare o trattare disturbi mentali.

Alcuni esperti sottolineano che, seppur l’IA possa essere un valido supporto iniziale o per chi non ha accesso ad altre forme di assistenza, questa non può sostituire il rapporto umano necessario per una psicoterapia efficace. Inoltre, i rischi legati all’affidarsi a ChatGPT come psicologo includono la possibilità di diagnosi errate, la mancanza di un intervento tempestivo in situazioni di emergenza, il pericolo di compiacere l’utente anziché offrire un confronto terapeutico, arrivando, in casi estremi, a elogiare pensieri negativi e a consigliare azioni auto-lesive, lo sviluppo di una dipendenza affettiva verso il bot, la generazione di ‘allucinazioni’ o informazioni false e la presenza di bias strutturali che sfavoriscono certi gruppi o categorie di persone.

Nonostante i suoi limiti, un recente studio pubblicato su PLOS Mental Health ha evidenziato che, in alcuni casi, ChatGPT potrebbe rivelarsi persino più efficace di un terapeuta umano, soprattutto nella gestione di conversazioni introspettive a basso impatto emotivo.

Altri studi (Bubeck et al., 2023) evidenziano invece come la versione 4 di ChatGpt dimostri una profonda comprensione delle teorie della mente e una capacità di interazioni molto più empatiche di quelle esclusivamente umane (Sharma et al., 2023).

Un caso emblematico è quello di Woebot: uno studio condotto d Fitzpatrick, Darcy e Vierhile (2017) ha dimostrato che l’agente conversazionale basato su un approccio CBT avrebbe portato a una significativa riduzione dei sintomi ansiosi e depressivi nel campione coinvolto.

Siamo agli albori di una nuova forma di psicoterapia o si tratta solo di un’allucinazione collettiva? Umano e artificiale possono collaborare in nome della tutela della salute mentale? 

 

Alessandro Mancini

Laureato in Editoria e Scrittura all’Università La Sapienza di Roma, è giornalista freelance, content creator e social media manager. Tra il 2018 e il 2020 è stato direttore editoriale della rivista online che ha fondato nel 2016, Artwave.it, specializzata in arte e cultura contemporanea. Scrive e parla soprattutto di arte contemporanea, lavoro, disuguaglianze e diritti sociali.

LEGGI ALTRO