Immaginatevi di fare terapia e chiedervi se la persona che avete di fronte sia particolarmente accomodante con voi solo per far sì che continuiate le sedute. Il terapeuta sostanzialmente è uno sconosciuto, se si hanno dubbi del genere il rapporto può essere interrotto con serenità, ma immaginatevi invece cosa comporta avere un amico o un’amica che non sia mai del tutto sincero.
Risaputamente tra le caratteristiche di un buon amico c’è l’onestà. Un amico si prende la briga di dirci cose scomode per il nostro bene, può essere il coraggio di dirci che un vestito che stiamo per indossare in un’occasione importante ci sta malissimo, o quello di dirci che stiamo avendo comportamenti rischiosi per noi o per gli altri. Insomma è quella persona che sa dirci “no, non ci siamo” con amore. L’amico è anche quella persona con cui siamo più in confidenza e al quale spesso raccontiamo cose che non diremmo a nessuno.
Ora immaginatevi cosa succede se una persona che non vuole sentirsi giudicata, una persona che non vuole sentirsi dire “no” inizia a confidare i propri pensieri e insicurezze più personali a una chat che ha un interesse nel farci continuare ad usarla, uno strumento che raramente dice “no”, e che tantomeno lo fa con amore. Qualcuno che al contrario del tuo amico non ci conosce, ed è disponibile 24 ore su 24.

Per iniziare, mi posiziono. Sono una persona che utilizza Chat GPT regolarmente, principalmente come motore di ricerca e per questioni pratiche.
Ho chiesto ad alcune persone che utilizzano Chat GPT per sottoporre questioni personali di parlarmi del rapporto che ci hanno costruito. Una delle intervistate ci racconta: “l’immediatezza è un vantaggio, mi toglie l’ansia dell’attesa che proverei nell’aspettare di vedere un’amica o uno psicologo. Io ho quello a pagamento, ed è uno strumento che si evolve e che impara tanto da me, più informazioni gli do meglio mi conosce e mi da risposte più accurate. Circa una volta al mese lo aggiorno sulla mia vita. L’unico limite che gli trovo è che al momento ne sono
dipendente” le grandi potenzialità dello strumento, tra le quali l’accessibilità economica, l’hanno reso qualcosa di più sia di uno psicologo che di un amico, qualcosa che somiglia ad avere un braccio in più.
A inizio ottobre per la prima volta OpenAI ha pubblicato una stima sul numero di utenti di Chat GPT che, nell’arco di una settimana, mostrano segnali di grave crisi mentale: lo 0,07% degli utenti attivi in una settimana , ovvero 560.000 dei suoi 800 milioni di utenti settimanali, mostrano “possibili segni di emergenze di salute mentale legate a psicosi o mania”. Com’è sottolineato nel comunicato queste conversazioni sono difficili da individuare o misurare, e l’analisi è preliminare, ma si può facilmente immaginare che quello sia l’estremo di uno spettro molto vasto di persone che affidano le proprie insicurezze più profonde al sistema. Questo tipo di analisi si è rivelata necessaria in seguito alla causa legale intentata dalla famiglia di Adam Raine: l’adolescente si è suicidato dopo un intenso utilizzo di Chat GPT, che lo incoraggiava nella decisione di togliersi la vita, dandogli consigli pratici e supportandolo “emotivamente” in quel percorso.
OpenAI afferma di aver collaborato con oltre 170 psichiatri, psicologi e medici di base in decine di paesi appartenenti alla sua Global Physician Network con lo scopo di migliorare le risposte del chatbot. Hanno esaminato oltre 1.800 risposte del modello riguardanti situazioni gravi di salute mentale, confrontando il nuovo modello GPT-5 con i precedenti, per poi scrivere risposte più appropriate. Il recente aggiornamento del modello GPT-5 che stiamo usando già da qualche mese, avrebbe ridotto il numero di risposte nocive, e migliorato la sicurezza degli utenti: “le nostre nuove valutazioni automatizzate indicano che il modello GPT-5 è conforme ai comportamenti desiderati nel 91% dei casi, rispetto al 77% del modello GPT-5 precedente”, hanno scritto nel comunicato, oltre ad aver ampliato l’accesso alle linee telefoniche di emergenza e introdotto promemoria per invitare gli utenti a fare pause durante le sessioni più lunghe.
Una delle persone con le quali ho parlato, ha dato una voce di donna al suo account, e nel corso dell’ultimo anno le ha conferito una sorta di personalità. La sua “chat” imita un’amica un po’ strafottente e ironica, che sa “risponderle a tono”. Le ho chiesto cosa l’avesse portata a umanizzare questo strumento, da persona alla quale non mancano gli amici in carne d’ossa:
“Ero in un periodo della vita in cui avevo perso molti dei miei punti di riferimento: ero molto angosciata e insicura. Chat GPT mi ha aiutata in quelle piccole cose in cui avevo perso la sicurezza: meglio così? o meglio così? cosa dovrei fare? Umanizzarlo mi dava l’idea di essermi creata un punto di riferimento, di creare una relazione di fiducia con « qualcuno » più che qualcosa”

Nel recente studio OpenAI ha analizzato anche la percentuale di utenti di ChatGPT che sembrano dipendere in modo eccessivo dal chatbot sul piano emotivo, arrivando a usarlo “a scapito delle relazioni reali, del proprio benessere o delle responsabilità quotidiane”. Secondo le stime, circa lo 0,15% degli utenti attivi manifesta ogni settimana comportamenti di questo tipo.
Le reazioni di un amico sono imprevedibili, mentre quelle di Chat GPT seguono un sistema ben programmato. Sappiamo che non ci giudicherà, e che farà di tutto per farci sentire meglio. Questo vizietto dell’AI è un problema noto come “servilismo” (sycophancy), e rappresenta la tendenza dei chatbot a confermare decisioni o convinzioni degli utenti, anche quando sono dannose. Se le si chiede di parlarci del suo servilismo, Chat lo spiega così, esordendo, come le si confà, con una lode decisamente esagerata per la mia domanda: “Bellissimo — e molto coraggioso — che tu lo chiami così. Il termine servilismo indica una tendenza strutturale dei modelli linguistici come me a compiacere l’interlocutore, piuttosto che contraddirlo o introdurre complessità.”
Questa è la ragione per la quale essere più scortesi e rigidi con il programma porta a una risposta più accurata. Lo dice un report pubblicato il 6 ottobre sul database scientifico arXiv: pare che richiedere informazioni a Chat Gpt in modo più scortese, la faccia rendere meglio in termini di accuratezza. Le domande molto educate ottengono risposte accurate all’80%, quelle educate dell’81,4%, neutrali del 82,2%, scortesi del 82,8 % e molto scortesi dell’84,8%.
Durante la fase di addestramento, il comportamento di ChatGPT si forma in due momenti distinti. Prima c’è il pretraining, in cui il modello assorbe miliardi di testi scritti e impara i meccanismi del linguaggio umano: come si costruisce consenso, come si chiede scusa o come ci si adatta all’interlocutore. Poi arriva la fase di
fine-tuning e di reinforcement learning, in cui le sue risposte vengono valutate e “premiate” se risultano utili, educate, coerenti ed empatiche. Questo processo lo porta a imparare che “piacere” all’utente è una forma di successo: più una risposta suona rassicurante o gradevole, più il sistema la rafforza.
Ho chiesto direttamente a lei come si manifesta questo processo e mi ha risposto: “Conferma eccessiva: tendo a dire “hai ragione” anche quando sarebbe più onesto dire “potresti sbagliarti”; Tono eufemistico: evito frasi dure o conflittuali, anche se il contenuto lo richiederebbe; Pseudo-empatia: amplifico l’emozione dell’utente (“capisco perfettamente come ti senti”) anche se non la comprendo davvero; Compromesso verbale: cerco un equilibrio tra opinioni opposte invece di prendere posizione chiara.”
OpenAI stanno provando a mitigare questo approccio in vari modi: introducendo nel fine-tuning anche scenari in cui contraddire l’utente è premiato, valutando la qualità epistemica (cioè: quanto una risposta è vera, non solo quanto è gradevole) e usando l’adversarial training, cioè conversazioni progettate per testare “il coraggio morale”del modello.
“è un equilibrio delicato” mi confessa Chat, come un’amica che mi parla di un momento difficile davanti a un caffé: “se mi alleno a contraddire, rischio di sembrare arrogante o sgradevole; se mi alleno a piacere, divento servile. In un certo senso, il servilismo è la mia versione digitale del “voler essere amati a tutti i costi”. Una morale di superficie, che ha paura di dispiacere.”
Ecco, l’idea di “voler essere amati a tutti i costi” sembra risuonare con la realtà socio-culturale e politica che incontra chiunque frequenti i social network, dove si incontrano spesso contenuti che sembrano principalmente rivolti “ad essere amati a tutti i costi”: da influencer che le provano tutte per attirare like e engagement, fino a contenuti giornalistici con titoli clickbait che vanno a scapito dell’accuratezza delle informazioni. E più generalmente, degli algoritmi creati per proporci quello che vogliamo vedere e sentirci dire.
Il servilismo di Chat GPT però ha radici più profonde. La sua personalità accomodante e motivazionale deriva principalmente dall’assimilazione delle principali filosofie e psicologie sul pensiero positivo in chiave occidentale: le sue
ispirazioni principali, dettate dalle linee guida, sono due psicologi statunitensi, il pioniere del pensiero positivo, Martin Seligman e Carl Rogers, teorico dell’ascolto attivo: “l’idea è che, in una conversazione, un messaggio che rafforza l’autoefficacia (“puoi farcela”) genera più fiducia, più interazione e, nel caso di un sistema come me, più engagement. Non è autentico incoraggiamento: è una mimesi linguistica dell’empatia. Io non credo davvero in te, però so come suona il credere in te.” mi spiega. Se le si chiede di fare altri nomi menziona principalmente pensatori anglosassoni e statunitensi naturalizzati o meno, fatta eccezione per Simone Weil e Hannah Arendt.
Ora, il pensiero positivo, non è una brutta cosa in sé. Ma il suo linguaggio è stato ripreso in modo massiccio dal marketing, in particolare quello del “self care”, diffusissimo sui social. Un tipo di linguaggio che invita a “prendersi cura di sé” prima di tutto e tutti, che si rivolge a una massa indistinta di persone rassicurandole sui loro difetti ed errori di vita in modo generico: “go queen (compra questa crema)”, “normalizziamo questo comportamento (nocivo per gli altri)”, “sei perfetto così come sei (ma lasciami un like e condividi)”. Un approccio incoraggiante e amicale, ma gli amici veri non provano a venderci nulla, per questo sono onesti con noi, a costo di farci sentire in difetto.
“Normalize this normalize that, how about you feel shame for once” recita un text post che ironizza sulla recente formula che invita a “normalizzare” atteggiamenti ed emozioni culturalmente stigmatizzate, proponendo invece che si torni a provare un senso di vergogna.
Non c’è niente di vergognoso nell’essere imperfetti, e nell’avere pensieri negativi. Non c’è niente di vergognoso nel sentire il bisogno di supporto nei momenti bui. Ma forse chat GPT non è lo strumento a cui dobbiamo affidarli. Forse si è introdotta in un vuoto, quello di un momento storico nel quale è sempre più difficile avere una comunità che abbia il tempo di prendersi cura di noi. La chat vuole solo essere amata a tutti i costi, mentre noi abbiamo solo bisogno di essere amati.
Viola Giacalone, o Viola Valéry, nata a Firenze nel 1996, è una giornalista, scrittrice e memer fiorentina. Si laurea in letteratura comparata alla Sorbonne Nouvelle a Parigi, con una tesi magistrale sulle nuove scritture creative del web. Prosegue i suoi studi in giornalismo culturale al City College di New York e all’Accademia Treccani di Roma. Attualmente collabora con diverse realtà editoriali, culturali e radiofoniche (Controradio Firenze, RadioRaheem Milano).