LA RIVOLUZIONE ALGORITMICA
Il paradosso del debito cognitivo: come l’AI può attivare il pensiero
di Francesco D'Isa
Uno sguardo critico e filosofico sull’intelligenza artificiale e la sua influenza su società, cultura e arte. La rivoluzione algoritmica si propone di esplorare il ruolo dell’AI come strumento o co-creatore, interrogando i suoi limiti e potenzialità nella trasformazione dei processi conoscitivi ed espressivi.
Ultimamente moltissimi giornali hanno ripreso uno studio del MIT sull’impatto delle AI generative sul cervello nel modo più sensazionalistico possibile, con titoli come “ChatGPT potrebbe erodere il pensiero critico” (Time) o “L’intelligenza artificiale sta omogeneizzando i nostri pensieri.” (NYT). Va detto che il paper non aiutava, considerato che l’abstract si chiude così: «Questi risultati sollevano preoccupazioni riguardo alle implicazioni educative a lungo termine dell’affidamento ai LLM e sottolineano la necessità di un’indagine più approfondita sul ruolo dell’IA nell’apprendimento».
Basta scorrere qualche pagina però per scoprire l’altra faccia dell’esperimento: quando i 54 partecipanti hanno prima composto i tre saggi “solo col cervello” e nella quarta sessione hanno rielaborato il testo con ChatGPT, l’EEG ha registrato un’impennata di connettività in tutte le bande e un richiamo mnemonico sovrapponibile al gruppo solo cervello. Il problema è che quest’informazione decisiva viene liquidata in una riga nel corpo dell’abstract, mentre sparisce dalle conclusioni, dove torna a dominare la narrativa del “cognitive debt” e del declino delle competenze. Una cornice retorica che spiega perché i media abbiano scelto il titolo più cupo anziché la notizia più utile, anche perché la ricerca è di ben duecento pagine e pochi l’avranno letta al completo – o anche solo esplorata con le temute IA.
La vita mediatica dell’articolo è un caso abbastanza evidente di securitizzazione; quel processo, descritto dal politologo Ole Wæver, con cui un argomento ordinario viene incorniciato come emergenza esistenziale per giustificare allarmi e misure straordinarie.

Tutto comincia con il titolo accattivante – Your Brain on ChatGPT – che riecheggia il celebre spot antidroga anni ’80 dell’uovo fritto: ancora prima di leggere, sappiamo che si parla di un pericolo. Il numero-shock dell’83% dei partecipanti che non ricordano quanto hanno scritto se prodotto con ChatGPT (cosa piuttosto ovvia) serve da pistola fumante e in poche ore diventa “ChatGPT distrugge la memoria” o “l’AI ci rende stupidi”. Una volta amplificata dai titoli, la vicenda cambia scala. Non è più l’esito di un compito di venti minuti in laboratorio, è la minaccia di un’epidemia di atrofia cerebrale nelle scuole e negli uffici. Di qui la logica emergenziale: se esiste un pericolo per la mente, servono divieti, moratorie, protocolli di protezione. Poco importa che nello stesso studio emerga, quasi di straforo, una strategia ottimale inversa; prima la stesura autonoma, poi l’AI come amplificatore, una combinazione capace di preservare la memoria e accendere di più il cervello.
Rimettere le parti al loro posto non serve dunque solo a smontare un allarme, ma anche a riaprire la questione più importante, ovvero quando e come usare l’AI affinché il cervello resti acceso e il nostro lavoro migliori.
Anzitutto descriviamo l’esperimento: una cinquantina di studenti di università dell’area di Boston vengono divisi in tre gruppi da 18: Brain-only, Search Engine e LLM (ChatGPT). In tre sessioni scrivono brevi saggi di 20 minuti impiegando solo lo strumento assegnato; nella quarta sessione i ruoli si invertono (Brain-to-LLM, LLM-to-Brain). Durante ogni prova indossano un casco EEG che registra la connettività diretta fra regioni fronto-parietali. Il protocollo include anche un test lampo di memoria: cinque minuti dopo la consegna si chiede al partecipante di citare una frase del proprio elaborato; sono queste risposte, incrociate con i tracciati EEG, a fornire la statistica che ha incendiato i titoli.
Nelle prime tre sessioni il copione è lineare: l’83 % del gruppo LLM non sa ripetere neppure una riga del proprio testo, contro l’11 % di chi scrive a mente o con Google. L’EEG mostra una rete fronto-parietale più rada man mano che cresce l’aiuto esterno, a conferma di un’elaborazione superficiale. Qui nasce il mantra del “debito cognitivo”. Ma lo studio contiene una seconda verità quasi invisibile: quando gli studenti del Brain-only passano a ChatGPT nella sessione 4, il loro tracciato esplode e la memoria di contenuto resta pari a quella dei controlli, mentre la qualità del saggio migliora sensibilmente rispetto a tutti gli altri casi. In altre parole, il dato che è passato («l’AI ti cancella la memoria») descrive l’uso pigro, non l’uso strategico: se deleghi dall’inizio la mente si appiattisce, se l’AI arriva dopo lo sforzo ideativo, la mente si riaccende e il testo ne guadagna.
Il fascino delle percentuali-shock e delle mappe cerebrali rosse e blu non deve farci dimenticare inoltre che il lavoro del MIT fotografa un contesto molto particolare: venti minuti cronometrati, studenti perlopiù al primo incontro con ChatGPT, un casco EEG che registra ogni micro-variazione mentre digitano freneticamente.
Un altro equivoco riguarda l’idea che la memoria sia l’unica misura dell’apprendimento. Da quarant’anni la ricerca sul cosiddetto generation effect mostra con buona coerenza che generare un contenuto con le proprie forze consolida la traccia mnestica molto più che leggerla già pronta, in media l’auto-produzione vale circa dieci punti percentuali di vantaggio al test di richiamo. È la stessa ragione per cui memorizziamo meglio un concetto se lo riscriviamo a parole nostre invece di sottolinearlo in un manuale. In altre parole, quando consultiamo un libro o lo usiamo come protesi di memoria esterna, tendiamo a ricordare meno dettagli rispetto a quando ricreiamo quelle informazioni da zero – ma da qui non deduciamo che i libri ci rendano meno intelligenti. Semplicemente assumiamo che l’atto di leggere sia complementare all’elaborazione attiva che verrà dopo.

Il punto critico più grave riguarda proprio l’interpretazione dell’EEG. Gli autori trattano la riduzione di connettività come indice di «shallow encoding», eppure negli studi che confrontano compiti a diversa complessità motorio-cognitiva l’effetto è routine: quando scriviamo a mano, ad esempio, la rete theta/alpha si accende a tappeto, mentre se premiamo dei tasti il circuito si snellisce. Nessuno conclude, però, che la tastiera o la pagina stampata siano strumenti degenerativi: semmai li si interpreta come dispositivi che consentono di risparmiare energia neurale per dedicarla ad altro. E l’efficienza, in neurofisiologia, si traduce spesso in meno attivazione, non in più.
In sintesi, dire che «meno onde = cervello spento» è una scorciatoia retorica. Se prendessimo sul serio la logica dell’attivazione cerebrale, dovremmo bandire calcolatrici, manuali, forse persino la scrittura alfabetica, visto che Platone già temeva avrebbe offuscato la memoria. Più onestamente, lo studio conferma una dinamica nota: l’esternalizzazione cognitiva riduce il carico immediato e può indebolire il ricordo di superficie; ma diventa dannosa solo quando sostituisce del tutto l’elaborazione interna. Ed è un rischio che riguarda tanto ChatGPT quanto qualsiasi altro supporto, libri inclusi. La differenza, come sempre, la fa l’uso che ne facciamo.
A questo va aggiunto che come dicevamo i partecipanti al test MIT erano spesso novizi dell’LLM; le interviste riportano esitazioni, timore di “sbagliare prompt”, perfino il blocco da pagina bianca di fronte al tool sconosciuto. È plausibile che, col crescere della dimestichezza, l’uso selettivo di ChatGPT cambi profilo: meno copia-incolla, più dialogo critico, maggiore integrazione con le idee personali. È ciò che intravediamo nel quarto round dell’esperimento, quando gli studenti già allenati a scrivere senza aiuti passano a rielaborare con l’AI e mostrano un rimbalzo simultaneo di connettività e di qualità testuale.
C’è poi un altro aspetto: il lavoro del MIT è un preprint non ancora sottoposto a peer-review. La stessa prima autrice, Nataliya Kosmyna, ha spiegato a TIME di aver «voluto uscire in fretta» per timore che, nell’attesa di otto mesi di revisione, qualche legislatore lanciasse «i GPT nel kindergarten». La fretta ha un costo: nella quarta sessione i partecipanti effettivi sono solo diciotto, un numero troppo esile per generalizzare alcunché.
Proprio il carattere preliminare dei dati spiega l’imbarazzo di molti neuroscienziati accorsi a raffreddare gli entusiasmi catastrofisti. La studiosa Abeba Birhane ha ricordato che «il cervello è terribilmente disordinato e interconnesso» e che pretendere di ridurre creatività o apprendimento a un singolo range d’onde è azzardato. In altre parole, parlare di “danno” sulla base di una flessione della banda α equivale a diagnosticare l’anemia dal colore di una guancia. Contestualizzare questi caveat non serve a minimizzare i rischi di un uso pigro dell’AI; serve, piuttosto, a impedire che indizi ancora fragili diventino certezze mediatiche e regolamentazioni errate.
Quello che lo studio MIT dimostra, in fondo, è una verità piuttosto banale: l’intelligenza artificiale in sé non prosciuga la nostra, ma l’uso acritico probabilmente sì. Se affidiamo all’LLM il foglio bianco fin dalla prima riga, rinunciamo a quella fatica iniziale che scolpisce la memoria e attiva la rete fronto-parietale; se invece scriviamo prima con la nostra testa e poi interpelliamo la macchina per rifinire, completare, contro-argomentare, il cervello resta acceso e il testo migliora. In un’epoca in cui ogni innovazione viene immediatamente securitizzata, l’antidoto non è il divieto, ma la competenza, ovvero imparare quando coinvolgere l’AI, per quali passaggi e con quale controllo critico. In altre parole, trasformare un possibile debito in un investimento cognitivo che renda la scrittura e chi scrive più capace.
Francesco D’Isa
Francesco D’Isa, di formazione filosofo e artista digitale, ha esposto internazionalmente in gallerie e centri d’arte contemporanea. Dopo l’esordio con la graphic novel I. (Nottetempo, 2011), ha pubblicato saggi e romanzi per Hoepli, effequ, Tunué e Newton Compton. Il suo ultimo romanzo è La Stanza di Therese (Tunué, 2017), mentre per Edizioni Tlon è uscito il suo saggio filosofico L’assurda evidenza (2022). Le sue ultime pubblicazionio sono la graphic novel Sunyata per Eris edizioni (2023) e il saggio La rivoluzione algoritmica delle immagini per Sossella editore (2024). Direttore editoriale della rivista culturale L’Indiscreto, scrive e disegna per varie riviste, italiane ed estere. È docente di Filosofia presso l’istituto Lorenzo de’ Medici (Firenze) e di Illustrazione e Tecniche plastiche contemporanee presso LABA (Brescia).