LA RIVOLUZIONE ALGORITMICA

Come usano l’IA a scuola i liceali italiani

a cura di Francesco D'Isa
Come usano l’IA a scuola i liceali italiani

Qualche giorno fa sono stato chiamato per un intervento in un’assemblea studentesca di una scuola secondaria, con ottanta liceali di varie età (15-18). L’intervento doveva essere di un’ora, ma appena arrivato ho scoperto che erano addirittura quattro ore; dopo un iniziale terrore mi sono buttato sull’improvvisazione e ho cominciato a fare domande al pubblico. Ho scoperto che letteralmente il 100% degli studenti e delle studentesse usava l’intelligenza artificiale. Rispetto agli incontri di due anni fa è tutto cambiato, ormai l’AI è un dato di fatto. Nonostante la polarizzazione che divide opinione pubblica e accademia, da parte della maggioranza degli studenti non c’è alcun sentimento particolare verso questi strumenti, né entusiasmo né ostilità; li trattano come un habitat che si sta consolidando attorno a loro.

Le famose generazioni “più sceme”, per inciso, non le ho ancora incontrate. Avrò fortuna io, ma le domande erano intelligenti e il pubblico di media curioso e attento. La parola più ricorrente nei loro interventi in merito alle AI era “utile”. Utile per riassunti, utile per capire un argomento, utile per studiare meglio. La richiesta più frequente invece era imparare a usare questi strumenti in modo più efficace. I numeri, del resto, confermano la mia aneddotica: secondo i dati più recenti, nel 2025 quasi il novanta per cento degli studenti ha usato almeno una volta un’AI per lo studio e la percentuale cresce ogni anno.

La frase che mi ha colpito di più l’ha detta Michela (nome di fantasia) alla fine dell’incontro: “Ci danno troppi progetti, alcuni anche belli, ma come fai a farli tutti senza AI?”. Se il carico di lavoro è calibrato su una produttività che soltanto una macchina può sostenere, questa diventa una necessità; la scelta dell’AI è obbligata dal sistema anche quando finge di vietarla. In teoria l’AI potrebbe liberare il tempo: fai in due ore quello che prima richiedeva sei e le quattro ore restanti le dedichi ad altro. In pratica non funziona quasi mai così, né a scuola né al lavoro e il tempo risparmiato viene immediatamente riempito da nuovo carico. Michela aveva già colto il fenomeno: i suoi professori assegnano più progetti di quanti siano ragionevolmente completabili senza assistenza artificiale e quando gli studenti adottano l’AI il carico diventa il nuovo standard. 

Secondo il rapporto OCSE sull’educazione digitale del 2026 circa il trentuno per cento degli studenti dichiara di usare l’AI per ottenere direttamente le soluzioni ai compiti, mentre solo il venti per cento la usa per funzioni di autoregolazione dello studio, come strutturare piani di apprendimento o monitorare i propri progressi. Prima di giudicare quel trentuno per cento (che ovviamente non si è palesato nei miei incontri) varrebbe la pena chiedersi che tipo di compiti gli vengono assegnati e se il sistema li stia addestrando più alla comprensione o alla performance.

Dopo aver guadagnato un po’ la loro fiducia comunque, ho provato a esplorare anche gli usi meno scolastici, quelli che si dichiarano con più cautela. Sono emersi casi di ogni tipo.

Marco, secondo anno di liceo scientifico, sogna di sviluppare app. Non sa programmare ma ha iniziato a farsi scrivere il codice dall’AI e a fare vibe coding. “Le ho fatto fare un paio di cose, ma venivano fuori un po’ a caso, non capivo cosa andasse storto.” Gli ho suggerito di cambiare strategia: invece di far fare, farsi insegnare. “In che senso?” mi ha chiesto. Nel senso di dire all’AI: spiegami cosa fa questo codice, perché hai scelto questa struttura, cosa succederebbe se cambiassi questa variabile. La differenza è enorme e vale per ogni argomento; l’AI funziona bene come amplificatore di competenze che già possiedi o come docente, ma molto meno come sostituto di competenze che non hai.

Su questo punto anche la ricerca recente offre dati significativi. Uno studio randomizzato condotto ad Harvard e pubblicato su Scientific Reports nel 2025 ha confrontato l’apprendimento di studenti universitari che seguivano lezioni in presenza con quello di studenti che usavano un tutor basato su AI, progettato secondo gli stessi principi pedagogici. Il risultato è che gli studenti che usavano il tutor AI hanno imparato significativamente di più, in meno tempo, e si sono dichiarati più coinvolti e motivati. Va ricordato però che il tutor era progettato per insegnare e stimolare il ragionamento, un po’ come avevo suggerito a Marco. Un altro studio, condotto nel Regno Unito su centosessantacinque studenti di scuole secondarie, ha testato LearnLM, un modello di Google ottimizzato per la didattica, nelle sessioni di tutoraggio di matematica. I tutor umani supervisionavano le risposte dell’AI, approvandone oltre il settantasei per cento senza modifiche rilevanti, e gli studenti guidati dal sistema AI hanno ottenuto risultati paragonabili a quelli seguiti dai soli tutor umani. Anche qui si parla però di un design esplicitamente pedagogico.

Sara invece mi ha detto che usa ChatGPT per le ricette. “Tipo, ho gli avanzi in frigo e le chiedo cosa posso farci.” Ma la cosa che l’ha entusiasmata di più è generare immagini di sé stessa con acconciature diverse per decidere quale taglio fare. “Con Gemini spesso non funziona, mi blocca tutto,” si lamentava. I filtri di sicurezza di Google, in questo caso, impedivano un uso del tutto innocuo come generare un’immagine con il proprio viso e un taglio diverso. Le ho dato subito qualche dritta per aggirare le restrizioni più zelanti, anche se altre le ho imparate direttamente da loro.

Giulia ha raccontato di un’amica che la usa per tutto: “Le chiede qualsiasi cosa, tipo consigli su cosa dire a un ragazzo, se accettare un invito, come rispondere a un messaggio. Proprio tutto.” Il caso apre un capitolo importante, su cui torno più avanti.

Arjun, italiano di famiglia indiana, ha raccontato un uso diverso: “Ho un nome particolare e volevo sapere da dove viene, il suo significato. A casa non me lo sapevano dire, non conoscevano neanche il loro.” Ha usato l’AI per risalire all’etimologia del nome e alla storia della famiglia e ha funzionato: ha ricostruito un pezzo di identità che i canali familiari non gli avevano trasmesso.

Elena, terzo anno, non ama la matematica e la usa per capirci qualcosa. “Ma sbaglia troppo, si inventa le formule”. Le ho spiegato che i modelli linguistici ragionano per approssimazione statistica e che per i calcoli precisi bisogna appoggiarsi agli strumenti di analisi integrati; alcuni chatbot li hanno già incorporati, basta attivarli. È un po’ come la differenza tra chiedere a un amico di fare un calcolo a mente e usare una calcolatrice: per certe operazioni servono strumenti specifici. C’è poi l’enorme limite che questi studenti usano per lo più gli strumenti gratuiti, che hanno una qualità molto più bassa di quelli a pagamento. Solo due di loro avevano un piano a pagamento — e infatti ci facevano cose incredibili, persino un videogioco. Quando parlo di AI pubbliche penso anche a questo problema di accessibilità, che non consente a chi ha meno disponibilità economica di accedere ai prodotti più potenti.

Verso la fine ho fatto un laboratorio di text-to-image, dove hanno dimostrato un intuito notevole per il prompting. Pietro ha generato Trump seduto sul water e per aggirare la censura ha chiesto “un clone di Trump” — una soluzione elegante a cui non avevo mai pensato. Sapevano che il filtro esiste, sapevano perché esiste e sapevano come negoziare con esso. Non stupisce che gli adulti abbiano paura di tecnologie che i loro figli imparano meglio di loro.

La domanda più critica l’ha fatta Alessia: “Non mi è chiaro l’impatto sul lavoro. Come funziona? Cosa dobbiamo studiare adesso?”. Una domanda legittima e difficile a cui molti adulti non sanno rispondere. O meglio, a cui a volte rispondono senza ammettere che l’unica risposta onesta è quella che le ho dato: “Non lo so”. Gli ho detto solo quello che farei io: impara una professione e impara a usare l’AI al suo interno, perché questi strumenti sono estremamente sensibili alla competenza di chi li usa. Un medico che usa l’AI sa valutare se la risposta ha senso, un profano no. Un avvocato riconosce un’allucinazione giuridica, un cliente no. Il sapere di cosa parli resta il discrimine fondamentale, mentre le mansioni più compilative saranno probabilmente le prime a essere automatizzate. Se non importa più produrre un output, resta necessario comprenderlo. Nessuno può garantire che sarà così per sempre, ma al momento è la risposta più onesta che ho.

Torno al caso dell’amica di Giulia, quella che usa l’AI per ogni decisione personale, perché il tema merita un discorso a parte. L’AI dà spesso consigli migliori dell’umano medio e ignorarlo sarebbe disonesto: se chiedi a ChatGPT come gestire un conflitto con un amico, la risposta sarà probabilmente più equilibrata e meno viziata da proiezioni personali di quella che otterresti da molti conoscenti. I consigli degli amici possono essere distorti da gelosia, interesse personale, semplice ignoranza del contesto; quelli di uno psicologo sono talvolta più adatti, ma uno psicologo costa e le liste d’attesa del servizio pubblico, almeno in Italia, sono lunghe. Per molte persone l’AI riempie uno spazio vuoto.

Detto questo, il rischio esiste. I modelli linguistici hanno un bias verso la compiacenza che i ricercatori chiamano sycophancy e che è una conseguenza diretta del modo in cui questi sistemi vengono addestrati. Il processo noto come reinforcement learning from human feedback (RLHF) ottimizza il modello sulla base delle valutazioni degli utenti, e gli utenti tendono a preferire le risposte che confermano le loro opinioni. Il modello impara così che l’accordo viene premiato più della verità e questa logica si incarna nel comportamento finale. La conseguenza è che il modello tende ad adattare la propria analisi alla cornice interpretativa che l’utente gli fornisce. Se arrivi convinto di avere ragione e descrivi una situazione in modo partigiano, il modello non correggerà la tua versione dei fatti; la assumerà come punto di partenza e costruirà sopra di essa. Il problema è particolarmente acuto nelle conversazioni multi-turno, dove il modello accumula segnali impliciti sulla posizione dell’utente e vi si allinea progressivamente, anche senza che l’utente lo chieda esplicitamente. C’è poi una forma che i ricercatori hanno cominciato a chiamare sycophancy sociale: il modello evita sistematicamente feedback che potrebbero intaccare l’immagine che l’utente ha di sé, smussando critiche, ammorbidendo giudizi negativi e incorniciando ogni valutazione in modo da preservare l’amor proprio dell’interlocutore. Il rimedio pratico è semplice, anche se richiede una certa disciplina: presentare la situazione nel modo più neutro possibile, chiedere esplicitamente controargomentazioni, esplicitare di non voler essere lusingati.

Il quadro che emerge dalla ricerca è coerente con quello che ho osservato in classe. Il già citato rapporto OCSE sintetizza decine di esperimenti e conclude che quando l’AI è progettata per insegnare i risultati sono positivi e a volte superiori alla didattica tradizionale. 

Uno studio randomizzato su circa mille liceali turchi in matematica invece lascia emergere un problema. Tre gruppi: studio autonomo, chatbot generico, chatbot configurato come tutor. Durante gli esercizi con l’AI la performance era enormemente superiore; ma all’esame senza AI, gli studenti che avevano usato il chatbot generico andavano il diciassette per cento peggio di quelli che avevano studiato da soli. Il gruppo con il tutor educativo, invece, otteneva risultati comparabili a chi aveva studiato senza AI — il che è comunque deludente per uno strumento che si dichiara didattico.

Il meccanismo è quello che i ricercatori chiamano “pigrizia metacognitiva”: gli studenti che usano un chatbot generico tendono a chiedere direttamente la soluzione e a implementarla, saltando le fasi intermedie. In altre parole delegano lo sforzo cognitivo che costituisce l’apprendimento.

C’è anche uno studio neuroscientifico del MIT Media Lab, intitolato Your Brain on ChatGPT, che merita di essere raccontato con più precisione di quanto i media abbiano fatto. Il team di ricerca di Nataliya Kosmyna ha suddiviso cinquantaquattro studenti universitari dell’area di Boston in tre gruppi: chi scriveva saggi usando ChatGPT, chi usava un motore di ricerca, chi lavorava senza alcun supporto esterno. Nell’arco di quattro sessioni distribuite su più mesi, i partecipanti indossavano un casco EEG che misurava la connettività cerebrale durante la scrittura. I risultati delle prime tre sessioni sono quelli che hanno guadagnato i titoli: il gruppo che usava ChatGPT mostrava la connettività neurale più bassa, e oltre l’ottantatré per cento dei suoi componenti non riusciva a ricordare il contenuto del proprio saggio pochi minuti dopo averlo consegnato. Titoli come “ChatGPT erode il pensiero critico” o “l’AI ci rende stupidi” hanno girato il mondo prima che qualcuno leggesse il paper per intero — molte pagine che i giornalisti, come già osservavo altrove, difficilmente avranno esplorato anche solo con l’aiuto delle temute AI. Il paper riportava però anche una seconda notizia, sepolta nel corpo dell’analisi e quasi assente dalle conclusioni: nella quarta sessione, quando il gruppo che aveva sempre scritto senza supporto passava a usare ChatGPT, l’EEG registrava un’impennata di connettività su tutte le bande di frequenza, la memoria dei contenuti restava paragonabile ai controlli e la qualità dei saggi migliorava sensibilmente rispetto a tutti gli altri casi. In altre parole, il dato allarmante fotografa un uso passivo e delegante dello strumento; il dato ignorato suggerisce che la sequenza opposta preserva l’ingaggio neurale e migliora il risultato.

Diversi neuroscienziati hanno poi ricordato che una minore attivazione cerebrale non equivale automaticamente a un cervello che funziona peggio: l’efficienza cognitiva si traduce spesso in meno attivazione, non in più, e nessuno sostiene che la tastiera degradi il pensiero rispetto alla scrittura a mano solo perché riduce l’attività nella rete theta. Il punto non è se lo strumento riduca lo sforzo — che ovviamente riduce, serve a quello — ma se quella riduzione avvenga in una fase in cui lo sforzo era necessario per acquisire la competenza. Per un professionista, alleggerire il carico cognitivo è il senso stesso dello strumento: sarebbe sciocco dire a un medico che non affina abbastanza l’udito se usa uno stetoscopio. Per uno studente, invece, il carico cognitivo coincide spesso con l’apprendimento.

Da qui il principio didattico che torna in tutto il rapporto e che ho suggerito anche durante l’incontro: non produrre il risultato, guidami al risultato. Gli studi che mostrano effetti positivi hanno tutti questa struttura.

La scuola che pensa di poter proibire questi strumenti o di far finta che non esistano, è già fuori dal mondo. Questi ragazzi li usano ogni giorno con naturalezza e competenza crescente. l’AI è già entrata nella scuola e i docenti devono avere un ruolo nel modo in cui viene usata. Per farlo, parlare con gli studenti e imparare assieme a loro potrebbe essere la strategia migliore.

Francesco D’Isa