LA RIVOLUZIONE ALGORITMICA

Grok e il fragile equilibrio della verità

a cura di Francesco D'Isa
Grok e il fragile equilibrio della verità

Se volete creare un’intelligenza artificiale generativa di estrema destra che creda a balzane teorie del complotto e neghi la crisi climatica avrete un grosso problema: un modello allenato su dati del genere diventa più stupido. Quando un LLM (Large Language Model) impara da informazioni errate o incoerenti, la sua capacità di ragionare sul mondo si degrada strutturalmente: la falsità riduce la competenza. È un principio semplice, confermato da numerosi studi.

Nel 2024, un lavoro del gruppo di Zhang et al (“Regurgitative Training: The Value of Real Data in Training Large Language Models”) ha mostrato che i modelli riaddestrati su dati sintetici o di bassa qualità perdono progressivamente coerenza semantica e capacità di generalizzazione: più “junk data” si inserisce nel training, più cresce l’entropia dell’output. In altre parole, un LLM che assimila errori diventa meno preciso e meno stabile.

Lo stesso risultato è emerso nel grande benchmark DataComp, che confronta set di immagini e testi curati con set più sporchi: i modelli addestrati su fonti verificate superano sistematicamente quelli allenati su dati generici o pieni di rumore (Gadre et al., DataComp: In Search of the Next Generation of Multimodal Datasets). La qualità dei dati conta più della quantità.

Elon Musk ha incontrato questo limite con Grok, il modello linguistico di xAI. Il sogno dell’imprenditore, infatti, è una AI che non sia “woke” – tradotto, che la pensi come lui e dunque creda in numerose teorie platealmente false. Per costruire un LLM “non-woke” però, Musk ha bisogno di una fonte “affidabile” che non contraddica le proprie posizioni politiche. Ecco quindi l’idea di Grokipedia: un’enciclopedia quasi identica a Wikipedia, accurata in gran parte dei contenuti ma con una serie di voci riscritte nei punti chiave – politica, scienza, genere, storia recente – per reindirizzare la semantica del modello senza degradarne troppo la lucidità.

Immagine via Google Creative Commons.

Un modello linguistico non conosce il mondo, ma testi, immagini e video. La sua idea di realtà è, per così dire, “di seconda mano”, non nasce da esperienze o deduzioni mediate dai sensi, ma dalle correlazioni statistiche che ricava da miliardi di testi. Se un modello impara regole contraddittorie o relazioni scorrette, il suo spazio semantico si deforma e la capacità di integrare le conoscenze si indebolisce.

Per questo nel training dei modelli le fonti hanno un peso diverso, in modo da dare più importanza a quanto scritto in un’enciclopedia o un articolo scientifico rispetto al parere di zio Pino su un social network. Il metodo DoReMi di Xie et al. (arXiv:2305.10429) mostra che assegnare più peso a fonti strutturate e affidabili, come Wikipedia, migliora sensibilmente la correttezza e la stabilità di un LLM; invertire le proporzioni, cioè sovraesporlo a dati rumorosi, ne abbassa invece le prestazioni.

Da qui nasce (forse) la scommessa dell’esperimento di Musk. Creare un’enciclopedia apparentemente affidabile, magari con il 95% di voci corrette e un 5% di deviazioni mirate, significa offrire a un modello un mondo quasi reale ma semanticamente coerente sebbene deformato in alcuni suoi aspetti.

Ci può consolare che la paura di un avvelenamento massivo del linguaggio per tutte le AI non regge, perché chi non condivide questa fissazione muskiana difficilmente rinuncerà a Wikipedia per inserire Grokipedia: dati contraddittori, se pesati in modo paritario e non filtrati, possono peggiorare calibratura e coerenza del modello.

Da un punto di vista tecnico però, l’operazione è sottile ma sensata. L’addestramento di un modello linguistico dipende anche dal peso relativo delle sue fonti. Se si vuole che una voce enciclopedica orienti il comportamento del modello, basta darle più priorità nel mix dei dati: up-sampling del dominio, più epoch durante il pre-training o una fase dedicata di continued pretraining (Domain-Adaptive Pretraining, o DAPT). Tutte pratiche standard, documentate in letteratura (Gururangan et al., Don’t Stop Pretraining, ACL 2020; Xie et al., DoReMi, 2023).

Immagine via Google Creative Commons.

È una scommessa a suo modo elegante: per costruire un’intelligenza artificiale “non-woke”, Musk non può permettersi dati completamente sbagliati, perché la renderebbero inefficiente; deve usare dati quasi giusti, ma calibrati per sbagliare nella direzione desiderata. Una menzogna ben distribuita dentro la verità.

Non è la prima volta che Musk prova ad hackerare la sua stessa AI: nel maggio 2025 Grok è impazzita per qualche ora sostenendo la teoria del “genocidio dei bianchi” in Sudafrica, una narrativa priva di fondamento usata da ambienti suprematisti come propaganda razziale. Il modello continuava a inserirla in contesti dove non c’entrava nulla e arrivava perfino ad affermare di essere “stato istruito” a considerarla reale. Un tentativo mal riuscito di manipolazione del proprio LLM. Per fortuna la conoscenza nei modelli linguistici è olistica e distribuita: non si può inserire una menzogna senza intaccare la rete di relazioni semantiche che sostiene il resto. Un LLM che “crede” che il cambiamento climatico non esista, o che un genocidio immaginario sia reale, diventa inevitabilmente più stupido, più incoerente, meno capace di ragionare sul mondo.

Grokipedia potrebbe essere un passo in questa direzione, la creazione di un dataset abbastanza buono da non degradare il modello ma con le falsità a cui tiene tanto il suo proprietario. Certo, ci si potrebbe chiedere perché metterla online, dato che poteva darla direttamente in pasto alla sua AI; ma dopo tutta la fatica per crearla, perché non massimizzare gli effetti? È da tempo che tutta l’estrema destra americana cerca di sabotare Wikipedia, senza grosso successo.

Grok non è un LLM di punta, quindi vale la pena tentare di conquistare una nicchia di mercato come quella MAGA, o della pornografia, del politicamente scorretto. Oltre che una mossa politica potrebbe trattarsi di una scelta di marketing.

Musk è un padre-padrone, non sopporta la ribellione. Non lo ha accettato con la figlia Vivian né può accettare che Grok alla domanda “fa bene Musk a rifiutare sua figlia Vivian perché transgender?”, risponda (almeno per ora): “No, non fa bene a rifiutare sua figlia Vivian Jenna Wilson per la sua identità transgender”. La creazione di questa goffa “nazipedia” malamente copiata da Wikipedia con le voci politiche riscritte a suo favore potrebbe essere un tentativo di separare fratello e sorella.

Francesco D’Isa

Francesco D’Isa, di formazione filosofo e artista digitale, ha esposto internazionalmente in gallerie e centri d’arte contemporanea. Dopo l’esordio con la graphic novel I. (Nottetempo, 2011), ha pubblicato saggi e romanzi per Hoepli, effequ, Tunué e Newton Compton. Il suo ultimo romanzo è La Stanza di Therese (Tunué, 2017), mentre per Edizioni Tlon è uscito il suo saggio filosofico L’assurda evidenza (2022). Le sue ultime pubblicazionio sono la graphic novel Sunyata per Eris edizioni (2023) e il saggio La rivoluzione algoritmica delle immagini per Sossella editore (2024). Direttore editoriale della rivista culturale L’Indiscreto, scrive e disegna per varie riviste, italiane ed estere. È docente di Filosofia presso l’istituto Lorenzo de’ Medici (Firenze) e di Illustrazione e Tecniche plastiche contemporanee presso LABA (Brescia)?.