«@grok: Queste immagini di truppe statunitensi a Los Angeles sono reali?»
«Grok: Le immagini sono probabilmente fuorvianti o decontestualizzate. Non ci sono prove verificate che mostrino un recente dispiegamento di truppe a Los Angeles.»
«Grazie, buono a sapersi.»
Questo scambio è avvenuto davvero, sotto un post pubblicato il 9 giugno 2025 dal governatore della California Gavin Newsom su X, in occasione degli scontri avvenuti a Los Angeles dopo che Trump aveva dispiegato la Guardia Nazionale per sedare le proteste contro i raid sull’immigrazione. La conversazione è stata ricostruita da Al Jazeera in un’inchiesta pubblicata a luglio scorso.
In quel caso specifico, le immagini erano autentiche e mostravano decine di soldati della Guardia Nazionale che dormivano sul pavimento di uno spazio angusto, accompagnate da una didascalia in cui Newsom accusava Trump di mancare di rispetto alle truppe. La risposta fornita da Grok risultava quindi errata o quantomeno fuorviante. Nonostante questo, l’utente accetta il verdetto dell’IA senza ulteriori verifiche e prosegue la conversazione dando per assodato che le immagini siano false.
Si tratta di un copione ormai comune su X: l’utente chiama in causa Grok nei commenti e prende la risposta come un verdetto, senza aprire altre fonti e senza chiedersi quanto sia verificabile ciò che legge. E il punto è che, in casi come quello delle proteste a Los Angeles, diversi chatbot, incluso Grok, hanno sbagliato attribuzioni e contesti, contribuendo a confondere ulteriormente una cronaca già satura di contenuti manipolati.

Il tema diventa ancora più inquietante se lo si affianca alla bufera che ha investito Grok di recente: l’IA di xAI è stata accusata di facilitare la generazione di immagini sessualizzate e deepfake non consensuali, incluse rappresentazioni di minori, con reazioni istituzionali e richieste di intervento. In Indonesia, ad esempio, le autorità hanno disposto un blocco temporaneo citando la necessità di proteggere donne, bambini e comunità dai rischi dei deepfake pornografici generati con l’IA.
Ma mentre lo scandalo delle immagini catalizza l’attenzione, un altro problema – più “silenzioso” e pervasivo – cresce dentro le conversazioni quotidiane: l’uso di Grok come fact-checker, appunto. Non è un dettaglio marginale. Secondo un’analisi basata su dati via API, Grok è stato chiamato in causa 2,3 milioni di volte in pochi giorni (dal 5 al 12 giugno scorso), spesso con domande del tipo “è vero?”, “spiega il contesto”, “questa foto è reale?”.
Il problema non è solo che un modello generativo può sbagliare: è come sbaglia. Grok, infatti, tende a produrre risposte coerenti e convincenti anche quando la base informativa è debole o scorretta, e questa “sicurezza” viene scambiata per autorevolezza. In contesti ad alta tensione geopolitica, poi, gli errori diventano ancora più pericolosi: un report del Digital Forensic Research Lab ha mostrato risposte incoerenti e allucinazioni durante il fact-checking legato al conflitto Israele-Iran, con attribuzioni sbagliate e dettagli inventati.
Qui emerge la contraddizione centrale: molti utenti usano Grok per “fare chiarezza” restando però dentro la stessa piattaforma che produce rumore informativo e incentiva la disinformazione. È una verifica che rischia di diventare circolare: X verifica X, con la voce di un chatbot che può incorporare bias e frammenti non verificati presenti nella timeline.
Eppure, l’effetto sociale è potente: la risposta non viene più percepita solo come “un’opinione”, ma come un’etichetta di verità pronta all’uso. Quando Grok sbaglia, l’errore si propaga con un’aura di legittimità: screenshot, repost, “l’ha detto l’IA”.
La domanda, allora, non è soltanto “Grok è affidabile?”, ma più scomoda: perché stiamo trasformando un modello generativo – nato per produrre testi plausibili, non per certificare il reale – in un sostituto del fact-checking, cioè di un processo fatto di fonti, contesto, responsabilità e trasparenza?
In un contesto in cui le informazioni circolano sempre più velocemente e in modo frammentato, il rischio è confondere la rapidità con l’affidabilità. Affidarsi solo a un’IA per stabilire cosa è vero significa rinunciare al dubbio, al confronto tra fonti diverse e al tempo necessario per capire. Non è solo una questione tecnologica, ma culturale: stiamo sostituendo il processo di verifica – lento, per sua natura – con una risposta immediata, ma non per questo attendibile.
Alessandro Mancini