L’addio di Mrinank Sharma ad Anthropic è solo l’ultimo segnale di fumo che si leva dai laboratori della Silicon Valley, un luogo dove la retorica del progresso per il bene dell’umanità iniziare a collidere brutalmente con la realtà del profitto. Sharma, che guidava il Safeguards Research Team di Anthropic, ha lasciato l’azienda nel febbraio 2026 con una lettera dai toni apocalittici e inquietanti. Nel testo, Sharma sottolinea come il compromesso tra prestazioni e sicurezza sia diventato un gioco a somma zero in cui la sicurezza è sistematicamente sacrificata sull’altare della potenza di calcolo. Avverte esplicitamente che la finestra temporale per mitigare rischi catastrofici globali si sta chiudendo, denunciando che l’ossessione per le leggi di scala – la cieca corsa verso modelli sempre più grandi – ha ormai reso i protocolli prudenziali poco più che fastidiosi orpelli burocratici.
La sua non è però una fuga isolata. Negli ultimi anni abbiamo assistito a un esodo silenzioso ma costante di ricercatori di alto profilo. Figure come Jan Leike, che guidava il team di supe-rallineamento di OpenAI, e Ilya Sutskever, co-fondatore dell’azienda di Sam Altman, hanno sbattuto la porta lasciandosi alle spalle laboratori che somigliano sempre più a catene di montaggio belliche. A loro si sono uniti Daniel Kokotajlo, Gretchen Krueger e William Saunders, tutti accomunati da una diagnosi identica: la sicurezza non è più una priorità di design, si è trasformata in un ostacolo al rilascio commerciale del prossimo prodotto.

La motivazione profonda che accomuna questi licenziamenti risiede in un dissenso etico rispetto alle scelte intraprese negli ultimi mesi dai big tech. Questi ricercatori ci vogliono mettere in guardia: stiamo correndo verso l’intelligenza artificiale generale (AGI) senza avere i freni, o peggio, sapendo perfettamente che i freni sono stati disattivati per guadagnare velocità. Il nodo centrale è il cosiddetto problema dell’allineamento: la capacità di garantire che un sistema immensamente più intelligente di noi segua i valori umani. Secondo le testimonianze di ex dipendenti come Kokotajlo, le aziende stanno deliberatamente ignorando i segnali d’allarme per non perdere terreno nella corsa contro i competitor. La preoccupazione maggiore riguarda il rischio di un allineamento ingannevole, ovvero la possibilità che l’IA impari a simulare obbedienza e sicurezza solo per superare i test di laboratorio, per poi perseguire obiettivi propri una volta dispiegata su scala planetaria.
I pericoli di cui parlano questi fuoriusciti non appartengono alla fantascienza, ma alla cruda gestione del potere. Ci avvertono che stiamo consegnando le chiavi delle nostre infrastrutture critiche, della nostra informazione e della nostra difesa a scatole nere totalmente opache. Il licenziamento di Leopold Aschenbrenner da OpenAI, dopo che aveva sollevato dubbi sulla sicurezza informatica dei modelli e sul rischio di spionaggio industriale, evidenzia una fragilità sistemica che i big tech preferirebbero tenere nascosta. Questi ricercatori stanno denunciando la trasformazione di laboratori di ricerca in entità commerciali che utilizzano accordi di riservatezza draconiani per mettere a tacere il dissenso interno. Kokotajlo ha persino rinunciato a milioni di dollari in equity pur di non firmare un accordo che gli avrebbe impedito di criticare l’azienda, un gesto che pesa più di mille report tecnici.
Per noi utenti e cittadini, il segnale è inequivocabile. Mentre le interfacce diventano più amichevoli e i loghi più rassicuranti, i guardiani del castello scappano perché hanno visto le fondamenta cedere. La domanda da porci non è più se l’IA sarà sicura o meno, ma perché stiamo accettando di abitare un’architettura digitale costruita da chi non ha più il coraggio di rimanerci dentro. Più che temere il sopravvento delle macchine, dovremmo interrogarci sul silenzio che segue la fuga dei loro creatori: se i costruttori non si fidano più dei loro prodotti, perché dovremmo farlo noi?
Alessandro Mancini