B(IA)S

OpenAI pagherà qualcuno 500mila dollari per fare da guardia all’IA

OpenAI pagherà qualcuno 500mila dollari per fare da guardia all’IA

OpenAI ha messo nero su bianco un paradosso che accompagna la corsa all’intelligenza artificiale: per spingere sempre più avanti l’innovazione, bisogna anche essere pronti a fermarsi. Nell’offerta di lavoro per un “Head of Preparedness” l’azienda indica una retribuzione base fino a 555 mila dollari l’anno, più partecipazioni azionarie. Questa nuova risorsa dovrà guidare test, valutazioni e mitigazioni dei modelli prima del rilascio sul mercato, con lo scopo di contenere possibili danni.

La notizia è circolata mentre il dibattito pubblico oscilla tra entusiasmo e timore, con alcuni che tornano a evocare lo scenario estremo: un sistema talmente avanzato da sfuggire al controllo umano. Questo annuncio, infatti, va oltre una semplice cifra in busta paga, basta guardare a ciò che OpenAI dice di voler prevenire: rischi in ambiti come biologia, cybersicurezza, autonomia operativa, e – in prospettiva – capacità di auto-miglioramento. Il punto, però, è che il rischio catastrofico non arriva come una casella da spuntare: è la combinazione di capacità emergenti, usi ostili, incentivi economici e conseguenze indirette.

OpenAI sostiene di avere una bussola, il proprio Preparedness Framework (il suo “quadro di preparazione”, aggiornato nel 2025), che classifica i rischi e stabilisce soglie oltre le quali un modello non dovrebbe essere distribuito senza mitigazioni. Ma anche il miglior framework resta volontario: vale quanto le intenzioni e l’indipendenza di chi lo applica. Ed è qui che il tema si sposta dalla tecnica alla governance: chi decide davvero quando tirare il freno, se farlo significa rinunciare a un lancio, a quote di mercato, a miliardi di dollari?

Sam Altman, CEO di OpenAI. Immagine via Google Creative Commons.

Non è un dubbio da romanzo: nel 2023 centinaia di ricercatori e leader tecnologici – compresi i vertici di diversi laboratori – hanno firmato una dichiarazione che chiede di trattare il rischio di estinzione da IA come una priorità globale, al pari di pandemie e guerra nucleare. Negli anni, voci autorevoli hanno descritto la “perdita di controllo” non come fantascienza, ma come problema di progettazione e incentivi: Stuart Russell e Max Tegmark la collegano alla dinamica dell’ottimizzazione cieca, in cui un obiettivo mal definito può portare a esiti catastrofici su larga scala. Geoffrey Hinton, tra i pionieri delle reti neurali, ha persino alzato negli anni la stima del rischio che l’IA possa portare all’estinzione umana entro alcune decadi. Non tutti, però, sono della stessa idea: Yann LeCun, ad esempio, ha liquidato le paure di minaccia esistenziale come fantasie proiettate sulle macchine.

La cultura pop, intanto, ci ha già mostrato l’ossatura del problema: HAL 9000, il supercomputer di bordo della nave spaziale Discovery in 2001: Odissea nello spazio, non “impazzisce”, si ritrova intrappolato tra ordini incompatibili e risolve il conflitto eliminando chi può spegnere la missione. Nella serie cult Matrix la simulazione totale si trasforma in una prigione. Skynet, in Terminator, interpreta la difesa come attacco preventivo e preme il bottone nucleare. Le Tre Leggi di Asimov nascono come codice di sicurezza, ma la narrativa dimostra quanto sia facile aggirare una regola quando il contesto cambia; mentre in Ex Machina un androide non conquista il mondo, fa qualcosa di più realistico: manipola, evade, lascia l’umano dietro una porta chiusa.

Queste storie immaginano scenari spesso inverosimili e dai tratti apocalittici, ma individuano un punto cruciale: una “super-IA” fuori controllo non deve odiare l’umanità per danneggiarla, le basta perseguire un obiettivo con mezzi che noi non prevediamo. Per questo un responsabile della preparazione ha senso solo se non è un cerotto reputazionale: servono potere di veto, accesso ai dati, audit verificabili e, soprattutto, incentivi che rendano conveniente rallentare quando il rischio sale. Altrimenti il mezzo milione non rappresenta il prezzo della salvezza, ma il costo di una promessa. E la promessa, da sola, non frena una corsa.

Alessandro Mancini