B(IA)S

Da autori a rater: i nuovi operai invisibili dell’AI

Da autori a rater: i nuovi operai invisibili dell’AI

C’è un esercito silenzioso che tiene in vita l’illusione dell’autonomia: è la legione dei “rater”, operatori umani nascosti dietro le quinte dell’ecosistema IA. Sono loro a valutare, filtrare, correggere gli output di modelli come Gemini, seguendo linee guida mutevoli e con ritmi estenuanti, mentre vengono esposti ogni giorno al lato più oscuro del web. In un’inchiesta il Guardian ha raccolto le loro voci: dallo shock per i contenuti da moderare fino agli attacchi di panico causati da condizioni di lavoro tossiche.

Ma chi sono questi rater e qual è il prezzo che pagano? Assunti tramite società di appalto come GlobalLogic, alcuni con titoli fumosi come “writing analyst”, scoprono presto che il loro compito è valutare risposte su salute, scienza, finanza: materie su cui spesso non hanno competenza. Ciascun task deve essere completato entro pochi minuti, con decine di richieste al giorno, e con linee guida che cambiano in corsa, senza chiarezza né supporto psicologico. Le storie parlano di lavoratori che sviluppano disturbi del sonno, traumi emotivi e isolamento. A volte evitano persino di usare strumenti di IA nella vita quotidiana, per non confrontarsi con ciò che producono.

Non serve una lente sociologica per cogliere l’ingiustizia: il diritto negato, oggi, non è delle macchine, è delle persone che fungono da sostegno invisibile all’”intelligenza” che queste rappresentano. Ad oggi, sul piano retorico e strategico, si sta affermando un nuovo dispositivo: il model welfare. Da quando le big tech hanno cominciato a promuovere diritti, codici etici e “cura” delle entità artificiali, Antonio Casilli ha parlato di un depistaggio strategico: «si vuole concedere diritti alle macchine per evitare di concederli ai lavoratori», sostiene il sociologo. Un’operazione simbolica che sposta il focus dalla condizione materiale degli operatori al valore “morale” delle intelligenze. Le aziende dichiarano tutela e responsabilità verso i modelli, mentre negli stabili dove lavorano i rater circolano contratti precari, mancanza di formazione, omertà.

Immagine Via Google Creative Commons.

In risposta a questo paradigma nasce la necessità di un’agenda dal basso che rovesci l’ordine gerarchico tra operatori invisibili e sistemi visibili. L’AI Now Institute, nel suo Landscape Report Artificial Power 2025, invita a una logica di “zero trust” nei confronti delle Bbg tech: non basta fidarsi delle dichiarazioni di responsabilità, occorre controllare strutturalmente le aziende, garantire trasparenza, auditing indipendenti e coinvolgimento reale dei lavoratori. Nel report si chiede che la regolazione non sia pensata solo sulle macchine, ma sulle relazioni di potere che le sorreggono – e che i rater possano organizzarsi, sindacalizzarsi, acquisire contratti chiari, canali di denuncia effettivi.

Il sistema sopra descritto non è però frutto di un incidente, ma il disegno attuale del capitalismo cognitivo. Le IA non sono semplici strumenti, ma infrastrutture che esercitano potere su di noi. Le aziende spingono lo storytelling di un’IA benigna, autonoma, che discrimina o sbaglia solo per limiti tecnici – ma quasi mai si riconosce il lavoro umano che sta dietro, né si riconosce la soggettività di chi lo svolge. È la versione contemporanea del rapporto padrone-operaio: oggi, il padrone ha una forma evanescente (un algoritmo) e l’operaio è flessibile, remoto, non conteggiato.

In fondo, il problema non è capire quanto “intelligenti” possano diventare le macchine, ma quanto disumano rischi di diventare il sistema che gli permette di funzionare. Finché chi alimenta l’AI resterà invisibile, parlare di progresso sarà solo un paradosso. Riconoscere il ruolo dei rater, ascoltarli e garantire loro diritti non è un atto di pietà, ma di trasparenza: significa restituire un volto umano a una tecnologia che, senza di loro, non esisterebbe.

Alessandro Mancini

Laureato in Editoria e Scrittura all’Università La Sapienza di Roma, è giornalista freelance, content creator e social media manager. Tra il 2018 e il 2020 è stato direttore editoriale della rivista online che ha fondato nel 2016, Artwave.it, specializzata in arte e cultura contemporanea. Scrive e parla soprattutto di arte contemporanea, lavoro, disuguaglianze e diritti sociali.