Dal 27 maggio, ogni foto del tuo cane, ogni commento sotto un meme, ogni post nostalgico pubblicato su Facebook o Instagram potrà finire nel calderone dei dati usati per addestrare l’intelligenza artificiale di Meta. Non per migliorare il tuo feed, ma per nutrire i modelli generativi dell’azienda. Non per migliorare il feed o suggerirti amici, ma per nutrire i modelli generativi dell’azienda. Come ChatGPT, ma targato Menlo Park.
La novità è stata comunicata tramite un aggiornamento dell’informativa sulla privacy. A partire da quella data, Meta inizierà a utilizzare i contenuti pubblici degli utenti europei – foto, post, didascalie, commenti – per “sviluppare e migliorare” le sue tecnologie di intelligenza artificiale. Il tutto senza alcun consenso esplicito.
Meta sostiene che questa pratica si basa sul “legittimo interesse”, uno dei principi giuridici previsti dal GDPR. Tuttavia, l’uso dei dati personali per l’addestramento di modelli di IA solleva preoccupazioni significative. Una volta che i dati vengono utilizzati per addestrare un modello, è difficile garantire che possano essere completamente rimossi o che non vengano utilizzati in modi non previsti.
Per esercitare il diritto di opposizione, gli utenti devono compilare un modulo online, fornendo una motivazione per il rifiuto. Il link verrà inviato via o email o tramite notifiche in-app, anche se in realtà è già disponibile sulla pagina ufficiale di supporto di Meta. Il diritto di opposizione si basa sull’articolo 21 del GDPR, ma attenzione: va esercitato prima dell’attivazione del sistema, altrimenti sarà valido solo per i contenuti successivi al 27 maggio.
Sebbene la multinazionale affermi che qualsiasi motivo sarà accettato, la necessità di fornire una spiegazione può scoraggiare molti utenti dal completare la procedura. Inoltre, il modulo non è facilmente accessibile, rendendo il processo meno intuitivo e trasparente.
Meta ha specificato, inoltre, che non utilizzerà i messaggi privati né i contenuti degli account di minori di 18 anni. Tuttavia, tutto ciò che è visibile pubblicamente o condiviso con un pubblico ampio è potenzialmente utilizzabile.
Max Schrems, fondatore della non profit NOYB (None of Your Business), ha criticato duramente l’approccio di Meta, affermando: “Meta sostiene che tutto ciò che è ‘pubblico’ può essere utilizzato per addestrare qualsiasi tipo di IA. Questo include anche post su malattie, orientamento sessuale o opinioni politiche. Le persone non si aspettano che i loro post vengano utilizzati in questo modo.”
La questione solleva interrogativi più ampi sulla trasparenza delle pratiche delle grandi aziende tecnologiche e sulla protezione dei dati personali nell’era dell’intelligenza artificiale. È fondamentale che gli utenti siano adeguatamente informati e mantengano il controllo sui propri dati.
Il 27 maggio è vicino. Meta sembra aver già scelto per noi, ma è importante sapere che esiste un modo per far sentire la nostra voce e dire “No”.
Alessandro Mancini
Laureato in Editoria e Scrittura all’Università La Sapienza di Roma, è giornalista freelance, content creator e social media manager. Tra il 2018 e il 2020 è stato direttore editoriale della rivista online che ha fondato nel 2016, Artwave.it, specializzata in arte e cultura contemporanea. Scrive e parla soprattutto di arte contemporanea, lavoro, disuguaglianze e diritti sociali.