Quando pensiamo alla sorveglianza, tendiamo ancora a immaginarci il classico scenario da thriller poliziesco anni Settanta: intercettazioni telefoniche, mandati di perquisizione, telecamere cittadine, pedinamenti, informatori col trench rannicchiati negli angoli bui dei parcheggi sotterranei. Sta diventando piuttosto evidente che le cose non stiano più così, che siano decisamente più scalabili e meno visibili. Che vuol dire? Vuol dire che se prima la sorveglianza era la somma di operazioni mirate, costosette e circoscritte a pochi individui, ora è un vero e proprio sistema che può estendersi senza troppi sforzi a milioni di persone, perlopiù inconsapevoli. I dati vengono raccolti in modo continuo e automatico, analizzati da algoritmi silenziosi e archiviati in infrastrutture già operative, perché incorporate in strutture tecnologiche che usiamo tutti i giorni (e su questo ci torniamo). Per chiarire: passare da dieci a dieci milioni di soggetti non cambia la natura del meccanismo, solo il suo bacino. È una sorveglianza meno scenografica, ma infinitamente più meschina.
Nella pratica, da anni siamo immersi fin sopra ai capelli in quella che viene definita economia dell’attenzione, ovvero un modello economico in cui la risorsa più preziosa non sono il denaro o l’informazione, ma l’attenzione delle persone – quel famoso “se non stai pagando per un prodotto, allora il prodotto sei tu” del documentario del 2020 The Social Dilemma. Ma ecco il plot twist: gli stessi strumenti nati per sostenere l’economia dell’attenzione (advertising technology, data broker, geolocalizzazioni, piattaforme di data-fusion, e compagnia bella) vengono utilizzati in modo sempre più sistematico non soltanto da chi ci vuole vendere qualcosa ma anche dalle forze dell’ordine e dalle agenzie di frontiera, con tanto di potenziamento a cura di intelligenze artificiali. Notare bene: l’IA non genera nuovi dati, rende quelli esistenti analizzabili in tempo reale su larga scala, e individua pattern invisibili all’occhio umano.
Per capire il funzionamento di questa nuova sorveglianza “a mercato”, organizzata e alimentata da attori e infrastrutture commerciali anziché direttamente dallo Stato, serve partire dai meccanismi che la rendono possibile, dalle tecnologie che la accelerano e dalle reazioni regolatorie che stanno emergendo negli Stati Uniti e in Europa. Mantenendo però fermo un punto: il confine tra dati “commerciali” e dati “di polizia” è labile in modo allarmante.
Partiamo dall’evidenza. Molto recentemente, negli Stati Uniti di Donald Trump questo paradigma ha acquisito un laboratorio naturale: l’ICE (Immigration and Customs Enforcement) e l’ecosistema DHS/CBP (Departement of Homeland Security/Customs and Border Protection). Due organi federali americani che chiedono esplicitamente alle grandi aziende tech di condividere con loro “Big Data e Ad Tech” da destinare a investigazioni e attività operative. Parliamo di una vera e propria scorciatoia di dati comprati. E quello che serve non è più un mandato (ufficiale e legale), ma un fornitore. In quest’ottica, un concetto chiave emerso nel dibattito americano recente è quello del CAI, ovvero Commercially Acquired Information: informazioni personali acquistate sul mercato, che possono includere dati di localizzazione, profili di identità, utilizzo di app, registri di viaggio, telemetrie e via dicendo. In assenza di un divieto chiaro – che al momento non c’è, e con Trump poi figuriamoci – o di una giurisprudenza univoca, le forze dell’ordine non ottengono più un dato “perquisendo”, ma acquistandolo. E sì, suona come la trama di un disaster movie ambientato nel Duemila-mai, ma è ahimè il quotidiano di un sacco di gente.

Questo agghiacciante mercato di dati crea una zona grigia tra garanzie costituzionali e procurement, cioè l’insieme di quelle procedure con cui un ente pubblico o privato acquista beni e servizi. È qui che arriva l’assist dell’IA, che fonde dataset eterogenei e genera lead (che nel marketing vuol dire cliente potenziale, mentre qui significa pista da seguire): ciò che prima richiedeva settimane di analisi manuale, ora può essere industrializzato in pochi istanti.
L’esempio più intuitivo in questo senso è quello della localizzazione. In un’inchiesta recente di 404 Media, l’ICE risulta aver acquistato l’accesso a un tool aggiornato quotidianamente con miliardi di pin di posizione, provenienti da centinaia di milioni di telefoni. Questo cambia la natura stessa della sorveglianza: non segui più qualcuno già sospetto, esplori un oceano di tracce e poi decidi chi è potenzialmente sospettabile. E l’IA fa il resto, velocizzando vertiginosamente la clusterizzazione delle nostre abitudini, la stima di una routine (tipo casa/lavoro), la deduzione di relazioni e contatti. Il delicato problema alla base è il succo del caso Carpenter vs. Stati Uniti del 2018, quando la Corte Suprema americana sentenziò che l’accesso ai dati storici di localizzazione di una persona ne rivela “the privacies of life”, letteralmente – e in modo quasi poetico – le riservatezze della vita. È ciò che la privacy tradizionale temeva di più: non il singolo scatto o la posizione una tantum, ma la ricostruzione di una vita intera.
E se pensavate che la posizione del vostro telefono messa in mano a chissà chi fosse già abbastanza seccante, vi farà sicuramente piacere sapere che un’inchiesta del 2025 di Wired ha dimostrato che Airlines Reporting Corporation, un data broker legato alle compagnie aeree (uno dei tanti, ça va sans dire), ha venduto a DHS/CBP (di nuovo: Departement of Homeland Security e Customs and Border Protection) accesso a dettagli su decine di voli aerei, con clausole che limitavano perfino la trasparenza sulla fonte dei dati stessi. EFF, la principale organizzazione senza scopo di lucro impegnata nella difesa delle libertà civili nel mondo digitale, ha ripreso poi il caso per far sapere alle persone che tutto, ma proprio tutto, può diventare materia per investigazioni e controlli, bypassando la percezione pubblica su cosa implichi realmente un concetto per noi banale come “prenotare un volo”.
Se come me speravate che fosse finita qua, devo deludervi. Vero che vi piacciono tanto queste auto ipertecnologiche di oggi che sembrano più un simulatore di volo che altro? Tecnicamente sono auto connesse, veri e propri dispositivi IoT (cioè Internet of Things, oggetti fisici connessi a internet, tipo il frigo intelligente), che raccolgono e trasmettono enormi quantità di dati. Oltre alla vostra posizione in tempo reale e allo storico dei vostri spostamenti, danno a chi dai piani alti la desidera una bella panoramica sui vostri orari, sul modo in cui guidate, sui dispositivi che collegate al Bluetooth, sulla vostra voce (usata per tutti i comandi vocali, tipo chiama Amore), e tanto tanto altro. Ma tutto questo mega screening a chi va? Viene, sì, inviato ai server delle case automobilistiche per far funzionare i servizi in abbonamento (tipo trovare la macchina con l’app quando vi scordate dove l’avete parcheggiata), per assicurarvi l’assistenza remota o l’aggiornamento dei software, ma crea anche un bacino informativo abnorme e accessibile dalle forze dell’ordine tramite richieste non esattamente legali. Anche l’auto è stata trasformata sotto i nostri nasi in una fonte continua di dati comportamentali, e questo concorre a sollevare interrogativi seri su trasparenza, consenso e tutela della privacy.
Ora, se è chiaro che il dato è la materia prima, è anche chiaro che da solo serve a poco: va raccolto, organizzato, collegato ad altri dati e trasformato in qualcosa di utilizzabile. In altre parole, va raffinato. È qui che entrano in gioco piattaforme come Palantir e i vari ed eventuali sistemi di data fusion. Si tratta di software usati da agenzie governative e autorità di polizia per integrare enormi quantità – ma tante proprio – di informazioni provenienti da fonti diverse (database pubblici, archivi investigativi, registri amministrativi, dati commerciali acquistati da broker privati, ecc.) per metterle poi in relazione tra loro. Data fusion significa proprio questo: fondere dati eterogenei per ricostruire un quadro completo. Su queste piattaforme gli operatori possono cercare un nome o una targa e visualizzarne collegamenti, reti di contatti, spostamenti nel tempo e correlazioni tra eventi. Quindi, queste tecnologie non è che creano nuovi dati, permettono però di collegare frammenti isolati e trasformarli in mappe relazionali e, soprattutto, predittive. E non credo ci sia bisogno di specificare che il punto non è solo che cosa questi tool riescono a fare, ma quanto sia difficile verificare cosa fanno davvero.

Recappino: i dati esistono già, circolano sul mercato, vengono acquistati (in zone giuridicamente grigie), integrati e resi operativi attraverso sistemi capaci di incastrare elementi isolati in architetture coerenti. I dati sono sempre stati raccolti, ora però quell’enorme massa informativa può essere interrogata in tempo reale e molto, molto rapidamente. A questo punto, nuova domanda: cosa succede quando la chiave di accesso a questo sistema non è più il vostro numero di telefono, la targa della vostra macchina o un ID pubblicitario, ma la vostra faccia? Quando non è più qualcosa che possedete, ma chi siete. Quando non siete più tracciati attraverso oggetti e codici, ma direttamente attraverso il vostro corpo. Se l’interfaccia tra individuo e infrastruttura di sorveglianza coincide con il corpo stesso, occorre chiamare in causa la biometria. Non più come tecnologia isolata, ma come estensione naturale di un sistema già costruito per rendere ogni dato ricercabile, correlabile e azionabile.
In Europa, la risposta istituzionale segue una traiettoria diversa rispetto agli Stati Uniti, almeno sul piano normativo. Con l’AI Act, l’Unione Europea ha introdotto un sistema di classificazione del rischio che distingue tra usi vietati, usi ad alto rischio e applicazioni consentite con specifiche garanzie. Il riconoscimento biometrico remoto in tempo reale negli spazi pubblici, in particolare, è soggetto a restrizioni piuttosto severe: in linea generale è vietato, ma può essere autorizzato per finalità di law enforcement in circostanze eccezionali, come la prevenzione di minacce terroristiche o la ricerca di persone scomparse, previa autorizzazione giudiziaria e nel rispetto di limiti temporali e geografici precisi. Questo significa che l’UE non legittima un impiego indiscriminato della biometria, ma ne consente l’uso entro cornici procedurali definite, introducendo obblighi di trasparenza, valutazioni d’impatto sui diritti fondamentali e controlli indipendenti. Parallelamente, però, l’Unione sta rafforzando l’interoperabilità tra sistemi informativi di polizia. Il cosiddetto Prüm II aggiorna e amplia il precedente sistema di cooperazione tra Stati membri, consentendo lo scambio automatizzato di dati come profili DNA, impronte digitali e informazioni sui veicoli. L’obiettivo dichiarato è velocizzare le indagini transfrontaliere, rendendo più immediato il confronto tra database nazionali. Il risultato di queste manovre però è a dir poco contraddittorio: da un lato, regole più stringenti sull’uso dell’IA e della biometria; dall’altro, un sistema che aumenta la velocità e la scala della circolazione informativa tra le autorità.
Forse a questo punto viene da chiedersi: e quindi? Be’, il macro-problema che si sta delineando non è più quello tra privacy e sicurezza, ma direi più tra mercato dei dati e democrazia. È quasi banale ormai che la tecnologia porti con sé la capacità di raccogliere dati e analizzarli con scalabilità inumana; il punto è se questa nostra società democratica, finché dura, sia disposta ad accettare che un sistema già di per sé tossico e nato per vendere pubblicità, diventi di fatto una rete di sorveglianza pronta a essere spremuta su richiesta. Se questa nostra società ritenga normale che il confine tra dato commerciale e dato di polizia venga tracciato non da limiti chiari e verificabili, ma da contratti tra amministrazioni pubbliche e fornitori privati. Se consideri sostenibile che sistemi di enforcement sempre più potenti si appoggino a piattaforme e database che possono esporre abitudini, spostamenti e relazioni di milioni di persone. Serve trasparenza. Servono standard obbligatori e verificabili. E soprattutto, forse eh, una discussione politica matura su quali tecnologie siano compatibili con gli spazi pubblici che vogliono restare liberi. Perché quando un’interpretazione algoritmica si traduce in un fermo, in un interrogatorio, in una revoca di status, in un’espulsione o in un arresto, il problema non è più tecnico. È politico.
Beatrice Galluzzo