Grammatica invisibile del potere. Tecnologie della moderazione automatica e controllo politico del linguaggio online

Grammatica invisibile del potere. Tecnologie della moderazione automatica e controllo politico del linguaggio online

Se un tempo il potere linguistico si esercitava con divieti espliciti e censure riconoscibili, oggi si annida nell’infrastruttura invisibile che regola la comunicazione.

La moderazione automatica dei contenuti non agisce imponendo silenzi dichiarati, ma costruendo ambienti in cui determinate frasi, parole, hashtag, nomi scompaiono senza rumore, spinti ai margini dall’architettura stessa della rete. è qui che si disegna una nuova grammatica del potere, dove non è un bando politico, ma il calcolo statistico. Questa transizione è tutt’altro che tecnica, è politica nella sua forma più radicale, perché ridefinisce le condizioni stesse dell’esperienza linguistica. Un algoritmo non decide soltanto che cosa infrange una specifica policy, ma cosa merita di essere visto, letto, monetizzato. In questa torsione il linguaggio si sposta dal terreno dell’espressione a quello della classificazione, e con questo cambia anche il modo in cui immaginiamo la libertà, il conflitto, la possibilità stessa di dire.

La censura tradizionale operava con la forza della chiarezza. L’autorità emanava divieti o vietava parole (lo abbiamo visto fare molto recentemente da Donald Trump o, in contesto nostrano, tramite alcune misteriose circolari scolastiche), la regola era tanto visibile quanto brutale, regolando il linguaggio nella definizione di cosa non si poteva dire (davvero). Nell’era digitale, però, la cornice si sposta. Non sono più i divieti espliciti a delimitare il campo del discorso, ma processi invisibili che filtrano, declassano e  rendono impercettibile. La censura appare e agisce come calcolo, compatibilità tecnica. 

Gli algoritmi non sanno cosa significa vietare, traducono la parola in dato, la analizzano come sequenza statistica, la incasellano in categorie che stabiliscono il suo funzionamento. In questa transizione, la censura diventa un problema di computabilità, dove ciò che non rientra nei parametri della rilevanza o della sicurezza non è esplicitamente bandito, ma scivola fuori dall’orizzonte percettivo. è qui che linguaggio, da terreno di conflitto simbolico, viene trasformato in input classificabile. Questo spostamento segna una discontinuità profonda, perché se la censura tradizionale produceva una resistenza visibile, e quindi opponibile, oggi la regolazione si presenta come neutra e quasi naturale, definendo un terreno in cui l’utente non sa se un contenuto non compare perché rimosso, declassato o semplicemente sepolto dall’algoritmo: ciò che scompare non porta traccia del gesto politico che l’ha reso invisibile. è così che il bando politico si trasforma in architettura computazionale, e la questione del linguaggio si confonde con quella delle infrastrutture che lo rendono possibile.

Facciamo un passo in avanti, un po’ più in profondità del sistema. In questo contesto stiamo capendo che gli algoritmi, di fatto, non si limitano a filtrare, riscrivono piuttosto le condizioni stesse del linguaggio. La letteratura tecnica e critica sulla moderazione dei contenuti evidenzia come le piattaforme operino attraverso criteri ricorrenti come rilevanza, sicurezza e monetizzazione. Studi sul ranking dei contenuti[1] mostrano che la visibilità dipenda da sistemi di relevance scoring che predicono ciò che genererà attenzione. I modelli di classificazione[2] segmentano il linguaggio in categorie di “sicuro” o “a rischio”, trattando l’ambiguità come rumore statistico. Linee guida per gli inserzionisti (da YouTube a Meta) chiariscono che la compatibilità commerciale è parte integrante del processo: i contenuti restano accessibili, ma vengono declassati o demonetizzati se giudicati “unsuitable for advertisers” (un esempio pratico si trova spiegato nelle “linee guida sui contenuti adatti agli inserzionisti” di Google per gli inserzionisti parte dello YouTube Partner Program[3]).

In questa sintassi operativa, il linguaggio si duplica: da un lato il discorso umano, con la sua ricchezza e polisemia; dall’altro, il discorso computabile, ottimizzato per circolare senza attrito nell’infrastruttura, dove ciò che non aderisce a questa griglia non viene esplicitamente vietato, reso impercettibile, spinto al margine attraverso il declassamento, la non-raccomandazione o la demonetizzazione. Una politica della visibilità che si presenta come neutra ottimizzazione tecnica, ma che agisce in realtà come forma di governo del discorso. Questa grammatica funziona, quindi, per soglie e confidenze dove la parola non è giudicata vera o falsa, lecita o illecita, ma più o meno “rischiosa”, più o meno “idonea” al percorso di distribuzione. Ciò che eccede la semplificazione statistica non viene confutato, semplicemente scompare.

Il ranking è il luogo in cui questa ontologia diventa esperienza. Tutto tranne che un’operazione neutra, è un calcolo  politico travestito da ottimizzazione. L’algoritmo apprende da segnali di engagement e da vincoli di sicurezza e li riflette indietro come ordine del discorso in un ciclo di feedback in cui l’attenzione passata decide l’attenzione futura. Così il presente viene spinto a somigliare al passato che ha già performato, mentre il nuovo, il minoritario, il non conforme risultano statisticamente svantaggiati. La monetizzazione chiude il circuito. Se un termine o un tema è associato a rischi per gli inserzionisti, l’infrastruttura lo raffredda preventivamente. Qui la moderazione si fonde con il mercato, la sicurezza diventa compatibilità commerciale e la semantica si piega alla profilazione. In sintesi, questa grammatica invisibile non dice “no”, dice “meno probabile”. è un potere che agisce a monte, nel disegno delle soglie, e a valle, nella gestione dell’attenzione. E questo potere si fa dispositivo politico-ontologico: non regola soltanto ciò che si dice, ma che cosa può diventare parola efficace all’interno di un’economia dell’attenzione calcolata.

Il modo in cui le piattaforme digitali hanno trattato i contenuti relativi alla Palestina negli ultimi anni rappresenta un osservatorio privilegiato di questa grammatica invisibile del potere.

Il modo in cui le piattaforme digitali hanno trattato i contenuti relativi alla Palestina negli ultimi anni rappresenta un osservatorio privilegiato di questa grammatica invisibile del potere. Report di organizzazioni come Human Rights Watch[4] hanno documentato la sistematicità con cui post, hashtag e account sono stati oscurati, declassati o sospesi. Ciò che emerge con chiarezza è che la gran parte di questi interventi non nasceva da violazioni esplicite delle policy (quindi incitamenti alla violenza, contenuti sessualmente espliciti o disinformazione evidente/provata) ma dalla loro incompatibilità con i protocolli tecnici e i criteri di rischio applicati dagli algoritmi di moderazione. Si tratta di un caso paradigmatico perché mette in luce la distanza tra regole dichiarate e infrastruttura effettiva. Le policy ufficiali di Meta parlano di sicurezza, trasparenza e inclusione; la pratica, però, racconta un’altra storia in cui contenuti perfettamente legittimi vengono spinti sotto soglia, gli hashtag legati a proteste o tragedie vengono raffreddati dai sistemi di ranking, interi account sono sospesi sulla base di correlazioni statistiche che scambiano la militanza politica per incitamento alla violenza. Qui i tre assi della grammatica invisibile trovano una concreta manifestazione. Rilevanza: i contenuti pro-Palestina vengono resi meno visibili nelle timeline, sottratti ai circuiti di raccomandazione. Sicurezza: il contesto politico viene trattato come rischio di escalation e quindi filtrato preventivamente. Monetizzazione: la sensibilità commerciale degli inserzionisti agisce come ulteriore leva di penalizzazione, riducendo la circolazione di temi percepiti come brand unsafe. In questo intreccio, il problema non è tanto la violazione di una regola esplicita, quanto l’impossibilità tecnica e commerciale di accogliere un discorso che eccede i parametri della piattaforma. Cioè che emerge è un duplice effetto: da un lato, una riduzione drastica della visibilità delle voci palestinesi; dall’altro, la nascita di strategie di resistenza tecnica, come scritture glitchate, traslitterazioni ibride, uso creativo degli emoji, che cercano di eludere la lettura automatica.

Non è l’affermazione politica a essere esplicitamente vietata, ma il suo formato linguistico a risultare incompatibile con la logica della computabilità. è in questo scarto tra discorso umano e discorso algoritmico che si colloca un potere invisibile che non nega frontalmente la parola, la spinge fuori dallo spazio dell’attenzione collettiva.

Il caso palestinese ci dimostra come la censura non sia più una questione di ciò che viene detto, ma di come viene trattato dal sistema tecnico che lo accoglie. Non è l’affermazione politica a essere esplicitamente vietata, ma il suo formato linguistico a risultare incompatibile con la logica della computabilità. è in questo scarto tra discorso umano e discorso algoritmico che si colloca un potere invisibile che non nega frontalmente la parola, la spinge fuori dallo spazio dell’attenzione collettiva. Il caso palestinese non è un’eccezione, ma un sintomo. Mostra come i protocolli tecnici delle piattaforme diventino i veri luoghi del governo del linguaggio. Alexander Galloway[5] ha spiegato in modo chiaro il concetto di protocolli, ovvero non regole neutre, ma dispositivi di controllo che agiscono proprio nella loro apparente invisibilità. La moderazione algoritmica è la politica che si inscrive direttamente nel calcolo. Qui la distinzione tra tecnica e potere si dissolve. Parlare di errori dei modelli o di fallimenti tecnici nella moderazione rischia di mascherare la questione più radicale: che cos’è, oggi, il linguaggio quando viene ridotto a input computabile?

“These conventional rules that govern the set of possible behavior patterns within a heterogeneous system are what computer scientists call protocol. Thus, protocol is a technique for achieving voluntary regulation within a contingent environment.”[6]

La traiettoria che abbiamo definito e osservato fin qui non descrive un semplice mutamento di strumenti, ma un effettivo cambiamento ontologico in cui la parola non è più soltanto ciò che viene pronunciato, ma ciò che può essere computato. E questo è il cuore della grammatica invisibile del potere, la capacità di governare il linguaggio attraverso soglie, metriche e protocolli che decidono in anticipo la sua forma di esistenza. Parlare oggi significa sempre, in qualche misura, parlare a una macchina che decide se e come la parola verrà distribuita.

Di fronte a questo scenario, la nostra critica non può limitarsi a denunciare la censura o a chiedere maggiore trasparenza. Occorre elaborare una teoria critica della computabilità linguistica capace di intercettare e smascherare il potere che si esercita nell’infrastruttura, cercando di riconoscere le pratiche di resistenza che emergono ai margini. è in questo interstizio tra linguaggio umano e linguaggio algoritmico, tra parola e dato, che si giocherà la possibilità di nuove forme di conflitto, di immaginazione e quindi di libertà.

[1] Introduction to Digital Humanism; Chapter “On Algorithmic Content Moderation”; Erich Prem and Brigitte Krenn; Springer; 2023

[2] Algorithmic content moderation: Technical and political challenges in the automation of platform governance; Robert Gorwa, Reuben Binns, Christian Katzenbach; Big Data & Society; 2020

[3] Advertiser-friendly content guidelines

[4] Meta’s Broken Promises. Systemic Censorship of Palestine Content on Instagram and Facebook

[5] Alexander R. Galloway è uno scrittore e programmatore informatico che si occupa di questioni relative alla filosofia, alla tecnologia e alle teorie della mediazione. Sul concetto di protocollo si faccia riferimento al testo “Protocol: How Control Exists after Decentralization”, MIT Press, 2004

[6] Ibidem (“Queste regole convenzionali che governano l’insieme dei possibili modelli di comportamento all’interno di un sistema eterogeneo sono ciò che gli scienziati informatici chiamano protocollo. Pertanto, il protocollo è una tecnica per ottenere una regolamentazione volontaria all’interno di un ambiente contingente.”)

Martina Maccianti

Classe 1992, scrive per decifrare contemporaneità e futuro. Tra linguaggio, desiderio e utopie, esplora nuove visioni del mondo, cercando spazi di esistenza alternativi e possibili. Nel 2022 ha fondato un progetto di pensiero e divulgazione chiamato Fucina.