LA RIVOLUZIONE ALGORITMICA
Dal Verbo al Codice
di Francesco D'Isa
Uno sguardo critico e filosofico sull’intelligenza artificiale e la sua influenza su società, cultura e arte. La rivoluzione algoritmica si propone di esplorare il ruolo dell’AI come strumento o co-creatore, interrogando i suoi limiti e potenzialità nella trasformazione dei processi conoscitivi ed espressivi.
14 giugno 2024, Borgo Egnazia, Puglia. In un resort fortificato, Papa Francesco entra in carrozzina davanti ai leader del G7 per il primo discorso pontificio mai pronunciato a un vertice delle grandi potenze. L’oggetto del suo appello non è la pace in Medio Oriente né il debito dei Paesi poveri, ma l’intelligenza artificiale. «Abbiamo bisogno di una algor-ethics globale», avverte, perché solo l’essere umano sa dare significato ai dati. Il successore di Pietro, depositario di una tradizione che identifica la Parola con la salvezza, chiede ad algoritmi senza volto né sacramento di non oltrepassare la soglia che separa il nous dal calcolo.
È un momento storico, ma non inedito. Nel 1546, quando la stampa tipografica diffondeva Bibbie in volgare, il Concilio di Trento rispose con l’Indice e in seguito l’imprimatur. Nel 1931 Pio XI fondò Radio Vaticana per presidiare l’etere; nel 1963 il Concilio Vaticano II emanò Inter Mirifica per “formare” la televisione; nel 2002 Giovanni Paolo II definì Internet «un forum per diffondere il Vangelo». Ogni medium che amplifica la parola spinge la Chiesa a riaffermare la propria prerogativa: custodire il Logos.
L’IA generativa, però, alza la posta. Non è un torchio che replica i testi né un’antenna che rilancia onde radio; è un sistema capace di produrre linguaggio in forma dialogica, imitando l’intenzionalità. Se la macchina può conversare (e perfino scrivere omelie) quale spazio resta alla teologia della Parola incarnata?

Da Borgo Egnazia ai data-center della Silicon Valley, la nuova disputa sul Logos intreccia tre livelli inseparabili: teologico (differenza ontologica uomo/macchina), politico (chi legifera sugli algoritmi) ed ecologico-materiale (chi paga in termini di energia e lavoro precario). C’è un filo lungo mezzo millennio che unisce l’Indice seicentesco alla Rome Call for AI Ethics del 2020 e la difesa del Logos per la Chiesa funziona anche come strategia di autoconservazione simbolica.
Nel prologo di Giovanni – «In principio era il Logos… e il Logos si fece carne» – la parola non è semplice informazione ma un evento salvifico capace di farsi corpo e trasformare la comunità che l’ascolta. Fin dall’avvento della stampa tipografica, la Chiesa ha temuto che la moltiplicazione tecnica di questo potere ne scollasse l’origine dall’autorevolezza del Magistero e, di conseguenza, ne allentasse la forza sacramentale. Gli LLM sfidano ulteriormente il confine ontologico tra creatore e creatura.
La posta in gioco vera dietro l’ “algor-ethics”, è la definizione di verità, categoria che per la Chiesa non è mai negoziabile, ma rivelata e dunque normativa. Nel testo della Rome Call for AI Ethics la parola «truth» non appare mai: si parla di “trasparenza” e “dovere di spiegazione” ma la finalità ultima resta «proteggere la dignità umana» e «servire la famiglia umana». È una formulazione ampia: consente a Big Tech (tra i primi firmatari Microsoft, IBM, poi Cisco) di sottoscriverla senza modificare i propri modelli di profitto, mentre permette alla Santa Sede di rivendicare una regia morale sull’intero ecosistema digitale.
In controluce si intravede allora un possibile slittamento di potere performativo: non tanto sottrarre l’algoritmo ai colossi privati, quanto condividerne l’aura di legittimità, spostando sull’etica cattolica (o, più esattamente, su una sua versione soft-power) la funzione di garante. Fra Paolo Benanti insiste che occorre governare la mētis con il nous perché solo l’uomo coglie il senso del tutto e aggiunge che questo governo deve essere concertato con i player tecnologici. È una riflessione condivisibile, ma per chi non si riconosce nel paradigma cristiano la Chiesa non può essere l’unico garante etico.

Qui si apre una questione essenziale: considerato che non esiste un’etica globale condivisa, come evitare che “trasparenza” e “responsabilità” diventino etichette per un determinato sistema di valori? La risposta più praticabile è rendere l’etica degli algoritmi modificabile, aperta, controllabile da soggetti plurali. Ciò implica codici sorgente aperti, comitati di sorveglianza misti e la possibilità per varie comunità locali di negoziare diversi parametri di verità, libertà, dignità. La Chiesa potrebbe svolgere un ruolo decisivo se accetta di passare da custode esclusiva del Logos a facilitatore di un processo sinodale in cui il dissenso sia previsto e la norma possa essere emendata.
In attesa dell’enciclica che promette di aggiornare la Rerum novarum all’era dell’algoritmo, Leone XIV ha già definito il perimetro della questione digitale: al centro c’è la tutela della dignità di chi lavora, dai data-labeler invisibili ai professionisti messi in concorrenza con le macchine, la difesa di giovani e bambini dall’“eclissi del senso dell’umano” e la richiesta di un governo multilaterale e giuridicamente vincolante dell’IA che superi la soft-law della Rome Call. La scelta stessa del nome papale fa da manifesto programmatico: «Proprio sentendomi chiamato a proseguire in questa scia, ho pensato di prendere il nome di Leone XIV… perché Leone XIII, con la Rerum novarum, affrontò la questione sociale della prima rivoluzione industriale; oggi la Chiesa offre a tutti il suo patrimonio di dottrina sociale per rispondere a un’altra rivoluzione, quella dell’intelligenza artificiale, che porta nuove sfide per la dignità umana, la giustizia e il lavoro» . Da qui la proposta di un nuovo umanesimo digitale fondato su salari equi, diritto alla formazione continua e tutele dei dati come bene da amministrare in sussidiarietà, mentre a livello globale il Papa invoca tavoli ONU e UE perché la responsabilità sugli algoritmi non resti in mano a poche big tech.
Recentemente il Papa ha dichiarato che «L’intelligenza artificiale, specialmente quella generativa, ha dischiuso nuovi orizzonti a molti livelli differenti, tra cui il miglioramento della ricerca in ambito sanitario e le scoperte scientifiche, ma solleva anche domande preoccupanti circa le sue possibili ripercussioni sull’apertura dell’umanità alla verità e alla bellezza, sulla nostra particolare capacità di comprendere ed elaborare la realtà»; e poco dopo: «Alla fine la vera saggezza ha più a che vedere con il riconoscere il senso della vita che con la semplice disponibilità di dati» (L’Osservatore Romano, Anno CLXV n. 141, venerdì 20 giugno 2025, p. 4.)

Sono tutte intenzioni lodevoli e affermazioni condivisibili, finché significano che nessun flusso incontrollato di informazioni, digitale o analogico, basta a fondare un giudizio sul bene e sul giusto. Ma per alcune religioni accettare che una macchina “produca saggezza” equivarrebbe a cancellare l’eccezionalità umana, cioè la sorgente stessa della dignità e dei diritti. Se assumiamo, da una prospettiva antispecista, che questa presunta eccezionalità sia spesso un alibi per gerarchie e soprusi sugli altri viventi, l’idea di un’intelligenza distribuita e non umana cessa di essere scandalosa. In questa prospettiva la macchina non ruba nulla: amplia la capacità umana di tessere significati, a condizione che metodi, modelli e benefici restino aperti al controllo collettivo. La vera questione non è dunque se l’IA possa produrre saggezza – ben venga se ne produce! – ma chi ne governa il processo e come redistribuisce il potere che ne deriva. Un elemento che anche il Papa segnala, quando dice che “… gli strumenti rimandano all’intelligenza umana che li ha prodotti e traggono molta della loro forza etica dalle intenzioni delle persone che li impugnano. In alcuni casi l’intelligenza artificiale è stata utilizzata in modi positivi e perfino nobili per promuovere una maggiore uguaglianza, ma esiste anche la possibilità che venga usata male per un guadagno egoistico a spese altrui o, peggio ancora, per fomentare conflitti e aggressioni”.
Una prospettiva cristiana che sia anche laica sembra un ossimoro, ma qualcuno ci sta provando. Kate Ott, teologa (protestante) e autrice di Christian Ethics for a Digital Society, propone di spezzare l’equazione «etica cristiana = etica dell’IA» spostando il baricentro dal decalogo dottrinale a un processo aperto, negoziabile e plurale. Nel suo saggio su U.S. Catholic ricorda che l’obiettivo non è sostituire all’egemonia di Big Tech un imprimatur confessionale, ma creare spazi di co-decisione in cui credenti e non credenti possano rinegoziare criteri di trasparenza, inclusione e responsabilità man mano che le tecnologie cambiano. Ott indica tre leve concrete: (1) codice sorgente trasparente, affinché parametri e dataset restino modificabili; (2) alfabetizzazione digitale diffusa per formare cittadini capaci di interrogare l’algoritmo; (3) lobby civica verso legislatori nazionali, perché i principi della Rome Call diventino norme vincolanti e non restino un gentlemen’s agreement fra Vaticano e multinazionali. In questa prospettiva, l’etica dell’IA non è più un sigillo clericale ma un commons normativo che si aggiorna attraverso il dissenso, rendendo la tutela della dignità umana realmente universale.
La Chiesa è un’istituzione antica da cui ci si aspetterebbe un forte conservatorismo, eppure in merito alle AI ha talvolta posizioni più progressiste della scienza. Se si va a leggere il dibattito inaugurato dall’articolo di Apple L’illusione del pensiero ci ritroveremo presto in una querelle dal sapore medievale, che ci riporta alla disputa tra Al-Ghazālī ed Averroè a colpo di L’Inconsistenza dei filosofi e L’inconsistenza dell’inconsistenza dei filosofi. Dopo l’articolo in cui i ricercatori di Apple sembrano negare la categoria del pensiero alle macchine, è presto spuntato L’illusione dell’illusione del pensiero e Ripensare l’illusione del pensiero. Chi legge gli articoli si troverà in realtà in questioni piuttosto tecniche in cui il termine “pensiero” ha un peso relativo, o per meglio dire retorico. Tentiamo di escludere il pensiero da un dominio che conosciamo poco (le AI) confrontandole con qualcosa che conosciamo ancor meno (noi stessi), ma sarebbe più onesto riconoscere che si tratta di un concetto vago, definito per convenzione a posteriori.
Le intelligenze artificiali sono l’ennesimo trauma per l’antropocentrismo: destabilizzano il presupposto di trovarci al vertice della catena cognitiva. Curiosamente proprio la Chiesa, custode di una tradizione millenaria che pone l’umano al cuore del creato, sembra reagire con maggiore compostezza, forse perché avvezza a negoziare le proprie verità con media che la attraversano e rimappano. Queste tecnologie non ci rubano il primato: ci invitano a ridefinirlo come corresponsabilità. Se accettiamo di leggere il creato come un tessuto di relazioni, scopriremo che non esiste un centro unico, ma molti fuochi di senso da armonizzare.
Francesco D’Isa
Francesco D’Isa, di formazione filosofo e artista digitale, ha esposto internazionalmente in gallerie e centri d’arte contemporanea. Dopo l’esordio con la graphic novel I. (Nottetempo, 2011), ha pubblicato saggi e romanzi per Hoepli, effequ, Tunué e Newton Compton. Il suo ultimo romanzo è La Stanza di Therese (Tunué, 2017), mentre per Edizioni Tlon è uscito il suo saggio filosofico L’assurda evidenza (2022). Le sue ultime pubblicazionio sono la graphic novel Sunyata per Eris edizioni (2023) e il saggio La rivoluzione algoritmica delle immagini per Sossella editore (2024). Direttore editoriale della rivista culturale L’Indiscreto, scrive e disegna per varie riviste, italiane ed estere. È docente di Filosofia presso l’istituto Lorenzo de’ Medici (Firenze) e di Illustrazione e Tecniche plastiche contemporanee presso LABA (Brescia).