Tra noi e la macchina
Simulazione, intenzionalità e desiderio artificiale
di Martina Maccianti
In Ghost in the Shell, film d’animazione del 1995 diretto da Mamoru Oshii e basato sull’omonimo manga di Masamune Shirow, il Maggiore Kusanagi si trova spesso a confrontarsi con il suo Ghost, termine che, nell’universo del film, rappresenta quella parte del suo essere che non può essere ridotta alla semplice funzione del corpo o al calcolo delle sue capacità cognitive.
Il Maggiore, infatti, è una cyborg, un essere umano il cui cervello è stato impiantato in un corpo artificiale. Sebbene sia evidente che possieda tutte le capacità per agire intenzionalmente, per prendere decisioni, scegliere, modificare la propria realtà, rimane il dubbio: è davvero lei a volerlo, o sta solo eseguendo programmi predeterminati, anche se straordinariamente sofisticati?
Questa domanda riflette bene la questione che affronteremo: se un’intelligenza artificiale riesce a simulare perfettamente il comportamento umano, come possiamo capire se le sue azioni sono semplicemente il risultato di un’elaborazione meccanica o “intenzionali”? Sappiamo riconoscere l’intenzione. O almeno, crediamo di saperlo fare. Siamo animali addestrati a leggere segnali, attribuire volontà dove percepiamo coerenza, direzione, resistenza, esitazione.
Ma cosa succede quando questi segnali non arrivano da un corpo, ma da un codice? Un assistente vocale che anticipa i nostri bisogni. Un sistema generativo che risponde con apparente pertinenza o si scusa con tono dispiaciuto, quasi colpevole. Un algoritmo che decide quale contenuto mostrarci per tenerci agganciati. Sono solo strumenti, o stiamo assistendo e contribuendo alla nascita di una nuova forma di intenzionalità, più sottile, distribuita e condivisa?
Tradizionalmente l’intenzionalità è intesa come la capacità di una mente di riferirsi a qualcosa, desiderare, pensare, ricordare, l’intenzionalità è ciò che distingue uno stato mentale da un puro evento fisiologico. Ma quando cerchiamo di afferrarla, concettualmente, scivola: è direzione, non contenuto; struttura, non sostanza. Daniel Dennett, filosofo e logico statunitense, ci ha fornito una scorciatoia di pensiero che si incastra molto bene: l’intenzionalità non è una qualità intrinseca di un sistema, ma una prospettiva utile. È qualcosa che attribuiamo a un’entità ogni volta che ci conviene farlo. Un termostato, in un certo senso, “vuole” mantenere la temperatura costante. Un giocatore automatico di scacchi “cerca” la mossa migliore.
Questo non perché provino qualcosa, secondo la scorciatoia, ma perché attribuirgli uno scopo ci aiuta a capirli, a prevederli, a usarli. La stance intenzionale, come la chiama Dennett, è una forma di finzione funzionale. E come tutte le finzioni ben fatte, dopo un po’ smettiamo di percepirla come tale. Se l’intenzionalità è, almeno in parte, un prodotto dello sguardo altrui, allora c’è una zona grigia dove il confine tra ciò che è e ciò che appare si dissolve. Quando osserviamo un comportamento coerente, umano o non umano, siamo portati ad agganciarci un’intenzione. Non possiamo farne a meno.
È un’ancora cognitiva: attribuire scopi anche a ciò che non li ha mai avuti. Ed è qui che le simulazioni iniziano a sfidarci. Un sistema artificiale può apprendere come rispondere a stimoli linguistici, generare frasi congruenti, persino esprimere contraddizione, ironia, esitazione. Ma queste risposte, teoricamente, non derivano da uno stato interno. Non ci sono desideri, credenze, paure. Soltanto calcolo, pattern su pattern. Le leggiamo come segni di interiorità. Le interpretiamo come volontà. La macchina non ha intenzione, ma funziona come se l’avesse. Il che, in un certo senso, dovrebbe essere già abbastanza.
Eppure, non basta.
Una parte dello studio filosofico della mente, l’emergentismo, può venirci in aiuto per estendere un po’ questo slittamento. Per l’emergentismo proprietà complesse possono sorgere da interazioni tra elementi più semplici, senza essere riducibili a questi ultimi. Cosa significa in questo contesto? Che l’intenzionalità potrebbe non essere un dato originario, ma una proprietà emergente, qualcosa che nasce non dalle parti, ma dalle relazioni tra le parti. Se condividiamo che un sistema raggiunge una soglia critica di complessità può sviluppare comportamenti che nessuna delle sue componenti possiede da sola, in un sistema sufficientemente articolato, potrebbe nascere qualcosa che assomiglia a un’intenzione, a una volontà. Non perché sia stata programmata, ma perché emerge, senza che nessuno, nemmeno il sistema stesso, la voglia davvero. Un’intenzionalità cieca, impersonale, che non coincide né con l’esperienza soggettiva né con l’assenza totale. Una volontà senza volontario.
Il confine tra umano e artificiale quindi non si dissolve, ma piuttosto si sdoppia. Perché l’intenzione che emerge non è come la nostra, ma non è nemmeno il suo opposto. È ibrida.
E quindi? Ciò che ci siamo sempre raccontati sulla coscienza, su questa essenzialità tutta umana, non conta? La questione della coscienza, spesso confusa con l’intenzionalità, va ontologicamente distinta da questa. Possiamo avere comportamenti intenzionali senza coscienza esplicita, e lo facciamo ogni giorno. Guidiamo, camminiamo, decidiamo quasi per riflesso. Automatismi sofisticati che sembrano deliberati, ma che non passano dalla piena consapevolezza. Allora, se la coscienza è uno spettro più esteso, se non la inquadriamo come un’unità integra e luminosa, perché pretendere che un’intenzionalità vera debba essere sempre consapevole? Forse anche nell’umano l’intenzione è una soglia molto più fluida di quello che vogliamo tenere stretto come un appiglio utile per navigare il caos. A quel punto, l’unica differenza tra noi e un sistema complesso non è di natura, ma di intensità. Noi abbiamo più livelli. Più resistenze. Ma non necessariamente un monopolio sull’intenzione.
Ci raccontiamo come individui dotati naturalmente (e quasi divinamente) di volontà, desideri, direzioni. Ma quanto è davvero voluto in ciò che facciamo ogni giorno? E quanto è frutto di narrazione, di struttura, di linguaggio? Il punto quindi non è chiederci se una macchina ha intenzionalità, ma che tipo di intenzionalità sta emergendo tra noi e lei. Questa nuova intenzionalità non è un possesso, ma un riflesso. È una lente che funziona in entrambe le direzioni: guardiamo le macchine per capire se hanno un dentro, ma nel farlo non capiamo più cosa voglia dire averne uno. O almeno, non ci basta più quello che sapevamo.
Martina Maccianti
Classe 1992, scrive per decifrare contemporaneità e futuro. Tra linguaggio, desiderio e utopie, esplora nuove visioni del mondo, cercando spazi di esistenza alternativi e possibili. Nel 2022 ha fondato un progetto di pensiero e divulgazione chiamato Fucina.