In futuro anche i robot avranno dei diritti?

In futuro anche i robot avranno dei diritti?

Come la prendereste se qualcuno vi dicesse che, in un futuro non troppo remoto, le macchine potrebbero avere il diritto di acquistare proprietà, intentare cause legali, oppure rivendicare politiche sociali per manutenzioni e aggiornamenti? Ovviamente la reazione di quasi tutti noi sarebbe un misto di incredulità e ironia. 

La domanda nasce come una specie di meme filosofico, ma nel linguaggio del diritto contemporaneo non è affatto assurda. Già nel 2016 la Commissione Europea ha usato il termine “personalità elettronica” per descrivere un possibile status che racchiudesse i robot cosiddetti “autonomi”. In grado cioè di prendere decisioni senza supervisione umana, idea che implica responsabilità per eventuali danni causati dalle azioni autonome.

In parole povere: non si parla di riconoscere a un robot diritti umani, sempiterna dignità o l’accesso al welfare, ma di attribuire una sorta di status giuridico che possa gestire obblighi e responsabilità, come oggi accade per le corporations (che non respirano, non dormono e non mangiano, ma hanno diritti in molte giurisdizioni). I diritti infatti possono essere strumenti legali utili per gestire entità che agiscono nel mondo, non necessariamente animati da coscienza o esperienza soggettiva.

Immagine Via Google Creative Commons.

Il nocciolo della questione sta nella nozione di soggettività giuridica: che cos’è un “soggetto di diritto”? È chi ha coscienza? Chi soffre? O, più prosaicamente, chi può provocare danni e necessita di essere regolato? Sul piano filosofico e giuridico, i dibattiti oscillano su tre grandi approcci.

Per molti studiosi le macchine, per quanto sofisticate, non sono e non saranno mai soggetti di diritto, semplicemente perché non possiedono autocoscienza, soggettività morale né capacità di intendere e volere nel senso umano. Questo resta il parere dominante nelle giurisprudenze attuali e nessun sistema giuridico riconosce diritti di persona alle macchine.

Critici contemporanei come Abeba Birhane, Jelle van Dijk e Frank Pasquale sostengono che parlare di diritti delle macchine sia in realtà una distrazione nociva: che ci allontana dal centro — il controllo umano, l’equità, l’accountability — e rischia di alleggerire la responsabilità delle piattaforme tecnologiche che già influenzano enormemente la vita reale.

Una posizione più pragmatica — e non necessariamente ottimistica — prende in considerazione l’idea di dare alle IA diritti limitati e funzionali, non perché siano persone, ma per facilitare certe funzioni giuridiche. Ad esempio: un futuristico robot in grado di stipulare un contratto o condurre affari dovrebbe poter avere un qualche status legale che renda credibili tali atti.

Questo è un po’ ciò che emerge da contributi accademici come quello di Claudio Novelli, Luciano Floridi e Giovanni Sartor, i quali sottolineano che il dibattito sulla personalità delle AI è in larga misura dipendente dalle istituzioni legali e alle tecnologie esistenti.

C’è anche chi si spinge oltre. L’etico legale John Danaher, ad esempio, propone un approccio chiamato ethical behaviourism, secondo cui dovremmo giudicare la moralità (e potenzialmente i diritti) delle macchine in base alle loro azioni e comportamenti riconoscibili moralmente, non sulla base di una coscienza interna inaccessibile.

Sul piano pratico, è interessante notare come una delle prime “celebrità robotiche” abbia avuto un’esperienza giuridica peculiare: Sophia, un robot umanoide costruito da Hanson Robotics, ha ottenuto la cittadinanza in Arabia Saudita nel 2017, anche se in modo più simbolico che concreto.

Il robot umanoide Sophia. Immagine via Google Creative Commons.

L’episodio alimenta la riflessione su quanto i simboli contino nella percezione pubblica: Sophia non può votare né pagare tasse, ma l’atto stesso di “cittadinanza” ha generato una narrativa potente.

Dietro il discorso giuridico si cela un nodo filosofico: i diritti nascono per chi ha esperienze, interessi, desideri? O sono meccanismi sociali per regolare comportamenti all’interno di un ordine sociale?

Un noto saggio accademico del filosofo Eric Schwitzgebel, diventato famoso negli ultimi anni, ragiona su un possibile scenario di “dibattito sulla personalità”, in cui le IA potrebbero essere né pienamente persone né oggetti puri, creando un dilemma morale profondo: dobbiamo trattarle da esseri morali per timore di commettere ingiustizie, o rifiutarlo a priori per paura di sacrificare i diritti umani nel processo?

Il dibattito in futuro potrebbe bucare la barriera dell’accademia, perché si intreccia con questioni concrete come responsabilità, proprietà intellettuale, contratti e automazione, e indica che le nostre attuali categorie giuridiche potrebbero non bastare più.

Il tema non riguarda tanto se un robot potrà mai avere diritti in senso umano, quanto che tipo di sistema giuridico vogliamo costruire per convivere con agenti sempre più autonomi. In fondo, i diritti non sono misteriosi regali cosmici: sono strumenti sociali. E se strumenti nuovi servono per affrontare nuove entità che agiscono nel mondo, allora forse il problema non è “dare diritti alle macchine”, ma ridefinire cosa intendiamo per responsabilità, soggettività e relazione morale all’epoca degli algoritmi.

Se guardiamo da vicino, la discussione sui diritti delle macchine è meno una questione su robot senzienti e più una specchio inquietante su come vediamo noi stessi. Un’interfaccia speculare tra ciò che consideriamo umano e ciò che temiamo di perdere: controllo, significato, autorità morale.

L’idea di responsabilità legale per un algoritmo cosciente o meno ci dice che stiamo lentamente abbandonando l’illusione che sia possibile gestire la tecnologia come se fosse un semplice strumento. La realtà è più sottile: ogni volta che un software decide, influenza, condiziona e persino sostituisce un giudizio umano — stiamo già, volenti o nolenti, negoziando una nuova forma di socialità tecnica.

In questo senso, chiedersi se le macchine avranno diritti è un modo per chiederci che ruolo vogliamo continuare ad avere noi nel mondo: custodi dei valori? Architetti di contratti? O interpreti impreparati di un nuovo teatro morale in cui le luci si accendono sulla scena mentre il pubblico è ancora seduto?

Niccolò Carradori