EDITORIALE
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed molestie tortor sed lorem laoreet consequat. Sed tempor pharetra nulla ut auctor. Integer semper fringilla arcu eget egestas. Aliquam ullamcorper pulvinar dictum. Proin scelerisque facilisis nunc. Duis facilisis turpis mi, id finibus ante laoreet sit amet. Vestibulum ante ipsum primis in faucibus orci luctus et ultrices posuere cubilia curae; Praesent sit amet ornare augue. Vestibulum at felis nec sem venenatis auctor. Morbi massa leo, bibendum eu lacinia eu, venenatis vel mauris. Nullam varius eu nisi non hendrerit. Morbi in odio at quam iaculis egestas eget nec odio. Integer aliquam dolor sed efficitur feugiat. Phasellus elit urna, rhoncus nec bibendum at, suscipit et lectus. Sed vel tellus quis est convallis euismod.
Le comunità LGBTQIA+ sono state storicamente sottorappresentate nel settore dei videogiochi, che ancora sconta quel decennio che va dalla fine degli anni 80 alla fine degli anni 90 in cui il medium e l’identità stessa di gamer sono stati promossi dalla grande industria come riservati solo a giovani uomini cisgenere e eterosessuali (e, in occidente, bianchi).
In Ghost in the Shell, film d’animazione del 1995 diretto da Mamoru Oshii e basato sull’omonimo manga di Masamune Shirow, il Maggiore Kusanagi si trova spesso a confrontarsi con il suo Ghost, termine che, nell’universo del film, rappresenta quella parte del suo essere che non può essere ridotta alla semplice funzione del corpo o al calcolo delle sue capacità cognitive.
Un modello di intelligenza artificiale ha mostrato i primi barlumi di “risposte emotive” simil-umane. Calma però, non c’è da allarmarsi. Non stiamo parlando del tipo di situazione che prelude a distopie, estinzioni globali o dittature tech schiaviste: perché la prima reazione emotiva mostrata da un prototipo di machine learning è la noia.
Nel contesto contemporaneo, la questione della sovranità digitale assume un ruolo strategico, incidendo direttamente sulla capacità di governi e istituzioni di gestire dati, infrastrutture e tecnologie in modo autonomo. Secondo Fausto Gernone, economista della concorrenza specializzato in ecosistemi digitali, l’Europa sconta oggi un ritardo strutturale frutto di decenni di disattenzione verso temi che si rivelano sempre più centrali per la propria autodeterminazione tecnologica e politica.
L’Oxford English Dictionary ha scelto “brain rot” come parola dell’anno 2024. L’espressione – che potremmo tradurre con “marcescenza del cervello” – cattura perfettamente quella sensazione di torpore mentale che si prova dopo aver passato ore a scrollare senza meta sui social, e riflette sugli effetti di un consumo compulsivo e passivo di contenuti digitali.
Tra fiamme e guerre reali e filtri digitali, non riusciamo a metterci d’accordo su quale sia il modo giusto o sbagliato di postare il dolore online, dimenticandoci che i social sono piattaforme strutturalmente ambigue, proprio come noi.
È di questi giorni la notizia della decisione di Donald Trump di introdurre una lista di parole “bandite”, termini che non dovranno più comparire, o essere sensibilmente ridotti, nei documenti ufficiali, per allinearsi alla sua visione politica.
I metagames, metagiochi, sono appunto giochi costruiti su altri giochi. Ma, secondo LeMieux e Boluk, in realtà “i metagiochi sono l’unico tipo di gioco che giochiamo”. Ogni gioco è infatti situato in un contesto che lo influenza e lo modifica, creandoci sopra il metagioco che alla fine noi effettivamente giochiamo, e ogni gioco si inserisce in un assemblaggio di agenti umani e non umani diventando parte di sistemi complessi che non è mai possibile conoscere completamente.
L’ampliamento delle possibilità progettuali in architettura passa attraverso un’espansione della conoscenza della realtà. In questo scenario, l’intelligenza artificiale, con la sua doppia natura esplorativa e generativa, si afferma come uno strumento capace di plasmare nuove forme e alimentare nuove conoscenze. Ma, come accade ogni volta che ci si addentra in territori inesplorati, ogni passo avanti richiede un saldo consolidamento dello spazio appena conquistato. Per quanto invisibile e impalpabile, lo stesso processo si sta verificando con l’IA. La creazione di nuovi scenari impone la necessità di ridefinire gli schemi etici, essenziali per orientare le scelte future e stabilire criteri con cui misurare la qualità dei nuovi processi.
Per quanto il funzionamento degli algoritmi di machine learning possa sembrare astratto e difficile da decifrare, essi si basano su una serie di processi strutturati che li rendono vulnerabili a minacce specifiche. Comprendere i rischi a cui sono esposti questi strumenti è fondamentale per sviluppare una maggiore consapevolezza nel loro utilizzo.