PROGETTARE TRA INTUIZIONE UMANA E INTELLIGENZA ARTIFICIALE
di Fabio Gnassi
intervista a Karla Saldaña Ochoa
L’evoluzione delle reti neurali e degli algoritmi di machine learning sta trasformando profondamente il panorama architettonico, rendendo la pratica progettuale un campo di ricerca in continua espansione. In questo scenario, emergono laboratori all’avanguardia che esplorano l’applicazione di questi strumenti tecnologici, gettando le basi per una nuova frontiera della progettazione: la “data-driven architecture”.
Potrebbe illustrare gli argomenti principali trattati all’interno del SHARE Lab descrivendo alcuni dei suoi progetti più significativi?
Il SHARE Lab è un laboratorio di ricerca che esplora l’uso dell’intelligenza artificiale (IA) da una prospettiva centrata sull’uomo, applicandola ai processi di analisi spaziale, dalla scala di un edificio a quella di una città. Il nostro quadro teorico si basa sullo studio delle applicazioni pratiche dell’IA, distinguendo tra l’uso dell’IA come “tool” o come “instrument”.
Il concetto di “tool”, paragonabile a un martello, rappresenta qualcosa progettato per svolgere un compito specifico. Al contrario, un “instrument”, come uno strumento musicale o un foglio di carta, acquisisce significato e valore solo attraverso l’interazione con l’utente. Questa distinzione implica che, quando l’IA è utilizzata come “instrument”, essa potenzia la creatività di chi la impiega. Viceversa, quando utilizzata come “tool”, l’IA deve essere rapida e precisa nel fornire il miglior risultato possibile per il compito specifico.
Nel secondo caso, l’IA come “tool” rappresenta una risorsa preziosa per il bene comune, poiché molte questioni legate all’analisi dei big data influenzano direttamente la vita delle persone. Per affrontare efficacemente i fenomeni sociali emergenti da queste sfide, il “tool” deve essere mirato e orientato verso un obiettivo ben definito.
Un esempio di IA utilizzata come “instrument” è rappresentato dalle Mappe Auto-Organizzanti (SOM), un algoritmo di clustering non supervisionato. Un esempio di IA come “tool” è l’addestramento di un algoritmo di apprendimento automatico supervisionato in grado di rilevare gli alberi da frutto dalle immagini satellitari, un’applicazione particolarmente utile nei contesti di sicurezza alimentare e gestione delle catastrofi.
Questi sono i due principali approcci con cui integro l’IA nella mia pratica. Da una prospettiva sociale più ampia, il mio lavoro si estende a collaborazioni con università e organizzazioni che affrontano questioni legate allo spazio. Ciò che considero veramente essenziale nella ricerca è una riflessione continua sul concetto di spazio: applichiamo costantemente le nostre conoscenze per comprendere cos’è lo spazio, perché è importante e come può rispondere alle domande fondamentali che ci poniamo.
Le sue sperimentazioni prevedono anche l’utilizzo di modelli generativi?
I modelli generativi mi affascinano particolarmente per il loro funzionamento. Applicazioni come Stable Diffusion possono elaborare enormi quantità di immagini e video, e nel farlo sviluppano una forma di conoscenza unica. Questo mi incuriosisce perché lo vedo come una sorta di “senso comune digitale”, un aspetto che trovo stimolante da sperimentare. Il fatto che questi modelli siano stati addestrati su un vasto dataset proveniente da milioni di persone alimenta la mia curiosità nel volerli esplorare ulteriormente.
Consideriamo ad esempio i modelli text to image. Quando utilizziamo un prompt testuale per generare un’immagine, il modello diffonde progressivamente il significato delle parole per affinare l’immagine finale. Il processo inizia da una distribuzione casuale e, attraverso la diffusione, trasforma il rumore in una rappresentazione visivamente significativa.
Ciò che mi interessa veramente è ciò che accade nelle fasi intermedie di questa trasformazione. Mi piacerebbe smontare il modello e osservare le immagini generate in ogni fase del suo processo decisionale. Voglio vedere come il modello arriva a una specifica rappresentazione finale.
Questo perché quando noi utilizziamo il linguaggio per descrivere qualcosa, ci affidiamo a un modello mentale chiaro. Tuttavia, le immagini tendono a semplificare e sintetizzare, riducendo la complessità del pensiero a una singola risposta visiva. Ma cosa succederebbe se potessimo esplorare l’intero spettro di informazioni che ha portato a quella rappresentazione?
Se potessimo vedere tutte le alternative che il modello ha considerato, potremmo scoprire nuove intuizioni e idee. Potremmo persino sfidare ciò che consideriamo “conoscenza comune” e decidere se siamo d’accordo o se vogliamo esplorare nuove possibilità. Questo è il modo in cui utilizzo questi strumenti. Recentemente, ho scritto un articolo che discute un concetto che definisco “possibilità e concetti intermedi”, con l’obiettivo di definire un approccio che possa spingere avanti la progettazione architettonica, ampliando il modo in cui concepiamo e generiamo nuove idee.
Cosa si intende per “Data Aided Design” e quali sono i vantaggi di questo approccio?
Per me, questo argomento è strettamente legato al design computazionale. Sappiamo che il concetto di calcolo esiste nell’umanità sin dal XIX secolo, quando le macchine hanno iniziato a elaborare vari tipi di dati (in quel caso, numeri) per supportare i processi decisionali.
Ritengo che il design basato sui dati colmi il divario tra un approccio quantitativo e uno qualitativo al design. Grazie ai dati e alle metriche, possiamo descrivere e misurare gli aspetti oggettivi di un progetto, ma il processo di progettazione coinvolge anche la percezione e l’intuizione. A volte sappiamo che un progetto “funziona”: le forme, le proporzioni e le relazioni tra gli elementi sembrano giuste. Tuttavia, un approccio basato sui dati ci permette di gestire e quantificare questi aspetti qualitativi, offrendo argomentazioni più solide per le nostre scelte progettuali.
Ciò è particolarmente interessante, poiché oggi, grazie alla potenza computazionale e agli algoritmi di machine learning, possiamo trasformare qualsiasi tipo di dato—immagini, modelli 3D, video, suoni—in valori numerici. Questo significa che possiamo analizzare e comprendere come questi pezzi di informazione influenzano il design, astrarre nuove relazioni e costruire un processo progettuale basato su decisioni più informate.
Come argomenteresti l’affermazione secondo cui, con l’avvento dell’intelligenza artificiale, l’autorialità di un architetto possa essere legata alla costruzione e alla cura dei dataset?
Questa potrebbe essere un’indicazione utile su come descrivere un’offerta di lavoro per un architetto. Per esempio, un annuncio di lavoro potrebbe indicare che un architetto dovrebbe avere esperienza nel design, nella progettazione e nella gestione e manipolazione di dataset.
Oggi, più che mai, l’architettura deve essere vista come la capacità di connettere diversi elementi e comprendere le molteplici sfaccettature che influenzano un progetto. I dataset possono rappresentare informazioni su comunità, energia, materiali e molto altro. Il nostro compito è integrare tutti questi fattori, non solo per definire l’estetica o le performance di un progetto, ma per creare qualcosa di più significativo.
Grazie a un approccio basato sui dati, possiamo ora incorporare informazioni che in passato non avevamo le risorse per raccogliere o che non consideravamo utili per le decisioni progettuali. Questo sta trasformando il ruolo dell’architetto: mentre in passato la figura del “maestro” dominava il processo creativo, oggi vediamo studenti e professionisti sfruttare i modelli di diffusione per ridefinire i loro metodi di lavoro.
Tuttavia, credo che non dovremmo selezionare passivamente ciò che questi modelli generano, ma piuttosto aggiungere strati di complessità, contribuendo attivamente al processo. Le applicazioni dei modelli di diffusione sono affascinanti, non solo per la generazione di immagini.
Le Mappe Auto-Organizzanti (SOM) rappresentano uno strumento molto interessante per interagire e manipolare i dataset. Potrebbe spiegare cosa sono e descrivere alcune applicazioni pratiche?
Una mappa auto-organizzante (SOM) è un algoritmo di clustering non supervisionato di machine learning in grado di identificare somiglianze all’interno dei vettori di caratteristiche di un dataset. Uno degli aspetti più affascinanti delle SOM è la loro flessibilità. Lo stesso algoritmo può svolgere vari compiti, come clustering, previsione, riduzione dimensionale o estrazione di caratteristiche.
Attualmente, una delle aree in cui sto cercando di applicarle è quella dei digital twin su diverse scale. I digital twin sono rappresentazioni digitali di ambienti reali che rispondono a simulazioni o fenomeni ambientali. Possono essere strumenti utili per aiutare le persone che non sono familiari con mappe e grafici a prendere decisioni in modo immersivo all’interno di uno spazio.
principale sfida nei modelli urbani digitali è quella di fare affidamento su unità di aggregazione dei dati predefinite, come i codici postali negli Stati Uniti o i distretti censuari. Tuttavia, queste divisioni spesso hanno poca rilevanza per le nostre domande di ricerca: sono tracciate in modo arbitrario e possono separare comunità molto simili.
Per esempio, in uno studio di caso, abbiamo cercato di analizzare la correlazione tra:
- la densità delle fosse settiche,
- l’inondazione urbana causata dalle tempeste,
- gli impatti sulla salute pubblica,
- gli effetti sui prezzi delle abitazioni.
Tuttavia, quando i dati vengono mappati sulle unità censuarie tradizionali, i risultati spesso non sono significativi, poiché queste unità possono essere troppo grandi o separare artificialmente comunità simili.
Per superare questo problema, abbiamo utilizzato le mappe auto-organizzanti, che ci permettono di ristrutturare le unità di aggregazione in modo più significativo. Abbiamo utilizzato vettori di caratteristiche per descrivere fenomeni come le mappe delle inondazioni, i prezzi delle abitazioni e la densità delle fosse settiche, incorporando anche variabili geografiche e sociali.
Ciò che rende questo particolarmente interessante è che le mappe auto-organizzanti trasformano i dati ad alta dimensione in spazi a bassa dimensione, come una griglia 2×2. Questo ci consente di identificare le aree della città con caratteristiche simili, anche se sarebbero state separate nei modelli tradizionali.
Questo è un esempio di come le mappe auto-organizzanti possano essere applicate a questioni progettuali e socialmente rilevanti, contribuendo a prendere decisioni e sviluppare politiche urbane basate su nuove unità di aggregazione dei dati più in linea con le necessità della ricerca.
Karla Saldaña Ochoa
Karla Saldaña Ochoa è professoressa associata presso la School of Architecture dell’Università della Florida e affiliata al Center of Latin American Studies e al FIBER (Florida Institute for Built Environment Resilience). Inoltre, dirige il SHARE Lab, un gruppo di ricerca focalizzato sullo sviluppo di progetti che sfruttano l’interazione tra intelligenza artificiale (IA) e intelligenza umana, applicata a potenziare la creatività nel design architettonico e a creare strumenti per analizzare i big data dei fenomeni urbani.
Karla è un’architetta e programmatrice ecuadoriana con un Master in Architettura del Paesaggio e un dottorato di ricerca in Tecnologia dell’Architettura ottenuti presso l’ETH di Zurigo. La sua ricerca di dottorato ha esplorato l’integrazione dell’intelligenza artificiale e dell’intelligenza umana per risposte più precise e agili alle catastrofi naturali, utilizzando un approccio di fusione multimodale per l’inferenza dell’apprendimento automatico.