Prospettive, opportunità e limiti della tecnologia che avanza. In un Convegno organizzato dal Dipartimento di Architettura dell’Università Roma Tre professionisti, università, aziende, enti e organizzazioni si confrontano sulle opportunità dell’innovazione
«Verso una didattica per l’innovazione. Costruire il futuro». Questo il titolo del Convegno organizzato dal Dipartimento di Architettura dell’Università Roma Tre che si è tenuto mercoledì 13 settembre presso l’ex Mattatoio di Roma. L’evento, sponsorizzato dalla startup eXtraHome, è stato parte integrante della Rome Future Week, una sorta di contenitore di iniziative focalizzate sull’innovazione che hanno coinvolto l’intera città in diverse location. Tema centrale dell’evento l’avverarsi… del futuro in ambiti la tecnologia, le startup, l’etica, il digitale, le smart cities, i trasporti, l’aerospazio e la cultura. Sono intervenuti al Convegno docenti del Dipartimento di Architettura dell’Università Roma Tre e esperti del settore tecnologico, i quali hanno presentato interventi centrati sulle nuove frontiere delle costruzioni. Sono state esplorate quindi tematiche relative alle tecnologie di costruzione e digitali emergenti; in particolare, la prof.ssa Chiara Tonelli, Ordinario di Tecnologia dell’Architettura, ha evidenziato come la transizione ecologica, energetica e digitale stia influenzando l’approccio progettuale verso nuove costruzioni e interventi di riqualificazione energetica. Il prof. Stefano Converso, Coordinatore del laboratorio didattico modelli e prototipi, ha invece condiviso l’esperienza di formazione degli studenti del Dipartimento, che sono coinvolti da anni in laboratori di composizione architettonica supportati dalle nuove tecnologie digitali. Ha invece presentato una serie di progetti di illuminotecnica sul territorio derivanti dalla ricerca accademica il prof. Marco Frascarolo, Coordinatore del laboratorio di fisica tecnica e tecnologia, mentre l’arch. Valerio Palma, co-fondatore della startup Shazarch ed ex studente del Dipartimento di Architettura dell’Università Roma Tre, che ha approfondito il rapporto tra territorio, patrimonio architettonico e avanzate tecnologie digitali, in particolare il «Machine Learning e la realtà aumentata».

Successivamente, è stato condotto un dibattito moderato dalla prof.ssa Chiara Tonelli, e il convegno si è concluso con un intervento del dott. Dario Costantino del Politecnico di Bari, che ha illustrato come l’Intelligenza Artificiale sia stata efficacemente applicata all’interno dei corsi di progettazione architettonica dell’Ateneo.
Negli ultimi interventi, sono emersi i punti di convergenza tra le discipline di architettura e urbanistica e l’Intelligenza Artificiale, comprendendo in quest’ultima anche altri strumenti digitali avanzati in costante evoluzione. Questi strumenti, che influenzano l’attività quotidiana dei progettisti, spesso suscitano critiche in quanto considerati come processi deterministici che potrebbero mettere in discussione il ruolo dell’architetto e, in generale, il concetto di «design thinking».
Opportunità o limite?
Questo dibattito, come evidenziato dall’arch. Valerio Palma, vede il contrapporsi di due posizioni: da un lato i tecno-ottimisti lodano la capacità di questi strumenti di svolgere autonomamente compiti precedentemente impossibili; dall’altro gli scettici temono che l’adozione di tali strumenti possa semplificare in modo eccessivo il mondo da analizzare, limitando la comprensione dei fenomeni e la capacità di intervento. Questa divisione ha avuto un impatto significativo nel campo degli studi urbani, in particolare riguardo all’uso dei «gemelli digitali», i Digital Twin, per lo studio delle città (immagine a seguire).
Questi modelli sono quindi stati accolti da un lato come una possibile soluzione per le sfide dell’urbanizzazione contemporanea, grazie alla loro capacità di raccogliere, elaborare e analizzare dati sempre più complessi e numerosi, dall’altro lato come un limite; i critici hanno infatti messo in luce come le logiche computazionali sostenute da questi modelli tendano a riprodurre letture rigide e parziali, presentando numerosi limiti operativi.
L’approccio che sostiene che la raccolta, l’elaborazione e la sovrapposizione di dati multimediali dettagliati migliorino la comprensione del mondo reale, promuove narrazioni estremamente ottimiste. Queste narrazioni spesso collegano la quantità di informazioni alla qualità della comprensione dei fenomeni, portando a considerare i big data e gli strumenti per la loro gestione, ad esempio le Intelligenze Artificiali, come la soluzione a tutti i problemi della vita moderna. Le critiche a tali strumenti sottolineano invece che questa percezione della comprensione del mondo è illusoria. Le obiezioni contro la pervasività del pensiero computazionale nella città si basano spesso sull’idea che si stia cercando di delegare al modello una quantità eccessiva di responsabilità, ponendo la domanda di quanto del mondo reale venga sacrificato al suo interno (vedi immagine in apertura).
Herbert Simon, vincitore del Nobel per l’economia e studioso della complessità nei sistemi socio-economici, ha sollevato una domanda cruciale sui sistemi digitali: cosa può davvero aggiungere una simulazione a ciò che già conosciamo? Questa domanda diventa sempre più rilevante man mano che le simulazioni diventano più precise e realistiche. Quindi, oggi, dobbiamo chiederci se la sintesi sia davvero diventata meno importante per la comprensione dei fenomeni. Sembra infatti che sia negli scettici che nei tecno-ottimisti la sintesi stia perdendo importanza: per i primi è dannosa, mentre per i secondi è superata dall’Intelligenza Artificiale.
Intelligenza Artificiale, tema complesso
Tuttavia, cercando una prospettiva alternativa, possiamo sottolineare che la sintesi, e in generale le astrazioni e le semplificazioni, sono il modo in cui costruiamo una comprensione e creiamo qualcosa di nuovo. L’Intelligenza Artificiale può in realtà rivelarci quanto queste pratiche siano ancora necessarie. Ad esempio, il Deep Learning, una classe di algoritmi nell’Intelligenza Artificiale al centro dei recenti progressi, è basato sulla capacità delle macchine di apprendere concetti complessi a partire da concetti più semplici. Questo sottolinea il fatto che le macchine richiedono una gerarchia di conoscenza, categorie, assunzioni e astrazioni, generalmente definite e selezionate da un operatore umano. La manipolazione dei simboli, secondo Herbert Simon, è d’altronde una componente fondamentale e principale capacità dei computer. Tuttavia, sembra che l’attenzione sui big data stia oscurando il ruolo cruciale di semplificazione e astrazione a favore della semplice quantità di dati.
L’Intelligenza Artificiale, in definitiva, rappresenta un modello di processo complesso ma allo stesso tempo schematico di interpretazione delle informazioni, che evidenzia, forse in modo più accentuato rispetto ad altri modelli, una caratteristica essenziale per la loro utilità.
In particolare, il sistema di Deep Learning mette in luce il suo comportamento nell’applicazione pratica, durante il processo di addestramento guidato dall’operatore umano, e nell’adattamento a varie situazioni. Le richieste di completezza, l’aspirazione all’iperrealismo e la ricerca di immediatezza sono attributi più orientati al commercio che alla sostanza, e in qualche modo minacciano l’autenticità della rappresentazione rispetto all’oggetto rappresentato. Forse il modello digitale della città dovrebbe essere considerato più come una metafora della città piuttosto che una sua rappresentazione letterale. Questo è un insegnamento che possiamo trarre anche dalla storia dei modelli urbani, come il modello della Roma quadrata per la pianificazione delle colonie, i quali, nonostante la loro evidente astrattezza, possedevano punti di forza e risultavano strumenti utili per la realizzazione e la riproduzione della forma urbana. In altre parole, i modelli devono essere considerati come strumenti essenziali nella progettazione.
Ora è evidente che il problema associato all’Intelligenza Artificiale riguarda principalmente l’eccessiva enfasi posta su di essa, da cui ne scaturiscono distorsioni di percezione. Tuttavia, anche le critiche, se rivolte alla fiducia cieca nella tecnologia in generale, possono deviare l’attenzione dal vero motivo per cui utilizziamo tali strumenti. Al contrario, le critiche sono fondamentali quando si concentrano sulle limitazioni intrinseche dei mezzi tecnologici. In questo contesto, possiamo considerare i limiti dell’Intelligenza Artificiale, ovvero la fallibilità e la parzialità, come i suoi punti di forza. La sua artificialità manifesta, che implica la necessità di istruzioni umane per il suo apprendimento, e la sua natura progressiva che non obbedisce in modo rigido a regole fissate, fanno sì che non possiamo attribuirle una logica intrinseca e scambiarla erroneamente per la realtà.
In sintesi, è importante continuare a utilizzare i modelli digitali del costruito, tenendo presente che sono strumenti rappresentativi, seppur parziali, ma è proprio questa parzialità a renderli utili. Gli architetti dovrebbero riflettere profondamente sulla relazione tra Intelligenza Artificiale e ambiente costruito, concentrandosi in particolare sullo studio delle astrazioni alla base dei modelli spaziali. Infatti, gli architetti sono tra le figure più adatte a discutere delle connessioni tra forma, modello, progetto e le trasformazioni generate in seguito a questo processo. Questa prospettiva si contrappone al concetto di «gemello digitale», se mira a una riproduzione esatta della realtà. Se questo è l’obiettivo, non abbiamo posizioni intermedie: o conosciamo tutto o non conosciamo niente. Nel caso in cui il modello ammetta, invece, una certa incertezza, esso diventa un sistema per simulare scenari inediti, plausibili e confrontabili, astratti ma adattabili a diverse situazioni, in cui non esiste un «ottimo globale» definito.
[ Barbara Cardone ]