World News in Italian

“L’intelligenza artificiale? Non facciamo gli apocalittici. Se la useremo bene, ci farà diventare più umani e migliori. Ecco come”

Emanuele Frontoni è uno dei maggiori esperti di intelligenza artificiale in Italia e nella lista “World’s top 2% scientists” degli scienziati più citati al mondo. Ha da poco pubblicato AI, ultima frontiera. Capire l’intelligenza artificiale con le storie vere di collaborazione tra esseri umani e algoritmi”, prefazione della scienziata Fei-Fei Li (ROI Edizioni).

Nel libro esplora le più recenti applicazioni in campo IA. Professore ordinario di Informatica all’Università di Macerata e co-director del VRAI Lab, Affiliated Researcher all’Istituto Italiano di Tecnologia di Genova, dal 2022 è il direttore scientifico del NemoLab all’Ospedale Niguarda di Milano. Con la sua attività di ricerca, focalizzata sull’intelligenza e la visione artificiale, sull’analisi del comportamento umano, della realtà aumentata e degli spazi sensibili, è autore di oltre 300 articoli internazionali. Dal 2021 nella lista annuale curata dalla Stanford University e dalla Elsevier (che elenca appunto il 2% degli scienziati più citati al mondo), Frontoni mette in evidenza l’urgenza di un nuovo approccio verso questa tecnologia per riflettere sul futuro e sui grandi temi del nostro presente. “L’ultima frontiera dell’umanità è lì, e a noi non resta che metterci in moto in un cammino di consapevolezza, fiduciosi nella creatività e nell’intelligenza che hanno sempre guidato gli uomini verso il progresso” scrive nel libro. L’intelligenza artificiale, infatti, “non è un sostituto della creatività umana, ma piuttosto un amplificatore di possibilità”.

Professor Frontoni, l’ultima frontiera dell’umanità è una minaccia apocalittica o una nuova terra da abitare come il west dei pionieri?
È una terra nuova da abitare, come il west dei pionieri, ma con molta più consapevolezza del dove andremo e cosa stiamo utilizzando. Quel west è stata anche una parte non bella della storia, non inclusiva, non democratica. Noi dovremmo auspicare a qualcosa di meglio e non dovremmo essere apocalittici. La narrazione del saper fare ogni cosa che l’essere umano sa fare è una narrazione molto futuristica, fantascientifica. Oggi abbiamo ancora molto da imparare. Non abbiamo ancora le basi scientifiche per la cosiddetta intelligenza artificiale generale. Sappiamo fare delle cose molto efficaci che chiamiamo intelligenza artificiale ristretta. Queste cose che facciamo sono soprattutto di supporto all’essere umano nell’eseguire meglio determinate cose, senza avere la capacità di automatizzare in maniera completa processi anche complessi, nei quali il cervello umano è l’elemento essenziale. Mi piace il paragone con il west dei pionieri perché in quel caso si andava alla ricerca di un tesoro.

Sembra la leggenda dell’Eldorado. Possiamo dormire tranquilli?
Non proprio. Non siamo così ottimisti o ciechi da non notare alcune problematiche. Per esempio, l’oro del far west di questo momento sono le GPU, potentissimi processori (le schede grafiche dei vecchi videogiochi). Sono considerate delle miniere d’oro che possiamo utilizzare per tirare fuori nuovi algoritmi da tanti dati. Nvidia è un monopolista del settore, altri si stanno affacciando, ma non possiamo parlare di azione democratica. Dall’altro lato, stanno giocando a questa partita tantissime azioni di politica internazionale del digitale e dell’intelligenza artificiale.

La novità del suo libro è nel descrivere applicazioni concrete. Ci può dire quali sono le più impensabili?
Lo scenario dove l’impensabile diventa pensabile è quello della salute. Oggi supportiamo la cura di bambini nati pretermine, a volte grandi come le nostre mani, che pesano sei/settecento grammi e che, osservati da telecamere ad algoritmi con intelligenza artificiale, possono essere monitorati rispetto ai movimenti. Il movimento è correlato allo sviluppo cerebrale di questi bambini con ancora scarsa capacità di respirare. Tutto questo ci dice quanto l’AI possa essere di supporto all’uomo. Oggi ci piace chiamarlo Human-AI Teaming, ossia, riuscire a fare team fra esseri umani e intelligenza artificiale. Sarebbe impensabile monitorare 24 ore su 24 quei minuscoli bimbi e bimbe senza sistemi di supporto che facciano questo con noi.

Un altro esempio che ha a che fare con l’impensabile?
Il Ponte di Genova, il Ponte Morandi, una delle più grandi disgrazie legate alla responsabilità umana nelle infrastrutture viarie. Questa tragedia è diventata l’opportunità, l’occasione per fare ricerca, creare innovazione, sui temi della manutenzione. Quel ponte crollato uccidendo decine e decine di persone è diventato il più grande centro di ricerca europeo, dove telecamere e robot monitorano il nuovo ponte. E lo fanno osservando con una tripla camera questi manufatti realizzati dall’uomo e che dovranno continuare a essere mantenuti. Quel ponte non crollerà, è nuovissimo, però abbiamo bisogno di conoscenza, di raccogliere tanti dati. E l’impensabile passa da lì, passa da un’enorme capacità che dobbiamo mettere in pratica per raccogliere dati, nel giornalismo, nella ricerca, nella manutenzione, nelle città, nella sostenibilità. Abbiamo molto da fare.

Nel suo libro dedica un capitolo all’etica. Come vede il rapporto fra intelligenza artificiale e l’etica che questa solleva?
Dobbiamo considerarci fortunati di vivere in Europa, che è l’unica parte del mondo che si è già dotata di un regolamento sull’AI. Quest’opera è piuttosto ben fatta, con tanti tecnicismi. Etica dell’intelligenza artificiale, o in generale etica, non è una semplice traduzione dell’essere tutti più buoni, ma consiste in una serie di giuridicismi che dobbiamo tenere in considerazione quando utilizziamo l’intelligenza artificiale.

Cioè?
Nessuna forma di discriminazione. L’algoritmo non può fare previsioni solo su una parte della popolazione, a livello geografico, a livello di genere, di cultura. Questo è indispensabile per poter utilizzare quell’algoritmo, altrimenti saremmo fuori legge. Prima raccontavo della capacità che abbiamo di osservare e di supportare i medici nell’analisi dei movimenti dei bambini prematuri: senza una certa capacità di spiegare, di rendere trasparenti quegli algoritmi ai medici stessi che ci hanno aiutato, anzi, che ci hanno guidato, non avremmo avuto alcuna fiducia. Tutto gira intorno al concetto di fiducia. Questa lettura “europea” dell’etica dell’intelligenza artificiale è capace di generare più fiducia di altre chiavi di lettura tanto da rendere le aziende o i prodotti made in Italy, in Europa, più trustable, capaci di creare fiducia nei nostri consumatori al punto tale da avere un vantaggio competitivo.

Questa potrebbe essere una buona notizia per l’Europa, il fatto di saperla utilizzare in maniera intelligente e non, fra virgolette, dipendere da regolamenti perché le norme da sole non bastano, anzi. Serve una grande base culturale per riuscire a creare esperienze e storie interessanti.

C’è anche un tema di trasparenza.
Sì, l’altra osservazione che possiamo fare riguarda la necessità negli enti, nelle aziende, nelle relazioni di avere chiaro come la utilizziamo e con quale trasparenza. Oggi le nostre tesi di laurea ammettono l’utilizzo di sistemi di AI generativa, a patto di essere trasparenti, a patto che da qualche parte sia evidenziato quel testo generato tramite l’AI Language Model o approcci di Gen AI e che nelle note dove prima comparivano i riferimenti bibliografici oggi compaiono anche gli strumenti utilizzati (Ppt4, Gemini, Cloud o gli altri famosi LLM) e qual è stato il prompt, qual è stata la domanda che abbiamo fatto.

Capire quindi se i nostri studenti e le nostre studentesse sono stati capaci di addentrarsi nei temi, fare attività nella maniera corretta. Comprendere come porre le domande – e il giornalismo ce lo insegna – costituisce un elemento importante di qualsiasi nostra attività di comprensione. Questa forma di trasparenza ci auspichiamo sia presente dappertutto, anche tra colleghi. Non c’è nulla di male nel dire che ci si è fatti supportare da un sistema di AI e che si è usato il proprio cervello per aggiungere del valore, per migliorare quel sistema. Questo credo sia un esercizio che dobbiamo fare dappertutto.

Quali sono gli strumenti per applicare l’etica? Bisogna inventare nuove istituzioni, nuove agenzie globali?
Non proprio. Bisogna educare l’utente, insegnare a chiedersi perché, come funziona quello strumento, in relazione a quanti bias abbiamo. Potremmo avere anche delle agenzie per guardare più da vicino le applicazioni che sono sensibili, cruciali agli sviluppi della società, come la salute. AI e Salute costituiranno un binomio che porterà a tantissimi benefici, a patto che questi benefici siano per tutti.

Ci racconti la storia dei cappelli di Montappone citata nel suo libro rispetto al tema dell’integrazione dell’AI nel mondo della moda e della previsione delle tendenze.
Io sono nato lì, in questo piccolo paese nelle Marche, nell’entroterra del Fermano, dove si producono cappelli. Ormai è l’unico distretto italiano ed europeo. Una grandissima percentuale di cappelli europei arriva da Montappone e dintorni. Io mi sono occupato d’altro, però sono tornato anch’io a creare cappelli digitali e di recente abbiamo vinto un progetto insieme a delle imprese di quel settore con anche bellissimo libro. Si intitola “CappellAI”.

Ecco un altro caso “impensabile”: intelligenza artificiale e cappelli…
Questa “AI” legata al nome dei cappellai ci permette di raccontare come oggi possano esistere nuove collezioni ispirate e supportate dall’intelligenza artificiale e poi realizzate e manufatte nel distretto.

Ma esattamente cosa fate?
Raccogliamo decine di migliaia di immagini di cappelli che compaiono su scala globale su Instagram, su TikTok, sui canali social che oggi la moda usa come guida. I cappelli vengono raccolti per creare il più grande dataset al mondo di immagini di cappelli, indossati, disegnati da professionisti e da aziende o semplicemente manufatti da qualche artigiano o disegnati da qualche designer. Tutto questo confluisce nell’ambiente che produce riassunti, delle proposte, delle sintesi di quello che è successo nelle ultime settimane. Queste sintesi servono a comprendere e analizzare tendenze, piccole e geolocalizzate.

Non sarebbe facile, infatti, disegnare da una stanza di Montappone collezioni valide a livello globale. Questa complessità va supportata perché i nostri algoritmi non sono creativi. Se noi abbiamo addestrato un algoritmo con delle borse rettangolari non otterremo una borsa di un’altra forma. La creatività resta una caratteristica del tutto umana.

I nostri sistemi sono però in grado di creare delle sintesi interessanti. Anche perché sarebbe disumano guardare decine di migliaia di immagini al giorno per avere qualche idea o comprendere delle tendenze. Speriamo che questa pratica contribuisca anche alla sostenibilità del settore moda perché non possiamo più permetterci di produrre senza avere una chiara coscienza di quanti di questi materiali serviranno, quanto determinate collezioni sono o meno apprezzate, con il rischio dell’over produzione che sta mettendo in difficoltà la moda e il lusso. Di questa storia sentiremo ancora parlare nei prossimi anni perché potrebbe essere una delle buone pratiche a livello internazionale.

Quando l’AI entra nel vasto campo della creatività, come è possibile tutelare il diritto d’autore?
Domanda interessantissima e molto attuale. Sono noti i dibattiti – dibattiti è un eufemismo –, tra il New York Times e OpenAI. Il New York Times dice: “Io i giornalisti che hanno scritto i nostri articoli li ho pagati”. Quindi se tu, OpenAI, apprendi dai miei testi e crei un business dall’apprendimento dei miei testi, io voglio parte dei tuoi soldi. E questo è il concetto del diritto d’autore.

Ma pensiamo anche all’arte, a Midjourney, che è uno dei principali sistemi generativi nella creazione di immagini, che costituisce un elemento abbastanza critico per il mondo della creatività. Midjourney è stato addestrato da tantissime opere, tantissime immagini, con una parziale attenzione a tutti i temi del copyright. Cosa sta succedendo nel nostro settore? Stanno nascendo degli approcci di all learning. Come possiamo fare oggi (data la presenza di materiale protetto da copyright) a far dimenticare quel materiale ai grandi algoritmi generativi che stiamo utilizzando? Perché occorre far dimenticare? Perché qualcuno potrebbe segnalare la necessità di rimuovere quel materiale dall’apprendimento e noi non ci possiamo permettere di riapprendere daccapo.

Ogni volta che ripartono i processi di apprendimento consumiamo molte risorse energetiche, idriche, economiche, umane. Questi approcci di all learning non ce li aspettavamo. Io vengo da vent’anni di e-learning, di apprendimento, e non ci eravamo mai troppo preoccupati di creare algoritmi.

L’intelligenza artificiale ci disumanizzerà o ci farà essere più umani, visto che è anch’essa un prodotto dell’uomo?
L’intelligenza artificiale è frutto della creatività umana e di tanti anni di studio, di evoluzione di componenti tecnologiche che ci permettono di fare calcolo.

In Italia abbiamo Leonardo, che è uno dei dieci computer più potenti al mondo, come da classifica aggiornata poche settimane fa. La mia impressione coincide con quella di Francesco Rota, famoso designer italiano, che dice ai suoi ragazzi: “Se vuoi continuate a fare oggetti di design mixando idee e riutilizzando idee che magari abbiamo creato dagli anni Ottanta in avanti ci sarà qualcuno che sarà in grado di fare copia e incolla, di fare dei mix di idee già viste, molto meglio di voi”. E questo si chiama intelligenza artificiale. “Allora”, dice, “non varrebbe la pena usare il nostro cervello per creare vera innovazione, vera creatività e non una piccola revisione magari parziale di cose già viste?”.

Se questa fosse la chiave di lettura vorrebbe dire che diventeremmo un po’ più umani. Pensate a quante cose disumane facciamo. Io compilo settimanalmente decine di moduli in cui comunico il mio nome, cognome, indirizzo, codice fiscale a qualcuno che già conosce i miei dati. Oppure pensiamo alla burocrazia che costituisce ancora oggi una delle principali problematiche della nostra macchina amministrativa, anche a livello europeo. Quanto è umano lavorare attorno a quelle azioni che spesso si sovrappongono, si dupplicano? Quanto sarebbe molto più umano utilizzare quel tempo per decidere come sviluppare una città, quali politiche mettere in atto, quali procedure seguire, quale strada trovare tra decine di norme che spesso trattano determinate materie sovrapponendosi?

Ecco, io spero vivamente – e questo dipenderà molto, di nuovo, dalla nostra capacità umana di utilizzare questi strumenti – che diventeremo un po’ più umani. Per diventarlo dobbiamo aspirare a degli strumenti molto più sostenibili a livello ambientale. Ora non siamo a questo punto.

Nella prefazione al libro la professoressa Fei-Fei Li paragona l’intelligenza artificiale alla vista nelle prime forme di vita. Siamo davvero di fronte a un fenomeno di questa portata?
Beh, sì. Penso sin dai primi esempi di computer vision – ricordiamoci che Fei-Fei Li è la grande madre dell’intelligenza artificiale moderna e della visione artificiale – quindi il paragone è molto calzante. Noi adesso abbiamo iniziato a vedere un po’. Comparsa la luce, abbiamo delle capacità di vedere, di interpretare quelle che sono le prime cose veramente alla portata di tutti (o quasi) che abbiamo visto nella storia dell’intelligenza artificiale.

La portata di questa evoluzione, dice Fei-Fei, va anche verso la spatial intelligence, la capacità che l’intelligenza artificiale avrà anche di guidare soluzioni che interagiscono con lo spazio. Basti pensare alle automobili e all’intelligenza artificiale. Le auto guardano, comprendono, cercano di aiutare a evitare distrazioni, incidenti, controllano i movimenti dei pedoni.

Professore, non è che poi alla fine ci ritroveremo davanti ad un’altra bolla, come quella del Metaverso o della realtà virtuale?
No, non siamo di fronte a una bolla… non ce ne dimenticheremo perché abbiamo già dei sistemi stabili in tasca. Il nostro smartphone fa delle belle foto perché abbiamo tre telecamere e sei/otto reti neurali che ci supportano a fare delle belle foto, che altrimenti non faremmo. E dentro questa capacità e di ausilio c’è la nostra responsabilità. Se non saremo in grado di fare delle riflessioni su cosa farci di interessante, sarà molto difficile che la portata di questo fenomeno sia un bene per la nostra società. L’obiettivo del nostro laboratorio è quello di sforzarci a creare idee, stimolare gli altri a farlo, per migliorare la società e la qualità di vita delle persone. Questo è l’augurio, penso anche da parte di Fei-Fei, per questo 2025.

L'articolo “L’intelligenza artificiale? Non facciamo gli apocalittici. Se la useremo bene, ci farà diventare più umani e migliori. Ecco come” proviene da Il Fatto Quotidiano.

Читайте на 123ru.net