L’Università di Firenze è in prima linea nella lotta al deepfake, cioè la manipolazione di video e di immagini tramite tecniche avanzate di intelligenza artificiale, usati soprattutto per creare falsi di persone molto note, che possono dare luogo a truffe, casi di revenge porn, cyberbullismo o altri crimini informatici.
Il progetto, che coinvolge anche l’Università di Trento, si chiama Unchained (Uncovering media manipulation chains through container and content detectable traces) e ha l’obiettivo di rilevare in rete contenuti multimediali manipolati e potenzialmente diffamatori e la loro tracciabilità. È stato finanziato dalla Darpa, agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie, in un bando sull’utilizzo dell’intelligenza artificiale nel contrasto ai raggiri.
Il deepfake impegna forze investigative e informatiche in una nuova lotta contro il falso che impone di riconoscerlo, ma anche di ricostruirne tutta la catena di elaborazioni subite dal dato multimediale, da quando un video viene generato alle varie condivisioni nei social, che ne aumentano l’effetto.
Il contributo dell’Università di Firenze
La lotta mobilita un team di ricerca italiano che vede protagoniste le Università di Firenze e di Trento. Firenze dà il proprio contributo con l’analisi del formato, mentre Trento porta le competenze maturate nell’analisi del viso umano e del segnale e si concentra quindi sul contenuto.
L’unità di ricerca dell’Ateneo di Firenze è guidata da Alessandro Piva, professore del Dipartimento di Ingegneria dell’Informazione. “Il nostro gruppo di ricerca – spiega il professor Piva – lavora nell’ambito dell’identificazione di possibili manipolazioni in contenuti multimediali da più di dieci anni. All’inizio della nostra attività, le possibili manipolazioni erano molto limitate e riguardavano solo le immagini, a causa della complessità degli strumenti di editing e della ridotta capacità di calcolo a disposizione”.
“Oggi– aggiunge il docente fiorentino – mediante algoritmi di intelligenza artificiale è possibile creare in poco tempo manipolazioni complesse sia di immagini e di video, che diventano ben presto virali. L’identificazione di manipolazioni diventa quindi sempre più complessa. A Firenze ci stiamo concentrando sullo studio dell’integrità di video, in particolare quelli scambiati nell’ambiente social”.
Il deepfake inganna anche il cervello umano
Il deepfake consiste in una manipolazione sofisticata e profonda, subdola e pervasiva, capace di trarre in inganno perfino il cervello umano, che a volte non riesce a distinguere tra artificiale e naturale.
Uno dei casi più noti di deepfake, all’inizio preso per vero e diventato virale, è il video falsificato di Mark Zuckerberg che nell’estate 2019 venne pubblicato su Instagram suscitando grande clamore. L’immagine dell’amministratore delegato di Facebook era stata manipolata per fargli pronunciare, con una voce creata al computer, parole che nella realtà non aveva mai detto sul controllo del futuro.
Un esempio di manipolazione video più leggera (un semplice rallentamento introdotto nella sequenza), ma molto dannosa dal punto di vista della reputazione, era stato nella primavera 2019 quello che induceva a pensare a uno stato di ubriachezza della presidente della Camera dei rappresentanti statunitense Nancy Pelosi. Il video, pubblicato su Facebook e condiviso su Twitter, anche questa volta era diventato subito virale.