Deepfake è la nuova arma per la disinformazione, chiunque può creare video di persone reali che sembrano dire cose che non hanno mai detto

Ehi, il mio parlamentare l’ha realmente detto? E’ davvero il Presidente Donald Trump in quel video, o sono stato ingannato? La nuova tecnologia su Internet permette a chiunque di fare video di persone reali che sembrano dire cose che non hanno mai detto. Repubblicani e Democratici prevedono che questo sistema high-tech di mettere le parole in bocca diventerà la nuova arma nelle guerre di disinformazione contro gli Stati Uniti e altre democrazie occidentali.
Non stiamo parlando di video di sincronizzazione labiale, questa tecnologia utilizza la mappatura facciale e l’intelligenza artificiale per produrre video che sembrano così genuini che è difficile individuare le differenze. I legislatori e i funzionari dell’intelligence temono che i falsi video – chiamati deepfake – possano essere usati per minacciare la sicurezza nazionale o interferire nelle elezioni. Finora, questo non è successo, ma gli esperti dicono che non è una questione di se, ma quando.
Hany Farid professore d’informatica alla Dartmouth College di Hannover, New Hampshire, specializzato in analisi forensi e analisi d’immagini digitali, ha detto:
«Mi aspetto che qui negli Stati Uniti cominceremo a vedere questo contenuto nei prossimi mesi e nelle elezioni nazionali tra due anni. La tecnologia, naturalmente, non conosce confini, quindi mi aspetto che l’impatto si propaghi in tutto il mondo.
E’ chiaro che quando una persona media può creare un video realistico falso del presidente facendogli dire quello che vuole, siamo entrati in un nuovo mondo dove sarà difficile saper credere a quello che vediamo. E’ preoccupante anche il contrario, la gente sarà indotta a  liquidare come finti, anche atroci autentici video».
U.S. Defense Advanced Research Projects Agency (DARPA) (è un’agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie per uso militare), consapevole delle implicazioni della tecnologia, ha avviato da due anni un programma per sviluppare tecnologie in grado di rilevare immagini e video falsi. In questo momento, è necessaria un’analisi approfondita per identificare i video falsi. Non è chiaro se i nuovi modi di autenticare le immagini o rilevare i falsi manterranno il passo con la tecnologia deepfake.
I deepfake utilizzano l’apprendimento profondo, una forma d’intelligenza artificiale, sono realizzati inserendo in un computer un algoritmo, o un insieme d’istruzioni, molte immagini e audio di una certa persona. Il programma per computer impara a imitare le espressioni facciali, i manierismi, la voce e le inflessioni della persona. Avere abbastanza video e audio di qualcuno, permette di realizzare un video falso della persona e fargli dire quello che vogliamo con un audio falso.
Marco Rubio, uno dei numerosi membri del comitato d’intelligence del Senato che stanno esprimendo preoccupazione per i deepfake, ha detto:
«Finora, i deepfake sono stati usati soprattutto per diffamare le celebrità o per divertimento. E’ facile prevedere che una nazione non amica possa utilizzarli per attività nefaste contro gli Stati Uniti.
Un’agenzia straniera d’intelligenza potrebbe usare la tecnologia per produrre un video falso di un politico americano che utilizza un falso epiteto razziale o che intasca una tangente. Potrebbero usare un falso video di un soldato americano che massacra civili all’estero, o di un funzionario americano che presumibilmente ammette un piano segreto per compiere un complotto. Immaginate un falso video di un leader americano – o di un funzionario della Corea del Nord o dell’Iran – che avverte gli Stati Uniti di un imminente disastro.
Si tratta di un’arma che potrebbe essere utilizzata – con un tempismo e una collocazione appropriata – allo stesso modo in cui si usano notizie false, tranne che in forma video, il deepfake potrebbe creare vero caos e instabilità alla vigilia di un’elezione o di una decisione importante di qualsiasi tipo».
La tecnologia deepfake nei falsi video ha ancora qualche inconveniente, ad esempio, il battere delle ciglia delle persone può sembrare innaturale, ma la tecnologia sta migliorando.
Andrew Grotto, sicurezza internazionale presso il Center for International Security and Cooperation della Stanford University in California, ha detto:
«Nel giro di un anno o due, sarà davvero difficile per una persona distinguere tra un video reale e un video falso. Credo che questa tecnologia per gli Stati nazionali sarà irresistibile nell’essere utilizzata in campagne di disinformazione per manipolare l’opinione pubblica, ingannare le popolazioni e minare la fiducia nelle nostre istituzioni».
I video rudimentali per anni sono stati usati per dannosi scopi politici, quindi non c’è motivo di credere che quelli più tecnologici, che sono più realistici, non diventeranno strumenti primari nelle future campagne di disinformazione.
Marco Rubio, membro del comitato d’intelligence del Senato americano ha aggiungo:
«L’Ambasciata degli Stati Uniti a Mosca nel 2009 si è lamentata con il Ministero degli Esteri russo per un falso video di sesso creato per danneggiare la reputazione di un diplomatico statunitense sposato. Il video nella prima fase l’ha mostrato mentre era in una strada poco illuminata mentre parlava al cellulare con i gruppi religiosi russi e dei diritti umani. Poi l’ha mostrato nella sua stanza d’albergo, scene che a quanto pare girate con una macchina fotografica nascosta. Il video più tardi sembrava mostrare nella stessa stanza in penombra, un uomo e una donna in rapporti sessuali, anche se non era per niente chiaro che l’uomo era il diplomatico».
John Beyrle, all’epoca era l’ambasciatore degli Stati Uniti a Mosca, ha incolpato il governo russo per il video, ha detto chiaramente che era stato manipolato.
Michael McFaul, ambasciatore americano in Russia tra il 2012 e il 2014, ha detto che la Russia per anni ha realizzato video di disinformazione contro vari esponenti politici, anche lui è stato un obiettivo. Ha detto che la propaganda di  russa ha inserito il suo volto nei filmati, ha unito i suoi discorsi per fargli dire cose che non ha mai pronunciato, addirittura accusandolo di pedofilia.

Deepfake video falsi