La protezione della filigrana digitale può essere facilmente aggirata su contenuti deepfake

Forse l’aspetto più agghiacciante dell’intelligenza artificiale (IA) è la sua capacità di generare immagini false, alcune delle quali fanno ridere. Il volto di Arnold Schwarzenegger sovrapposto al Dirty Harry di Clint Eastwood che punta l’arma contro un sospetto in fuga. Mike Tyson trasformato in Oprah. Donald Trump tramutato in Bob Odenkirk star della serie televisiva “Better Call Saul”. Nicholas Cage come Lois Lane in “Superman”.
La scorsa settimana l’attore Tom Hanks ha utilizzato i social media per denunciare una pubblicità che utilizzava le sue sembianze generate dall’intelligenza artificiale per promuovere un piano di salute dentale. Il popolare YouTuber Mr. Beast (in questo momento vanta 34.141.686.104 visualizzazioni per i suoi video dal febbraio 2012), è stato falsamente mostrato mentre offriva iPhone 15 Pro a 2 dollari.
È un dato di fatto, i volti delle persone appaiono sui social media senza il loro consenso. L’aspetto più inquietante è l’aumento degli episodi di “revenge porn”, in cui gli amanti traditi pubblicano immagini inventate dei loro ex compagni in posizioni compromettenti o oscene.
E mentre gli Stati Uniti, politicamente divisi, si avvicinano cautamente a una battaglia altamente conflittuale per la presidenza nel 2024, la prospettiva di immagini e video contraffatti promette un’elezione di una bruttezza senza precedenti.
La proliferazione di immagini false mette in crisi il sistema legale così come lo conosciamo, è quanto ha riferito di recente l’emittente nazionale no-profit NPR:
«Gli avvocati stanno sfruttando un pubblico confuso e a volte disorientato su ciò che è vero o falso, contestano sempre più spesso le prove prodotte in tribunale. Grazie ai progressi nell’intelligenza artificiale, è più facile che mai creare immagini e video di cose che non esistono o di eventi mai accaduti. Ciò sta suscitando avvertimenti sull’uso della contraffazione digitale per diffondere propaganda e disinformazione, impersonare celebrità e politici, manipolare le elezioni e truffare le persone».
Hany Farid, specializzato nell’analisi delle immagini digitali presso l’Università della California, Berkeley, ha dichiarato:
«È esattamente questo di cui eravamo preoccupati, che una volta entrati nell’era dei deepfake, chiunque possa negare la realtà».
Hany Farid riferendosi a un termine usato per la prima volta nel 2018, in un rapporto sul potenziale assalto dei deepfake alla privacy e alla democrazia, ha aggiunto: «È il classico dividendo del bugiardo».
Il “dividendo del bugiardo” è un termine coniato nel 2018 nell’articolo “Deep Fakes: una sfida incombente per la privacy, la democrazia e la sicurezza nazionale”  pubblicato dai professori di diritto Bobby Chesney e Danielle Keats Citron. La preoccupazione è che, man mano che le persone diventano più consapevoli di quanto sia facile falsificare audio e video, i malintenzionati possano sfruttare questo scetticismo come un’arma.
Bobby Chesney e Danielle Citron hanno dipinto un quadro davvero deprimente di un futuro in cui video e audio falsi non potranno essere distinti da quelli reali, in sintesi hanno scritto: «Un pubblico scettico sarà portato a dubitare dell’autenticità delle prove reali di audio e video».
Le principali società di media digitali come OpenAI, Alphabet, Amazon, DeepMind, hanno promesso di sviluppare strumenti per combattere la disinformazione. Il principale strumento è l’utilizzo della protezione della filigrana digitale sui contenuti generati dall’intelligenza artificiale, ma il recente studio pubblicato il 29 settembre 2023 sul server di preprint arXiv ha sollevato preoccupanti dubbi sulla capacità di arginare tali abusi digitali.
I professori dell’Università del Maryland hanno condotto specifici test che dimostrano la possibilità di aggirare facilmente la protezione della filigrana digitale.
Soheil Feizi, uno degli autori principali dello studio, ha affermato:
«A questo punto non abbiamo alcuna affidabile protezione della filigrana digitale, il mio team li ha tutti infranti. L’applicazione errata dell’intelligenza artificiale introduce rischi potenziali legati alla disinformazione, alla frode e persino a questioni di sicurezza nazionale come la manipolazione delle elezioni. Le falsificazioni profonde possono provocare danni alla persona, dalla diffamazione al disagio emotivo, con un impatto sia sugli individui sia sulla società in generale, di conseguenza, l’identificazione dei contenuti generati dall’intelligenza artificiale emerge come una cruciale sfida da affrontare».
Il team di ricercatori ha utilizzato un sistema chiamato “Purificazione per diffusione” per applicare e poi rimuovere da una protezione della filigrana digitale un rumore gaussiano (ampiamente utilizzato in diversi campi, tra cui l’elaborazione delle immagini, la comunicazione digitale e la teoria dei segnali): in questo modo si ottiene una filigrana distorta che può eludere gli algoritmi di rilevamento, alterando minimamente il resto dell’immagine.
Il team di ricercatori inoltre ha dimostrato con successo che i malintenzionati che hanno accesso agli algoritmi di “watermarking black-box” sono in grado di creare foto false con marcature che ingannano i rilevatori facendole credere legittime.
Il termine “algoritmi di watermarking black-box” si riferisce a un tipo di tecnica di filigrana digitale utilizzata per incorporare un identificatore univoco in contenuti digitali, come immagini, video o file audio, senza alterare il contenuto stesso. Il termine “black-box” si riferisce al fatto che l’algoritmo è progettato per essere resistente al “Reverse engineering” (un processo atto a identificare le proprietà di un oggetto fisico attraverso l’analisi completa di struttura, funzioni e operatività di tale elemento), e ad altri tentativi di rimuovere o alterare la protezione della filigrana digitale. Ciò rende difficile per gli utenti non autorizzati rimuoverla e rivendicare la proprietà del contenuto.
Sicuramente arriveranno migliori algoritmi, ora in caso di attacchi virali, i cattivi saranno sempre all’opera per infrangere le difese escogitate dai buoni e il gioco del gatto e del topo continuerà. Soheil Feizi ha espresso un certo ottimismo, ha affermato:
«Sulla base dei nostri risultati, progettare una robusta protezione della filigrana digitale è un compito impegnativo, ma non necessariamente impossibile».
Il team di ricercatori in conclusione ha detto:
«Le persone quando esaminano le immagini che contengono contenuti che potrebbero essere importanti per loro, devono procedere con la dovuta attenzione. È necessario essere vigili, controllare due volte le fonti e avere una buona dose di buon senso».

,
Avatar photo

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →