Cos’è il deepfake, il video falso che non risparmia Buckingham Palace

ULTIMO AGGIORNAMENTO 0:00
Deepfake

“Per circa settant’anni ho mantenuto la tradizione di parlarvi in occasione del Natale. Ma sulla BBC non ho sempre avuto la possibilità di parlare chiaramente e col cuore. Per questo sono grata a Channel 4 per avermi dato l’opportunità di dire tutto ciò che voglio, senza che nessuno mi metta le parole in bocca”. Inizia così il video in assoluto più “originale” e imbarazzante del 2020 che ha come protagonista la Regina Elisabetta d’Inghilterra.

Abito colorato, gioielli regi, solita acconciatura, sguardo fisso in camera e l’immancabile albero addobbato sullo sfondo. Tutto sembra perfetto. Come ogni anno la Regina Elisabetta utilizza la tivù per rivolgere ai suoi sudditi i suoi più sentiti auguri di Natale.

Ma esaminando attentamente il filmato si può capire che non si tratta di un vero video in cui è la Regina a parlare (oltre al fatto che il messaggio non è stato trasmesso, come al solito, dalla BBC…), bensì di un video realizzato con l’intelligenza artificiale; in questo caso specifico con la tecnologia del “Deepfake”!

Grazie al Deepfake, Channel 4 è riuscito a realizzare un filmato in cui la Regina, “sormontata” dall’attrice Debra Stephenson, legge un messaggio molto “singolare”.
“Il tema del mio discorso è la fiducia – dice la “fake-Regina” – fiducia in ciò che è genuino, in questo 2020 così impegnativo e difficile per tutti noi. Un anno in cui molti di voi, trovandosi a corto di carta igienica, hanno finalmente capito come ci si sente a trovarsi su un trono in una situazione complessa”.

Un messaggio agli inglesi che sarebbe potuto anche sembrare reale, se non per la blasfemia e per alcuni riferimenti puramente ironici a Carlo e Camilla, all’allontanamento di Harry e Meghan e agli scandali che hanno visto protagonista il principe Andrea…
Non mancano le stoccate all’attuale Premier britannico Boris Johnson: “Il 2020 è stato anche un anno pieno di eroi, come i nostri coraggiosi lavoratori del Sistema Sanitario Nazionale, molti dei quali sono stati costretti a prendersi rischi incredibili, come curare Boris Johnson sapendo che in ogni momento il risultato avrebbe potuto essere quello di entrare in gravidanza”.

Poi il video deepfake della Regina Elisabetta la mostra, scatenata, in un ballo sopra la sua scrivania per TikTok (con tanto di twerking, swimming e coriandoli che cadono ovunque) che ha generato milioni e milioni di condivisioni, nello stupore generale di tutto il mondo. Una scena che permette allo spettatore di capire che quella in video non è la vera Regina d’Inghilterra, soprattutto alla fine del filmato, quando vengono inquadrati il set e l’attrice.

“Volevamo ricordare a tutti che oggigiorno, quando guardiamo un filmato, non possiamo più fidarci dei nostri occhi – ha dichiarato Ian Katz, direttore della rete televisiva – e la Deepfake è una spaventosa nuova frontiera che rende ancora più ardua la battaglia tra verità e disinformazione”.

Deepfake è una tecnologia innovativa per la sintesi dell’immagine umana che sfrutta l’intelligenza artificiale per creare video falsi, attraverso la sovrapposizione di nuovi video a sequenze di filmati originali, difficilmente riconoscibili come “fake”. Il video è stato realizzato da Channel 4 per dimostrare (non solo) agli inglesi proprio i pericoli dei deepfake.
In questo caso, a differenza degli altri “deepfake famosi” che hanno visto protagonisti Barack Obama e Vladimir Putin, il “trucco” viene svelato e i realizzatori lanciano il seguente messaggio: “Non possiamo più contare solamente sui nostri stessi occhi e sulle nostre stesse orecchie!”.

Un invito a riflettere e a farci riflettere. Ma soprattutto a pensare che gli autori di tutto questo siamo sempre e soltanto noi!

Se vuoi commentare l'articolo manda una mail a questo indirizzo: scriviainterris@gmail.com
Avviso: le pubblicità che appaiono in pagina sono gestite automaticamente da Google. Pur avendo messo tutti i filtri necessari, potrebbe capitare di trovare qualche banner che desta perplessità. Nel caso, anche se non dipende dalla nostra volontà, ce ne scusiamo con i lettori.