Come finire nel deepfake del porno

E se vostra figlia, vostra moglie, una parente o una cara amica finisse in un video porno? Non per sua volontà, s'intende, ma perché qualcuno ha scaricato una sua foto dai social network, l'ha sapientemente lavorata e poi posizionata sul volto di un'attrice hard impegnata in un rapporto sessuale. Un maquillage talmente preciso che utenti poco attenti ai particolari – magari amici, colleghi o conoscenti – potrebbero pensare si tratti davvero di lei. Domande, preoccupazioni che la rivoluzione tecnologica e l'accessibilità a software gratuiti e sempre più semplici da usare rende già attuali. 

Il fenomeno

Da qualche tempo, infatti, l'attenzione di media specializzati (in particolare americani) si sta concentrando sulla proliferazione su social media e siti web dedicati all'uploading di materiale pornografico di deepfake, fotomontaggi hard con protagoniste star del cinema, della musica e non solo. Il primo a parlarne è stato Motherboard, magazine online dedicato all'innovazione lanciato da Vice nel 2009, in un articolo dal titolo eloquente: “I fake porno creati con l'intelligenza artificiale sono già qui e siamo fregati“. Nel pezzo viene ricordata la vicenda di un utente di Reddit (nickname: “deepfake” per l'appunto) sopreso dallo stesso Motherboard a postare sul sito di social news clip a luci rosse nei quali i volti dei protagonisti originali erano sostituiti da quelli di star hollywoodiane. Il tutto è reso possibile da software che sfruttano l'Ai per automatizzare la realizzazione di fotomontaggi. Programmi creati con l'obiettivo di facilitare chi non sappia smanettare con Photoshop, Illustrator et similia, ma diventati a quanto pare l'elodorado dei perversi

Vittime

Diverse le celebrità finite nel mirino dei maniaci del deepfake, la maggior parte sono donne: da Natalie Portman a Scarlett Johansson, passando per Emma Watson (una delle vittime preferite), Gal Gadot, Sophie Turner e Natalie Dormer. Ma anche Michelle Obama e Kate Middleton. Fra gli uomini il volto più utilizzato è quello di Nicolas Cage ma, per sua fortuna, mai per video pornografici. E l'uomo qualunque? Non si salva. Su Reddit sono state individuate diverse richieste di lumi per la realizzazione di clip a luci rosse col viso della propria ex ragazza. Fatto inquietante, che lascia presagire l'utilizzo del prodotto finito nell'ambito del “Revenge porn” e delle “Sextorsion“. Senza dimenticare il cyberbullismo e tutte le altre forme di intimidazione e di minaccia attuabili online. 

Rischi legali

Va da sé che il fenomeno, con tutte le conseguenze penali e civili in termini di violazione della privacy, rappresenti una fonte di preoccupazione per le aziende del web 2.0, su cui gravano precisi obblighi di controllo circa la legalità del materiale pubblicato. Twitter, unico tra i social a consentire il caricamento di foto intime, si è affrettato a spiegare che i suoi termini di utilizzo vietano di postare gli scatti “prodotti o distribuiti senza il consenso del soggetto” ritratto. Analogamente uno dei maggiori portali per la condivisione di video hard ha detto di considerare “questo genere di contenuti come porno non consensuale“. L'impegno, da parte di entrambi, è quello di procedere alla rimozione di tutto il materiale illegale. La piattaforma di microbloggin e social networking Tumblr, da parte sua, ha recentemente annunciato che dal 10 settembre prossimo saranno operativi gli aggiornamenti delle linee guida per “disciplinare l'utilizzo di nuove tecnologie che possano essere utilizzate per minacciare o umiliare altre persone”. Con l'entrata in vigore della nuova policy si passerà all'eliminazione dei contenuti inseriti dai trasgressori. 

Il risvolto politico

Non è solo l'utilizzo per fini sessuali a spaventare, però, chi si sta occupando di deepfake. C'è un altro possibile risvolto, direttamente collegabile al fenomeno (ben più diffuso) delle fakenews. Che succederebbe, ad esempio, se il fotomontaggio riguardasse il volto di un politico o del leader di una nazione, in modo da fargli dire cose sgradite ai suoi concittadini? Il timore è che in futuro i deepfake possano diventare un terribile mezzo di propaganda o di denigrazione degli oppositori. Ne ha parlato il giornalista Jon Christian in un articolo pubblicato su Outline nel quale avverte che questa tecnologia “potrebbe essere usata maliziosamente per ingannare governi e popolazioni e provocare conflitti internazionali”. Domandiamoci: se basta una bufala raffazzonata per orientare le scelte elettorali, cosa potrebbe fare un video?