Categories: Tecnologia

Come finire nel deepfake del porno

E se vostra figlia, vostra moglie, una parente o una cara amica finisse in un video porno? Non per sua volontà, s'intende, ma perché qualcuno ha scaricato una sua foto dai social network, l'ha sapientemente lavorata e poi posizionata sul volto di un'attrice hard impegnata in un rapporto sessuale. Un maquillage talmente preciso che utenti poco attenti ai particolari – magari amici, colleghi o conoscenti – potrebbero pensare si tratti davvero di lei. Domande, preoccupazioni che la rivoluzione tecnologica e l'accessibilità a software gratuiti e sempre più semplici da usare rende già attuali. 

Il fenomeno

Da qualche tempo, infatti, l'attenzione di media specializzati (in particolare americani) si sta concentrando sulla proliferazione su social media e siti web dedicati all'uploading di materiale pornografico di deepfake, fotomontaggi hard con protagoniste star del cinema, della musica e non solo. Il primo a parlarne è stato Motherboard, magazine online dedicato all'innovazione lanciato da Vice nel 2009, in un articolo dal titolo eloquente: “I fake porno creati con l'intelligenza artificiale sono già qui e siamo fregati“. Nel pezzo viene ricordata la vicenda di un utente di Reddit (nickname: “deepfake” per l'appunto) sopreso dallo stesso Motherboard a postare sul sito di social news clip a luci rosse nei quali i volti dei protagonisti originali erano sostituiti da quelli di star hollywoodiane. Il tutto è reso possibile da software che sfruttano l'Ai per automatizzare la realizzazione di fotomontaggi. Programmi creati con l'obiettivo di facilitare chi non sappia smanettare con Photoshop, Illustrator et similia, ma diventati a quanto pare l'elodorado dei perversi

Vittime

Diverse le celebrità finite nel mirino dei maniaci del deepfake, la maggior parte sono donne: da Natalie Portman a Scarlett Johansson, passando per Emma Watson (una delle vittime preferite), Gal Gadot, Sophie Turner e Natalie Dormer. Ma anche Michelle Obama e Kate Middleton. Fra gli uomini il volto più utilizzato è quello di Nicolas Cage ma, per sua fortuna, mai per video pornografici. E l'uomo qualunque? Non si salva. Su Reddit sono state individuate diverse richieste di lumi per la realizzazione di clip a luci rosse col viso della propria ex ragazza. Fatto inquietante, che lascia presagire l'utilizzo del prodotto finito nell'ambito del “Revenge porn” e delle “Sextorsion“. Senza dimenticare il cyberbullismo e tutte le altre forme di intimidazione e di minaccia attuabili online. 

Rischi legali

Va da sé che il fenomeno, con tutte le conseguenze penali e civili in termini di violazione della privacy, rappresenti una fonte di preoccupazione per le aziende del web 2.0, su cui gravano precisi obblighi di controllo circa la legalità del materiale pubblicato. Twitter, unico tra i social a consentire il caricamento di foto intime, si è affrettato a spiegare che i suoi termini di utilizzo vietano di postare gli scatti “prodotti o distribuiti senza il consenso del soggetto” ritratto. Analogamente uno dei maggiori portali per la condivisione di video hard ha detto di considerare “questo genere di contenuti come porno non consensuale“. L'impegno, da parte di entrambi, è quello di procedere alla rimozione di tutto il materiale illegale. La piattaforma di microbloggin e social networking Tumblr, da parte sua, ha recentemente annunciato che dal 10 settembre prossimo saranno operativi gli aggiornamenti delle linee guida per “disciplinare l'utilizzo di nuove tecnologie che possano essere utilizzate per minacciare o umiliare altre persone”. Con l'entrata in vigore della nuova policy si passerà all'eliminazione dei contenuti inseriti dai trasgressori. 

Il risvolto politico

Non è solo l'utilizzo per fini sessuali a spaventare, però, chi si sta occupando di deepfake. C'è un altro possibile risvolto, direttamente collegabile al fenomeno (ben più diffuso) delle fakenews. Che succederebbe, ad esempio, se il fotomontaggio riguardasse il volto di un politico o del leader di una nazione, in modo da fargli dire cose sgradite ai suoi concittadini? Il timore è che in futuro i deepfake possano diventare un terribile mezzo di propaganda o di denigrazione degli oppositori. Ne ha parlato il giornalista Jon Christian in un articolo pubblicato su Outline nel quale avverte che questa tecnologia “potrebbe essere usata maliziosamente per ingannare governi e popolazioni e provocare conflitti internazionali”. Domandiamoci: se basta una bufala raffazzonata per orientare le scelte elettorali, cosa potrebbe fare un video?

Francesco Volpi

Recent Posts

Ecco chi era San Venerio, martire e vescovo di Milano

San Venerio di Milano, Vescovo e martire Milano, ? - Milano, 408. Scarse la notizia…

6 Maggio 2024

Social e Ai: il Papa sulla frontiera tecnologica

Social, mass media, Intelligenza artificiale: il Papa dialoga con la modernità. Finora Francesco ha dedicato…

6 Maggio 2024

Allarme Africa. Mobilitazione per l’ecosistema in pericolo

Sos Africa. I cambiamenti climatici mettono a rischio la sopravvivenza in vaste aree del continente. …

6 Maggio 2024

Piadineria “Oltre il Blu”, la fragilità che diventa una ricchezza

L’inclusione delle persone con disabilità nella società passa, primariamente, attraverso l’impegno e la formazione lavorativa.…

6 Maggio 2024

I tre pilastri dell’essere prossimi

Ascoltare, essere prossimi alle fragilità e testimoniare la carità sono i tre pilastri che, come…

6 Maggio 2024

La guida di cui i giovani hanno bisogno

Papa Francesco, nel corso del suo magistero, ci ha esortato più volte ad impegnarci per…

6 Maggio 2024