Intelligenza artificiale e disinformazione: come proteggere i cittadini

AI
Foto di Hitesh Choudhary su Unsplash

Nei giorni precedenti le elezioni primarie del Partito Democratico degli Stati Uniti in New Hampshire, il 23 gennaio, potenziali elettori hanno iniziato a ricevere chiamate da un falso Presidente Biden, con audio generata da intelligenza artificiale, che li esortava a non votare fino alle elezioni generali di novembre. In Slovacchia, un post su Facebook conteneva audio falso, generato da intelligenza artificiale, di un candidato presidenziale che pianificava di rubare le elezioni, e questo avrebbe favorito un altro candidato. Anche le recenti elezioni in Indonesia e Taiwan sono state macchiate da disinformazione generata da intelligenza artificiale.

In risposta alla finta chiamata robotica di Biden in New Hampshire, la Commissione Federale per le Comunicazioni degli Stati Uniti (FCC) si è mossa per rendere illegali le voci generate da intelligenza artificiale nelle chiamate telefoniche questo 8 febbraio. Anche perché, il totale delle perdite dovute a truffe e spam negli Stati Uniti nel 2022 si pensa sia di 39,5 miliardi di dollari secondo TrueCaller, che sviluppa un’app di identificazione del chiamante e blocco dello spam. Nello stesso anno, l’importo medio di denaro perso dalle persone truffate negli Stati Uniti è stato di 431,26 dollari secondo un sondaggio di Hiya, una società che fornisce servizi di protezione delle chiamate e identità. Hiya afferma che questa cifra è destinata ad aumentare con l’uso dell’intelligenza artificiale generativa.

“In aggregato, è sconcertante quanto si perda a causa delle frodi perpetrate tramite chiamate robotiche,” afferma Eric Burger, direttore della ricerca della Commonwealth Cyber Initiative presso Virginia Tech. “La grande paura con l’intelligenza artificiale generativa è che renderà le truffe personalizzate mainstream,” dice Jonathan Nelson, direttore della gestione dei prodotti presso Hiya. “In particolare”, afferma, “l’intelligenza artificiale generativa renderà più facile eseguire attacchi di spear-phishing”.

L’importo medio di denaro perso da una vittima di truffa telefonica nel 2022, in dollari, è stato stimato così:

  • Stati Uniti: 431,26
  • Regno Unito: 324,04
  • Canada: 472,87
  • Francia: 360,62
  • Germania: 325,87
  • Spagna: 282,35

Generalmente, gli attacchi di phishing mirano a ingannare le persone affinché comunichino informazioni personali, come password e informazioni finanziarie. Lo spear-phishing, invece, è più mirato: il truffatore sa esattamente chi sta prendendo di mira e spera in un guadagno maggiore attraverso un approccio più “personalizzato”. “Ora, con l’intelligenza artificiale generativa”, Nelson dice, “un truffatore può raschiare i siti di social media, redigere testo e persino clonare una voce affidabile per separare in massa individui ignari dal loro denaro”. Con il voto unanime della FCC per rendere illegali le voci generative da intelligenza artificiale nelle chiamate robotiche, la questione si sposta naturalmente sull’applicazione. “È un passo utile,” dice Daniel Weiner, direttore del programma Elezioni e Governo del Brennan Center, “ma non è una soluzione completa.” Weiner afferma che “è difficile per la FCC adottare un approccio normativo più ampio nello stesso modo del divieto generale sui deepfake che l’Unione Europea sta considerando, data l’ambito di autorità della FCC”.

Burger, che è stato il capo della ricerca tecnologica della FCC dal 2017 al 2019, dice che il voto dell’agenzia avrà un certo impatto solo se inizierà a far rispettare più in generale il divieto sulle chiamate robotiche. La maggior parte dei tipi di chiamate robotiche è stata proibita da quando l’agenzia ha istituito il “Telephone Consumer Protection Act” nel 1991 ma ci sono alcune eccezioni, come i messaggi preregistrati che possono arrivare dagli uffici dei dentisti, per esempio, che ricordano un appuntamento imminente. “Il rispetto non sembra esserci”, dice Burger. “I politici amano dire, ‘Stiamo andando contro i cattivi,’ e non lo fanno – non con il vigore che ci piacerebbe vedere.”
Il metodo chiave per identificare la fonte di una chiamata robotica, e quindi impedire ai cattivi attori di continuarle a fare, è tracciare la chiamata attraverso la complessa rete di infrastrutture delle telecomunicazioni e identificare il punto di origine della chiamata. I tracciamenti sono solitamente affari complicati, poiché una chiamata, tipicamente, attraversa infrastrutture mantenute da più operatori di rete. Ma, nel 2020, la FCC è stata la prima ad approvare un emendamento affinché gli operatori di rete inizino a implementare un protocollo chiamato “STIR/SHAKEN” che, tra le altre misure “antirobocall”, rende possibili tutti i tracciamenti in un solo passaggio.

“I tracciamenti in un solo passaggio si sono dimostrati efficaci,” dice Burger. “Il tracciamento, per esempio, ha identificato la fonte delle false chiamate di Biden mirate agli elettori del New Hampshire come una compagnia con sede in Texas chiamata Life Corporation. Il problema”, dice Burger, “è che la FCC, il Federal Bureau of Investigation degli Stati Uniti e le agenzie statali non stanno fornendo le risorse per rendere possibile andare dopo il numero enorme di operazioni illegali di chiamate robotiche”. “Non c’è modo di fermare queste chiamate,” dice Nelson di Hiya, “almeno non del tutto. Il nostro lavoro non è fermarle, ma renderle non redditizie. “Hiya, come aziende simili, mira a raggiungere questo obiettivo riducendo la quantità di frodi attraverso servizi protettivi, ad esempio visualizzando da dove una chiamata parta e da chi, per rendere meno probabile che un individuo risponda alla chiamata in primo luogo.
Tuttavia, Nelson si preoccupa che l’intelligenza artificiale generativa possa rendere questa barriera passabile, in modo tale che quelle azioni preventive diventino meno efficaci. Ad esempio, le truffe odierne richiedono quasi sempre il trasferimento della vittima verso un impiegato in un call center per concludere con successo la truffa. Con le voci generate da intelligenza artificiale, gli operatori delle truffe potranno, alla fine, eliminare completamente il call center.

Nelson è anche preoccupato che, man mano che l’intelligenza artificiale generativa migliorerà, sarà più difficile per le persone riconoscere che non stanno parlando con una persona reale in primo luogo. “È qui che inizieremo a perdere terreno”, dice Nelson. “Potremo vedere un aumento dei destinatari delle chiamate che non si renderanno conto affatto che si tratta di una truffa.” I truffatori che si spacceranno per false associazioni benefiche, per esempio, potranno riuscire a sollecitare “donazioni” senza che i donatori si rendano mai conto di cosa sia effettivamente accaduto. “Non penso che possiamo immaginare quanto velocemente potrà cambiare l’esperienza telefonica a causa di questo,” dice Nelson. Un’altra questione complicata per l’applicazione è che la maggior parte delle chiamate robotiche illegali negli Stati Uniti, al momento, proviene da oltre i confini del paese. Il Gruppo di Tracciamento dell’Industria ha scoperto che nel 2021, per esempio, il 65 percento di tutte queste chiamate in tutto il mondo aveva origine estera.

Burger sottolinea che la FCC ha preso provvedimenti per combattere le chiamate robotiche internazionali. L’agenzia ha reso possibile la cancellazione delle chiamate se viene passato il traffico telefonico a “fornitori di gateway” – un termine per gli operatori di rete che collegano l’infrastruttura nazionale a quella internazionale – che stanno originando chiamate truffa. Nel dicembre 2023, per esempio, la FCC ha ordinato a due società, Solid Double e CallWin, di smettere di trasmettere chiamate robotiche illegali. L’azione recente della FCC contro l’intelligenza artificiale generativa nelle chiamate robotiche è la prima del suo genere, e resta da capire se altri organismi di regolamentazione di altri paesi li seguiranno. “Certo, penso che la FCC stia dando un buon esempio con azioni rapide e audaci nell’ambito della sua autorità normativa,” dice Weiner. “Tuttavia, spero anche che i corrispettivi della FCC in altre democrazie probabilmente otterranno risultati più completi”.
Nelson si aspetta di vedere revisioni alla decisione della FCC entro un paio di anni, “perché attualmente impedisce alle aziende di utilizzare l’intelligenza artificiale generativa per pratiche commerciali legittime”, dichiara.

Rimane anche da vedere se il voto della FCC avrà un effetto reale. Burger sottolinea che, nel caso di chiamate come quella finta di Biden, “era già illegale effettuare quelle chiamate robotiche e impersonare il presidente e, quindi, rendere un altro aspetto della chiamata illegale probabilmente non sarà un cambiamento radicale. Rendendolo triplicemente illegale, è davvero questo che scoraggerà le persone?”, si chiede Burger.