IA: i Governi corrono ai ripari, al via le collaborazioni internazionali

Intelligenza artificiale. Immagine di repertorio. Foto di Possessed Photography su Unsplash

Il governo del Regno Unito ha annunciato i piani al vertice globale sulla sicurezza dell’intelligenza artificiale (IA) che si terrà l’1 e il 2 novembre 2023.
L’importante evento – che si terrà a Bletchley Park, casa di Alan Turing e di alcuni decifratori di codici alleati durante la Seconda Guerra Mondiale, mira ad affrontare le sfide e le opportunità pressanti presentate dallo sviluppo dell’intelligenza artificiale su scala nazionale e internazionale.

Il Segretario di Stato, Michelle Donelan, ha ufficialmente avviato il processo di impegno formale che porta al vertice. Anche Jonathan Black e Matt Clifford, in qualità di rappresentanti del Primo Ministro per l’AI Safety Summit, hanno avviato diverse discussioni con vari paesi e organizzazioni estere che stanno studiando l’IA.
Ciò segna un passo cruciale verso la promozione della collaborazione internazionale nel campo della sicurezza dell’IA e fa seguito a una recente tavola rotonda ospitata dal Segretario Donelan, che ha coinvolto rappresentanti di una vasta gamma di gruppi della società civile.

L’AI Safety Summit fungerà da piattaforma fondamentale, riunendo non solo nazioni influenti ma anche organizzazioni leader nel settore tecnologico, mondo accademico e società civile. Il suo obiettivo principale è quello di facilitare discussioni informate che possano portare a normative sensate nel panorama dell’IA.
Uno dei focus principali del vertice sarà l’identificazione e la mitigazione dei rischi associati ai sistemi di intelligenza artificiale più potenti. Questi rischi includono il potenziale uso improprio dell’IA per attività quali la compromissione della biosicurezza attraverso la proliferazione di informazioni sensibili.
Inoltre, il vertice mira a esplorare come l’intelligenza artificiale possa essere sfruttata per il bene comune, abbracciando settori come la tecnologia medica salvavita e trasporti più sicuri.

Il governo del Regno Unito afferma di riconoscere l’importanza delle diverse prospettive nel dare forma alle discussioni sull’intelligenza artificiale e afferma di essere impegnato a lavorare a stretto contatto con i partner globali per garantire che rimanga sicura e che i suoi benefici possano essere sfruttati in tutto il mondo.
Nell’ambito di questo processo iterativo e consultivo, il Regno Unito ha condiviso cinque obiettivi chiave che guideranno le discussioni al vertice:
-Sviluppare una comprensione condivisa dei rischi posti dall’IA e della necessità di un’azione immediata.
-Stabilire un processo avanzato per la collaborazione internazionale sulla sicurezza dell’IA, compreso il supporto di quadri nazionali e internazionali.
-Determinazione di misure appropriate per le singole organizzazioni per migliorare la sicurezza dell’IA.
-Identificare aree di potenziale collaborazione nella ricerca sulla sicurezza dell’intelligenza artificiale, come la valutazione delle capacità del modello e la definizione di nuovi standard di governance.
-Dimostrare come lo sviluppo sicuro dell’intelligenza artificiale possa portare benefici globali.

Il potenziale di crescita degli investimenti, dell’implementazione e delle capacità dell’IA è sconcertante, con proiezioni di crescita fino a 7 trilioni di dollari nel prossimo decennio! Un rapporto di Google di luglio suggerisce che, entro il 2030, l’intelligenza artificiale potrebbe dare impulso alla sola economia del Regno Unito di 400 miliardi di sterline, portando il tasso di crescita annuo al 2,6%.

Tuttavia, queste opportunità comportano rischi significativi che trascendono i confini nazionali e affrontare questi rischi è ora una questione della massima urgenza.
All’inizio di questo mese, il cofondatore di DeepMind, Mustafa Suleyman, ha invitato gli Stati Uniti a far rispettare gli standard di intelligenza artificiale. Tuttavia, Suleyman non è l’unica figura di spicco del settore che ha espresso preoccupazione e ha chiesto misure per gestire i rischi dell’intelligenza artificiale. In una lettera aperta di marzo, oltre 1.000 esperti hanno tristemente chiesto di fermare lo sviluppo “fuori controllo” dell’intelligenza artificiale a causa dei “profondi rischi per la società e l’umanità”.

Numerosi portatori di interessi, tra cui singoli paesi, organizzazioni internazionali, imprese, mondo accademico e società civile, sono già impegnati nel lavoro legato all’intelligenza artificiale. Ciò include gli sforzi delle Nazioni Unite, dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), della Global Partnership on Artificial Intelligence (GPAI), del Consiglio d’Europa, del G7, del G20 e delle organizzazioni di sviluppo degli standard. L’AI Safety Summit si baserà su queste iniziative esistenti, formulando i prossimi passi pratici per mitigare i rischi associati all’IA. Questi passaggi comprenderanno discussioni sull’attuazione di misure di mitigazione del rischio presso le organizzazioni pertinenti, l’identificazione delle aree chiave per la collaborazione internazionale e la creazione di una tabella di marcia per un’azione a lungo termine. In caso di successo, l’AI Safety Summit, a Bletchley Park, promette di essere un evento fondamentale nel dialogo globale sulla sicurezza dell’IA, cercando di trovare un equilibrio tra lo sfruttamento del potenziale dell’IA a beneficio dell’umanità e l’affrontare le sfide che presenta.