L’Eurocamera ha deciso: regole ad hoc per l’Intelligenza artificiale

Il parlamento europeo delibera sull'intelligenza artificiale: prime regole a tema

intelligenza artificiale
Foto di Gerd Altmann da Pixabay

Il Parlamento europeo delibera sull’Ai Act, disponendo una normativa europea ad hoc sull’Intelligenza artificiale e i suoi dispositivi. L’Unione europea è il primo ente al mondo a dotarsi di regole a tema I.A.

Eurocamera, ok all’Ai Act

Via libera dell’Eurocamera all’Ai Act, ovvero all’impianto di norme europee sull’Intelligenza Artificiale. L’approvazione del testo in plenaria è arrivata ad ampia maggioranza: i voti favorevoli sono stati 523, i contrari 46 e gli astenuti 49. L’Ue è la prima al mondo a dotarsi di regole sull’Intelligenza artificiale.

Le ragioni

Il regolamento punta a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore. La normativa prevede obblighi sulla base dei possibili rischi e del livello d’impatto dei sistemi di IA. In altre parole, le nuove regole mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini, tra cui i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, il social scoring, le pratiche di polizia predittiva.

L’identificazione in tempo reale

Sono però previste delle eccezioni. In alcune situazioni specifiche espressamente previste dalla legge le forze dell’ordine potranno fare ricorso ai sistemi di identificazione biometrica, altrimenti vietati. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico.
Quanto ai sistemi ad alto rischio, quelli cioè che potrebbero arrecare danni significativi a salute, sicurezza, diritti fondamentali, ambiente, democrazia e Stato di diritto, vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana.

Le novità

Una delle novità, rispetto alla proposta della Commissione, è la previsione di norme per sistemi di IA per finalità generali, che dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme Ue sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare obblighi aggiuntivi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. Inoltre, le immagini e i contenuti audio o video artificiali o manipolati, i cosiddetti deepfake, dovranno essere chiaramente etichettati come tali (watermarking).

Meccanismi di prova

I paesi dell’Ue, infine, dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (sandbox), in modo che Pmi e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.

La disposizione

Il regolamento entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta Ufficiale dell’Ue e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).

Fonte: Ansa