Intelligenza e umanità nel nuovo AI Act

Intelligenza ibrida
Foto di Peace,love,happiness da Pixabay

Il nuovo Regolamento approvato dal Parlamento europeo (con 523 voti a favore, 46 contrari e 49 astenuti) il 13 marzo 2024 in materia di Intelligenza Artificiale contiene disciplina flessibile, in linea con i tempi della tecnologia, infinitamente più veloci della produzione normativa. Secondo la definizione formulata nel Regolamento, l’I.A. è “un sistema basato su una macchina progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. In altre parole, si tratta di una tecnologia, che opera sulla base di codici matematici (i c.d. algoritmi), capace di analizzare una grande mole di dati, consentendo ad un computer, di svolgere funzioni che fino a qualche decennio fa solo gli umani erano in grado di adottare. I sistemi di “machine learning” agiscono in via autonoma, ricavando gli algoritmi dalla elaborazione di una massa enorme di informazioni.

La c.d. Legge europea sull’intelligenza artificiale si propone la finalità di migliorare il funzionamento del mercato interno e garantire un sistema di I.A. affidabile e incentrato sul principio di umanità. Una regolamentazione che mira a promuovere un elevato livello di tutela dei diritti fondamentali sanciti nella Carta dell’Unione Europea.

In virtù di tale esigenza il Regolamento Ue impone, per determinati sistemi di I.A., specifici obblighi di trasparenza, laddove esista un elevato rischio di manipolazione (l’uso di chabot), gli utenti devono essere messi a conoscenza di interagire con una macchina. I fornitori di sistemi di I.A. generativi di audio, video, immagini o testi sintetici devono assicurare che i risultati del sistema “siano resi in un formato leggibile e rilevabili come generati o manipolati artificialmente”. Per scongiurare il rischio associato alla mancanza di trasparenza, la legge europea introduce livelli elevati di conoscibilità per garantire che gli esseri umani siano consapevoli di interagire con una macchina, in modo da poter prendere una decisione informata. Inoltre, i fornitori dovranno garantire che i contenuti generati dall’IA siano identificabili, ulteriormente, se il testo creato, sia audio che video, dall’IA viene reso noto con lo scopo di informare su questioni di interesse generale deve essere esplicitamente etichettato come generato artificialmente.

Inoltre, il medesimo documento normativo riconosce ad ogni persona il diritto a non essere sottoposto ad una decisione completamente automatizzata, ove non sia previsto alcun coinvolgimento umano. L’interessato ha il diritto a non essere sottoposto a una decisione basata unicamente sul trattamento meccanizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”. Si tratta del principio di “non esclusività” della decisione algoritmica. Occorre, infatti, che sia sempre individuato il soggetto su cui incombe la responsabilità del risarcimento e della riparazione di eventuali danni causati. In altre parole, è indispensabile la presenza di un centro di imputazione “umano” che sia in grado di validare ovvero smentire la decisione fornita dalla tecnica algoritmo, ove ne riscontri l’illegittimità.

Con riferimento alla decisione giudiziaria, classificata tra le attività ad alto rischio, i meccanismi automatizzati rappresentano uno strumento a disposizione del giudice per svolgere l’attività valutativa, come tale insostituibilmente affidata ad una persona. La natura strumentale dell’AI rispetto alla funzione decidente discende anche dal principio di “soggezione soltanto alla legge” stabilita dall’art. 101 della Costituzione. Il Giudice deve basare le sue pronunce sulle previsioni legislative, potendo le procedure automatizzate fungere da strumenti di ausilio e di supporto alla decisione.

Con particolare attenzione all’uso delle informazioni sul genere, l’etnia, le opinioni politiche, il credo religioso, le convinzioni personali, lo stato di salute e l’orientamento sessuale, la normazione europea mira a far osservare la regola di “non discriminazione algoritmica” con una verifica delle notizie su cui si sviluppa il sistema. Ha fatto molto discutere la scelta del Governo inglese di utilizzare – nel periodo della pandemia che aveva reso impossibile lo svolgimento degli esami di maturità – un algoritmo per decidere la valutazione di ogni singolo studente. Il software prescelto attribuiva il voto finale non soltanto sul rendimento scolastico di ciascun alunno ma su una pesatura della scuola di provenienza calcolata sulla base di alcune caratteristiche: istituto pubblico o privato, scuole ubicate nella zona centrale o nelle periferie delle città. Sicché, sul risultato finale avrebbe influito un elemento chiaramente discriminatorio fondato sul pregiudizio che le scuole elitarie e con rette altissime avessero offerto una preparazione migliore. Con la conseguenza che gli studenti frequentanti una scuola pubblica avrebbero ottenuto una votazione più bassa, con la conseguente preclusione di iscrizione nelle università di maggior prestigio. Le proteste degli studenti contro le ingiustizie determinate dall’intelligenza artificiale hanno costretto le autorità pubbliche ad abbondonare i sistemi automatizzati e ad affidare i giudizi ai docenti “umani”.

La disciplina dell’Unione, pur vietando la sorveglianza di massa, ammette il riconoscimento facciale ritenuto indispensabile per le indagini da parte della polizia al fine di prevenire attacchi terroristici e gravi fatti di criminalità. In particolare, viene consentito il riconoscimento biometrico da remoto in tempo reale negli spazi accessibili al pubblico per contrastare fattispecie di reato di forte disvalore sociale, come la tratta di esseri umani, lo sfruttamento sessuale, il traffico illecito di armi, il traffico illecito di organi, l’omicidio volontario, nonché per la ricerca mirata di specifiche vittime e persone scomparse e per la prevenzione di minacce per la vita o l’incolumità fisica delle persone o come risposta a una minaccia attuale e prevedibile di attacco terroristico.

Il legislatore eurounitario si mostra molto attento a incentivare lo sviluppo dell’I.A. al fine di colmare il divario evidente con le altre aree del globo che si distinguono per le notevoli quantità di risorse impiegate in innovazione digitale. Anche nell’individuazione delle forme di responsabilità connesse alle nuove intelligenze, il tentativo è di realizzare all’interno dello spazio europeo un punto di equilibrio tra tutela dei diritti fondamentali, innovazione tecnologica e potenziamento delle nuove tecniche robotizzate. La sfida da vincere per l’Europa che si affaccia al nuovo mondo della rivoluzione digitale consiste nella capacità di armonizzare le applicazioni dei sistemi di IA con i diritti e la dignità delle persone, attraverso meccanismi decisionali che non possono dimenticare il principio di umanità.