Sos diritti umani. Moratoria Onu sui sistemi di intelligenza artificiale

Le testimonianze di chi è stato erroneamente arrestato per un riconoscimento facciale impreciso e di chi si è visto negare benefici e diritti

Afghanistan

Onu in campo per “umanizzare” l’innovazione. Le Nazioni Unite hanno chiesto una moratoria. Sui sistemi di intelligenza artificiale (AI) che minacciano i diritti umani. Tra cui la tecnologia di riconoscimento facciale. Una moratoria fino a quando non ci saranno adeguate misure. Per combattere le violazioni. L’appello arriva dall’alto commissario dell’Onu. Michelle Bachelet ha avvertito che le tecnologie AI possono avere “effetti negativi”. Anche “catastrofici”. Se vengono utilizzate male. Cioè “senza la sufficiente consapevolezza di come possono influenzare i diritti delle persone”. Tra i quali quello alla privacy. Alla libertà di movimento o di espressione. In attesa di nuove valutazioni Bachelet rivolto un appello ai vari governi. Affinché siano introdotte delle moratorie sull’uso di tecnologie. Considerate potenzialmente “ad alto rischio“.Onu

Rapporto Onu

L’Onu ha appena presentando un nuovo rapporto. Nel quale si riconosce “il potere dell’intelligenza artificiale nel prestare servizi alle persone. Tutto ciò è innegabile. Ma lo è anche la capacità della stessa tecnologia di alimentare le violazioni dei diritti umani. Senza che questo abbia visibilità”. Per Bachelet, dunque, “è necessario, in tema di diritti umani, agire ora. Per mettere dei paletti all’Intelligenza Artificiale (AI). Per il bene di tutti noi”. Il rapporto è stato richiesto dal Consiglio dei Diritti Umani delle Nazioni Unite. E mette in evidenza come i Paesi e le imprese hanno spesso implementato frettolosamente queste tecnologie. Senza valutare adeguatamente come funzionino e quale impatto potrebbero avere.Onu

Lavoro e servizi

I sistemi di intelligenza artificiale, ad esempio, sono utilizzati per determinare chi ha accesso ai servizi pubblici. Nelle fasi di reclutamento del lavoro. O per analizzare l’impatto di specifiche informazioni online. Studiando cosa gli utenti vedono e condividono. Allo stesso modo, il rapporto delle Nazioni Unite ha denunciato le conseguenze per le singole persone. Da chi è stato arrestato erroneamente  per un riconoscimento facciale impreciso. A chi si è visto negare benefici e diritti.Onu

Discriminazione

“Il rischio di discriminazione è legato alle scelte prese attraverso sistemi di intelligenza artificiale. Ed è fin troppo reale”, puntualizza Bachelet. Lo studio dell’Onu, inoltre, evidenzia come i sistemi di intelligenza artificiale si basino su grandi set di dati. Con informazioni che vengono raccolte. Condivise. Collegate. E analizzate in modo spesso opaco. Gli stessi set di dati possono poi essere difettosi. Discriminatori. O non aggiornati. E, quindi, possono portare a violazioni dei diritti. Sul riconoscimento facciale il giudizio dell’Onu è ancora più duro. Tali “tecnologie di riconoscimento biometrico a distanza”, infatti, non dovrebbero essere utilizzate negli spazi pubblici. “Fino a quando le autorità non dimostreranno che sono conformi agli standard sulla privacy. E sulla protezione dei dati personali. Oltre a non mostrare problemi significativi di accuratezza o discriminazione”.