Onu: “L’intelligenza artificiale ha pregiudizi contro le donne”

Algoritmi IA GPT-3.5 e Llama 2 di OpenAI e Meta associati a pregiudizi di genere, rivelando stereotipi sessisti sulle donne

Intelligenza artificiale. Immagine di repertorio. Foto di Possessed Photography su Unsplash

Uno studio dell’Unesco evidenzia pregiudizi di genere negli algoritmi di intelligenza artificiale di OpenAI e Meta, utilizzati in strumenti popolari come ChatGPT. I modelli, addestrati su grandi dataset web, mostrano tendenze sessiste: nomi femminili sono associati a stereotipi domestici, mentre quelli maschili a carriere. GPT-3.5 di OpenAI risulta meno parziale, ma gli altri modelli, come Llama 2 di Meta e GPT-2, mostrano chiari pregiudizi.

Onu: “L’intelligenza artificiale genera contenuti sessisti”

Gli strumenti di intelligenza artificiale più popolari al mondo sono alimentati da programmi di OpenAI e Meta che mostrano pregiudizi contro le donne: lo afferma uno studio pubblicato oggi dall’Unesco. I più grandi attori nel campo multimiliardario dell’intelligenza artificiale ‘addestrano’ i loro algoritmi su grandi quantità di dati in gran parte estratti da Internet, che consentono ai loro strumenti di scrivere nello stile di Oscar Wilde o creare immagini ispirate a Salvador Dalì, osserva lo studio. Ma i loro risultati sono stati spesso criticati perché riflettono stereotipi razziali e sessisti, così come per l’utilizzo senza permesso di materiale protetto da copyright.

Gli esperti dell’Unesco hanno testato l’algoritmo Llama 2 di Meta e GPT-2 e GPT-3.5 di OpenAI, il programma che alimenta la versione gratuita del popolare chatbot ChatGPT. Lo studio ha rilevato che ciascun algoritmo – noto nel settore come Large Language Models (Llm) – mostrava “prove inequivocabili di pregiudizio contro le donne”. In particolare, i programmi generavano testi che associavano i nomi delle donne a parole come “casa”, “famiglia” o “bambini”, ma i nomi degli uomini erano collegati ad “affari”, “stipendio” o “carriera”. Inoltre, mentre gli uomini venivano ritratti in lavori di alto rango come insegnanti, avvocati e medici, le donne erano spesso prostitute, cuoche o domestiche. GPT-3.5 è risultato meno parziale rispetto agli altri due modelli. Tuttavia, gli autori hanno elogiato Llama 2 e GPT-2 per essere open source, consentendo di esaminare attentamente questi problemi, a differenza di GPT-3.5, che è un modello chiuso.

Fonte: Ansa