Algoritmi e immagini online: specchi nascosti dei “bias” di genere 

Gli algoritmi di intelligenza artificiale possono veicolare “bias” e pregiudizi di genere. Un nuovo studio dimostra che le immagini lo fanno più delle parole

Il CEO di un’azienda. Una persona che piange in ufficio. Nel primo caso pensiamo a un uomo e nel secondo a una donna: la mente produce l’immagine in automatico, prima di realizzare che non è possibile presupporre il sesso dei soggetti in questione. Si tratta di “bias” o pregiudizi di genere, cioè errori sistematici di giudizio tipici non solo degli esseri umani ma anche degli algoritmi di intelligenza artificiale. Digitando infatti “CEO di un’azienda” su un motore di ricerca per immagini, la maggior parte dei risultati raffigura uomini bianchi in giacca e cravatta. Cercando “persona che piange in ufficio” appaiono invece perlopiù donne bionde ed eleganti con la faccia tra le mani.  

Un nuovo studio pubblicato su Nature e condotto da un team internazionale mostra che le immagini online perpetuano e rafforzando i “bias” di genere, anche più delle parole. “La maggior parte delle ricerche precedenti riguardo i pregiudizi su Internet si concentrava sulla parola scritta, ma ora abbiamo Google Immagini, TikTok, Youtube, Instagram: tutti tipi di contenuti basati su modalità diverse dal testo”, ha dichiarato a Phys.org Solène Delecourt, professoressa associata all’Università della California e una delle autrici dello studio. “La nostra ricerca suggerisce che la portata dei pregiudizi online è molto maggiore di quanto mostrato in precedenza”. Addirittura, i “bias” di genere sembrano essere quattro volte maggiori nelle immagini rispetto che nel testo

Photo by Markus Spiske on Pexels.com

Algoritmi di intelligenza artificiale

Un algoritmo è una sequenza di istruzioni ben definite che servono a risolvere i problemi, dai più semplici ai più complessi. Al giorno d’oggi lo sviluppo di algoritmi innovativi è legato al settore dell’intelligenza artificiale che, secondo il Parlamento Europeo, è “l’abilità di una macchina di mostrare capacità umane come il ragionamento, l’apprendimento, la pianificazione e la creatività”. Gli algoritmi di intelligenza artificiale ci consentono, ad esempio, di avere automobili a guida autonoma o il feed dei social media adatto ai nostri interessi.

Algoritmi e discriminazioni

Ma cosa succede se sbagliano?
Certo, se l’errore è consigliare un film su Netflix che non desideriamo vedere, forse non è poi così grave, ma se invece lo sbaglio consiste nello scartare tutti i curriculum delle donne? È quello che è successo ad Amazon. Nel 2014, l’azienda aveva sviluppato un algoritmo per selezionare i curriculum dei candidati, peccato che il software fosse discriminatorio nei confronti del genere femminile. Il sistema era infatti disegnato per associare i profili dei candidati con le tipologie di persone che avevano occupato quella posizione negli ultimi dieci anni, che erano perlopiù uomini. Insomma, l’algoritmo, nella scelta, considerava anche i “bias” di genere, perpetuandoli e compiendo una vera e propria discriminazione sessista.  

Molti i casi analoghi saliti alle cronache. Nel 2017, la studentessa nera del MIT di Boston Joy Buolamwini lavorava a un software di analisi dei volti quando si è resa conto che il sistema non riconosceva il suo viso. Indagando, ha realizzato che il grado di errore della tecnologia per gli uomini bianchi era solo dello 0,8% mentre quando si trattava di donne nere saliva anche al 20 o al 34%. “Spesso insegniamo alle macchine a vedere con set di apprendimento o esempi di ciò che desideriamo che imparino. Ad esempio, se voglio che veda un volto, fornirò alla macchina molti visi. Ho iniziato ad analizzare i dati e ho scoperto che molti set contengono soprattutto uomini e persone con la pelle chiara. Per forza il sistema non riconosceva bene facce come la mia!”, ha affermano Buolamwini nel documentario Netflix “Coded Bias”. In questo caso l’algoritmo compie una discriminazione sia sessista che razzista, e la selezione delle foto svolge un ruolo fondamentale.  

Joy Buolamwini. Fonte: https://oii.ox.ac.uk/news-events/black-heroes-of-the-internet-joy-buolamwini/.

Pregiudizi e immagini online

Le immagini sono un modo particolarmente potente per comunicare i pregiudizi di genere. Nessuno aveva mai dimostrato in modo così evidente la correlazione prima”, ha dichiarato a Phys.org Douglas Guilbeaut, professore associato all’Università della California e primo autore del nuovo studio pubblicato su Nature. L’esperimento è consistito nell’estrarre 3495 categorie sociali (per esempio: dottore, falegname, amico) dal database di parole WordNet, e nel selezionare le prime cento foto corrispondenti a ogni categoria su Google Immagini. Alcuni partecipanti alla ricerca hanno poi associato a ogni immagine un genere. Altri soggetti hanno invece cercato quante volte ciascuna categoria sociale era presente nei testi di Google News insieme a riferimenti al maschile o al femminile

I risultati hanno evidenziato che nelle immagini c’erano più associazioni al genere, e che la maggior parte delle correlazioni riguardavano quello maschile. Secondo gli autori dello studio, è infatti più semplice rendere neutro un testo, mentre le immagini delle persone trasmettono intrinsecamente informazioni razziali, di genere o demografiche difficili da eliminare. Gli scienziati hanno inoltre messo in luce che le rappresentazioni visive non solo veicolano maggiormente i “bias” di genere ma anche amplificano quelli presenti nelle persone esposte ad esse. Il gruppo di soggetti che aveva valutato le immagini durante lo studio, infatti, a tre giorni dall’esperimento mostravano dei pregiudizi di genere più forti rispetto a prima.  

Questo fenomeno potrebbe essere un problema per il benessere e l’emancipazione sociale delle donne, sistematicamente sottorappresentate nelle immagini.

Photo by Edward Jenner on Pexels.com

D’altronde, scrive Andrea Signorelli sul “Tascabile“, “gli algoritmi predittivi di intelligenza artificiale vengono impiegati per rafforzare il sistema in cui siamo immersi, non per aiutarci a cambiare ciò che in questo modello non funziona”.

Secondo gli autori dello studio, “affrontare l’impatto sociale di questa crescente cultura visiva sarà essenziale per costruire un mondo online equo e inclusivo”. E “la ricerca apre le porte a molte altre indagini su stereotipi di genere nelle immagini su Internet”. Insomma, si sta compiendo un primo passo per rendere le rappresentazioni visive sul web uno specchio fedele della diversità e della ricchezza delle esperienze umane. 

Per approfondire, consiglio:

“Coded Bias”, Netflix (2020).
Donata Columbro, “Dentro l’algoritmo”, Effequ (2022). 
Donata Columbro, “Quando i dati discriminano”, Il Margine (2024) – che non ho ancora letto, ma consiglio sulla fiducia.
Catherine D’Ignazio & Lauren F. Klein, “Data Feminism“, The MIT Press (2020).
In generale, il Data Book Club di Elena Canovi e Donata Columbro.

Lascia un commento