Nemmeno l'intelligenza artificiale è immune agli stereotipi di genere. Un fenomeno tanto comune nell’essere umano da ‘passare’ poi alla macchina, condizionando inevitabilmente l’algoritmo che la muove. E’ questo il tema della quarta puntata del podcast Luce per ENI intitolata proprio “Intelligenza artificiale e pregiudizi di genere”. Ospite di questa puntata di “AI e Inclusione” è Anna Cataleta, avvocata, advisor dell’Osservatorio del Politecnico di Milano.
Spesso, parlando di nuove tecnologie, ci si appella a un a loro imparzialità di fatto, ma andando oltre l’apparenza è facile vedere che imparziali non sono ed è quindi necessario un senso critico nei loro confronti. Infatti i sistemi di IA per operare vengono addestrati su grandi quantità di dati preesistenti, che possono involontariamente assorbire e perpetuare pregiudizi esistenti nella mentalità di chi ‘insegna’. Partendo dal fatto che gli scienziati che lavorano sull’Ai sono per lo più uomini, può capitare che il riconoscimento vocale sia più efficiente nel rispondere a voci maschili, perché è stato “allenato” con persone di quel genere.
Oppure che i sistemi di generazione artificiale di immagini propongano in prevalenza quelle di uomini tutti molto simili fra loro. Perché la nostra cultura di base ci spinge a questo, a pensare immediatamente all’uomo bianco come modello base. Uno studio del MIT Media Lab a Boston ha dimostrato poi che alcuni algoritmi di riconoscimento facciale hanno tassi di errore significativamente più alti nell’individuare volti femminili con pelle scura rispetto a volti maschili con pelle chiara.
I dati di addestramento, insomma, non sono rappresentativi della diversità della popolazione globale, e questo produce una distorsione nei risultati prodotti dall’IA, che sarà meno portata a dare una rappresentazione diversa o a riconoscerla.
Per contrastare questo fenomeno è essenziale che chi programma adotti un approccio consapevole e inclusivo, monitorando e correggendo i bias nei loro modelli e nei database di addestramento.