Nemmeno l’intelligenza artificiale è immune agli stereotipi di genere. Un fenomeno tanto comune nell’essere umano da ‘passare’ poi alla macchina, condizionando inevitabilmente l’algoritmo che la muove. È questo il tema della quarta puntata del podcast Luce! per Eni intitolata proprio “Superare i gender bias: l’IA alla prova con gli stereotipi di genere” (inquadra il Qr-code per ascoltarlo). Ospite di questa puntata di “AI e Inclusione” è Anna Cataleta, avvocata, advisor dell’Osservatorio del Politecnico di Milano. Spesso, parlando di nuove tecnologie, ci si appella a una loro imparzialità di fatto, ma andando oltre l’apparenza è facile vedere che imparziali non sono ed è quindi necessario un senso critico nei loro confronti. Infatti i sistemi di IA per operare vengono addestrati su grandi quantità di dati preesistenti, che possono involontariamente assorbire e perpetuare pregiudizi esistenti nella mentalità di chi ‘insegna’. M.G.
EconomiaL’IA accetta la sfida dell’inclusione