Sabato 19 Ottobre 2024

Insieme per fare Luce! sul futuro: "Intelligenza artificiale sì, ma etica"

Oggi a Firenze la quarta edizione del Festival organizzato dal nostro giornale nel segno dell’inclusione

Insieme per fare Luce! sul futuro: "Intelligenza artificiale sì, ma etica"

Oggi al Festival Luce! Francesca Vecchioni, presidente di Fondazione Diversity

di Teresa Scarcella

È possibile un utilizzo etico e inclusivo dell’Intelligenza Artificiale? Evitare che lo strumento tecnologico vada ad ampliare quelle discriminazioni di cui la società è già colma? È questo il grande quesito di oggi. La quarta edizione del Festival di Luce! che si tiene oggi a Palazzo Vecchio gira intorno a questo tema. Secondo Ruben Razzante, professore di Diritto dell’informazione, non solo è possibile, ma è strettamente necessario. Ne parlerà oggi a Firenze, dal palco del Festival, ma in qualità di consulente della Commissione straordinaria del Senato per il contrasto all’odio e alla violenza, presieduta da Liliana Segre, si è già occupato del tema delle discriminazioni generate dall’IA, su sollecitazione della stessa senatrice che ha avanzato la proposta pochi giorni fa. "Ho scritto un emendamento all’art.3 del ddl governativo sull’IA, che è stato condiviso con gli altri consulenti della commissione e consegnato ai parlamentari membri della commissione – spiega Razzante – nel quale chiediamo un’attenzione particolare da parte dei soggetti pubblici e privati al tema dell’uguaglianza nell’utilizzo dell’intelligenza artificiale, con particolare riferimento all’odio razzista e antisemita".

Il passo successivo sarà focalizzarsi su come gli algoritmi possono contribuire ad affermare il principio di uguaglianza e contrastare le disuguaglianze e le discriminazioni e quindi a ispirarsi a un principio etico. Ma facciamo un passo indietro. "Il disegno di legge del governo, presentato e approvato dal Consiglio dei ministri il 22 aprile e attualmente in discussione al Senato, nei primi articoli già evidenzia la necessità di un utilizzo trasparente e, diciamo corretto, dell’Intelligenza Artificiale – spiega Razzante –. Però, secondo noi consulenti della commissione, era importante inserire anche un riferimento specifico, per cui abbiamo proposto di modificare l’articolo 3 inserendo due cose, ovvero: che gli algoritmi vengano addestrati proprio in funzione del contrasto dei fenomeni di intolleranza, razzismo, antisemitismo e istigazione all’odio e alla violenza; e che l’utilizzo dei sistemi di IA venga orientato alla valorizzazione delle diversità. Non è banale. Il primo soggetto ad essere responsabilizzato è il governo, chiamato a modificare il disegno di legge. La seconda responsabilità è quella dei produttori di soluzioni di intelligenza artificiale che non devono badare solo all’efficienza tecnologica, ma anche all’ispirazione etica".

Tradotto in termini pratici, i colossi del web dovranno "porsi il problema di rendere facilmente riconoscibili questi contenuti pericolosi, quindi eliminabili in maniera pressoché automatica e fare in modo che le soluzioni che l’intelligenza artificiale ci restituisce, siano il più possibile pluraliste e quindi non inquinate da pregiudizi. Questa è la grande battaglia". Da combattere soprattutto ai piani alti. È ovvio che spetta alle organizzazioni internazionali, ai governi, all’Unione Europea a mettere nero su bianco delle regole e, poi, verificare che vengano rispettate. "Per raggiungere questo obiettivo credo sia fondamentale un altro tassello, cioè la democratizzazione del dibattito sull’intelligenza artificiale – conclude il docente – far capire ai cittadini che l’IA è una nuova dimensione digitale nella quale tutti quanti noi siamo immersi. Serve educazione digitale. Io mi aspetto che questo governo faccia altre azioni di sensibilizzazione per spiegare ai cittadini quanto è importante usare bene l’intelligenza artificiale".

Dello stesso avviso è anche Francesca Vecchioni, presidente di Fondazione Diversity, anche lei ospite del Festival di Luce!. "L’intelligenza artificiale è bidirezionale: inserisci delle informazioni e ti ritornano indietro. Si nutre delle informazioni che le diamo e da quelle dipende il prodotto finale – afferma Vecchioni – gli algoritmi di base, nel modo in cui noi abbiamo iniziato a impostarli e nel modo in cui noi continuiamo a nutrirli, possono contenere i nostri bias, i nostri errori. Ma l’IA impara dagli errori, quindi potremmo anche avvisarla della loro presenza e dell’attenzione che deve porre, e così riequilibrare in qualche modo. La vera domanda allora è: se l’IA è prodotta da noi, quanto riesce a essere razionale? Se lo fosse davvero, se riuscissimo a toglierle i pregiudizi, significherebbe costruire un’equità. Dobbiamo lavorare per arrivare a questo".