Lunedì 30 Settembre 2024

La start up Gaia supporta l’UniMc nell’intelligenza artificiale

In un'era dominata dall'evoluzione tecnologica, Gaia, startup dell'Università di Macerata, si pone come guida etico-giuridica per lo sviluppo responsabile dell'Intelligenza Artificiale, offrendo servizi innovativi e consulenza interdisciplinare.

La start up Gaia supporta l’UniMc nell’intelligenza artificiale

In un'era dominata dall'evoluzione tecnologica, Gaia, startup dell'Università di Macerata, si pone come guida etico-giuridica per lo sviluppo responsabile dell'Intelligenza Artificiale, offrendo servizi innovativi e consulenza interdisciplinare.

IN UN’ERA DOMINATA dall’evoluzione tecnologica e dall’espansione dell’intelligenza artificiale, l’importanza di una guida etico-giuridica è più rilevante che mai. Pensare agli impatti sociali delle tecnologie sin dalle fasi iniziali di progettazione e sviluppo rappresenta il modo migliore per garantire un utilizzo affidabile, responsabile e in linea con le normative nazionali ed europee. Molti dei rischi associati alla tecnologia digitale possono, infatti, essere efficacemente mitigati a partire della fase di design: non sempre è possibile intervenire quando il prodotto è già in uso e gli impatti negativi si sono già manifestati. È in questo contesto che nasce Gaia, startup innovativa spinoff dell’Università di Macerata, che riconosce la necessità di integrare considerazioni etico giuridiche in ogni fase del processo di sviluppo dell’Intelligenza artificiale. L’obiettivo principale è assicurare la progettazione e l’uso di soluzioni di IA in modo da prevenire e minimizzare i rischi sociali, etici e giuridici.

A spiegare Gaia è la professoressa Benedetta Giovanola (nella foto sopra) presidente della società e docente dell’Università di Macerata: "Gaia è una start up innovativa e spin off dell’Università di Macerata nata nel 2023 per offrire prodotti e servizi in materia di etica e governance dell’intelligenza artificiale. La mission di Gaia è assicurare una progettazione, uno sviluppo e un utilizzo affidabili dei sistemi di Intelligenza artificiale (IA), in conformità a principi etici e ai framework normativi di riferimento, così da promuovere fiducia sociale e sostenibilità nel settore dell’IA. Si tratta di un progetto è fortemente innovativo e in linea con le principali iniziative a livello internazionale in materia di ethics by design, value-sensitive design e compliance giuridica dei sistemi di IA e ora tanto più necessario in considerazione dell’entrata in vomire dell’AI Act".

Da chi è composto il team?

"Il nostro team è caratterizzato da una forte interdisciplinarietà e complementarietà: è composto da filosofi esperti di etica dell’intelligenza artificiale, giuristi e ingegneri informatici e biomedici (computer scientists), docenti e ricercatori universitari con un solido background internazionale in termini sia di ricerca, sia di trasferimento tecnologico e impatto sociale, incluse collaborazioni con organizzazioni pubbliche e private su scala nazionale e internazionale. Il nostro team offre tutte le competenze necessarie in modo integrato e fa di GAIA un interlocutore capace di produrre un punto di vista affidabile e testato nei principali contesti di riferimento, anche a livello internazionale, sulla rispondenza dei sistemi di IA sviluppati dai nostri clienti rispetto a requisiti di robustezza tecnica, etica e giuridica".

In quali ambiti intervenite?

"Occupandoci di sistemi di intelligenza artificiale, interveniamo in tutti gli ambiti e settori che ne fanno uso, dal settore pubblico a quello privato. In particolare, abbiamo una consolidata esperienza nei settori healthcare, education, fashion, human resources, ICT".

Ci può spiegare i servizi che erogate?

"I nostri servizi consistono nell’assistenza e supporto a soggetti pubblici e privati coinvolti nella progettazione, sviluppo e utilizzo di prodotti e servizi basati su sistemi di intelligenza artificiale (IA) e anche nell’offerta di prodotti e servizi innovativi ad alto valore tecnologico, volti a garantire la compliance etica e giuridica dei sistemi di IA, a beneficio delle persone e della società. In particolare offriamo ai nostri clienti una soluzione molto innovativa di valutazione semi-automatica dell’affidabilità etica e giuridica dei sistemi di IA: si tratta di una piattaforma di valutazione cloud per la gestione dei rischi IA, ovvero per l’assessment dell’impatto etico e sui diritti fondamentali dei sistemi di IA; offriamo inoltre attività tailor-made di consulenza e formazione per accrescere la consapevolezza nel campo dell’IA all’interno di aziende e organizzazioni, ispirandoci ai principi di un’IA sostenibile, eticamente e socialmente robusta e aderente alle più recenti normative di riferimento. Da ultimo, supportiamo le organizzazioni pubbliche e private nell’elaborazione e nell’adozione di linee guida per un design e un utilizzo consapevole dei sistemi di IA".

Quali sono gli sviluppi per il vostro progetto nato un anno fa?

"Prevediamo sviluppi significativi delle nostre attività in termini sia di diffusione della nostra piattaforma di valutazione, sia di servizi di formazione e consulenza, anche in considerazione della crescente sensibilità per il tema dell’etica dell’intelligenza artificiale e dell’entrata in vigore dell’IA Act, che sta già comportando modifiche sostanziali sopratutto per il design e lo sviluppo dei sistemi di IA. Siamo interessanti a investimenti e partnership industriali che ci consentano di crescere e all’espansione sul mercato internazionale. Su questo ultimo versante abbiamo di recente partecipato a un importante evento SMAU a San Francisco, volto proprio a promuovere sinergie con l’ecosistema dell’innovazione della baia di San Francisco e della Silicon Valley".