Giovedì 21 Novembre 2024

Valutazione dei rischi 'catastrofici' dell'IA da parte di OpenAI

OpenAI ha creato un team e delle linee guida per valutare i rischi catastrofici dell'intelligenza artificiale nei modelli attualmente in sviluppo. Il team valuterà i rischi e fornirà raccomandazioni al responsabile di OpenAI. Il Cda sarà informato e potrà annullare le decisioni.

OpenAI si affida a un team e a delle linee guida per valutare i "rischi catastrofici" dell'intelligenza artificiale nei modelli attualmente in fase di sviluppo. Un mese dopo che il consiglio di amministrazione della società aveva licenziato il Ceo Sam Altman, ma poi lo aveva riassunto dopo le proteste di dipendenti e investitori, OpenAI ha dichiarato: "Crediamo che lo studio scientifico sui rischi catastrofici derivanti dall'intelligenza artificiale sia ben al di sotto di dove debba essere". Per questo motivo, le linee guida aiuteranno "a colmare questa lacuna". Secondo i media statunitensi, i membri del Cda della società avevano criticato Altman per aver favorito lo sviluppo accelerato di OpenAI Il team di monitoraggio e valutazione si concentrerà sui modelli in fase di sviluppo e assegnerà un livello di rischio, da "basso" a "critico", in quattro categorie principali. Possono essere utilizzati solo i modelli con un punteggio di rischio pari o inferiore a "medio". La prima categoria riguarda la sicurezza informatica e la capacità del modello di effettuare attacchi informatici su larga scala. Il secondo misura la propensione del software a contribuire alla creazione di una miscela chimica, di un virus o di un'arma nucleare. La terza categoria riguarda il potere persuasivo del modello, ovvero la misura in cui può influenzare il comportamento umano. L'ultima categoria di rischio riguarda la potenziale autonomia del modello, in particolare se può sfuggire al controllo dei programmatori che lo hanno creato Una volta identificati i rischi, questi verranno sottoposti al Safety Advisory Group di OpenAI, l'organismo che formulerà raccomandazioni da sottoporre ad Altman o a una persona da lui nominata. Il responsabile di OpenAI deciderà quindi eventuali modifiche da apportare a un modello per ridurre i rischi associati. Il consiglio di amministrazione sarà informato e potrà annullare una decisione. (ANSA-AFP).