Dopo le polemiche legate all'IA di Microsoft Designer, utilizzata per creare false immagini di nudo di Taylor Swift, il colosso tecnologico si trova nuovamente sotto i riflettori. Shane Jones, ingegnere di intelligenza artificiale di Microsoft, ha sollevato preoccupazioni su una vulnerabilità nel modello di generazione di immagini Dall-E 3 di OpenAI, principale investitore della società. Questo modello è impiegato anche dal chatbot Copilot, e secondo Jones, presenta rischi per la sicurezza.
Scoperta della vulnerabilità
Jones afferma di aver scoperto la falla nel modello Dall-E 3 all'inizio di dicembre, segnalando tempestivamente il problema alla direzione di Microsoft. Tuttavia, non avendo ricevuto risposta, ha deciso di rendere pubblico l'incidente attraverso un post su LinkedIn. Solo in seguito a questa pubblicazione, Microsoft ha contattato Jones, chiedendo la rimozione del post.
Potenziali rischi di sicurezza
Secondo quanto riportato da Engadget, le falle individuate nel modello Dall-E 3 potrebbero costituire una minaccia per la sicurezza. Jones sollecita la rimozione dell'accesso pubblico a questo modello, soprattutto quando utilizzato in strumenti come Bing Image Creator, poiché gli utenti potrebbero aggirare le protezioni dell'IA e creare contenuti dannosi.
La risposta di Microsoft
Un portavoce di Microsoft ha dichiarato a Engadget che l'azienda si impegna ad affrontare le preoccupazioni dei dipendenti in conformità con le politiche aziendali. Hanno sottolineato l'importanza dei canali interni di segnalazione e hanno consigliato a Jones di utilizzarli per convalidare e testare le sue preoccupazioni prima di divulgarle pubblicamente. Microsoft ha anche menzionato che il suo Office of Responsible AI ha creato uno strumento di reporting apposito per consentire ai dipendenti di segnalare eventuali timori legati ai modelli di intelligenza artificiale.
L’azienda di Redmond ha comunque recentemente implementato un aggiornamento significativo al suo strumento di intelligenza artificiale, Designer, al fine di prevenire l'abuso del software nella creazione di immagini false e inappropriate.
L'episodio sollevato da Shane Jones mette in evidenza l'importanza di affrontare prontamente le preoccupazioni legate alla sicurezza dell'AI. Mentre Microsoft si impegna a gestire le preoccupazioni dei dipendenti, rimane da vedere come affronteranno la vulnerabilità segnalata nel modello Dall-E 3 e quali misure adotteranno per garantire la sicurezza dei propri servizi basati sull'intelligenza artificiale. Restiamo in attesa di ulteriori sviluppi su questa delicata questione.