Lunedì 10 Febbraio 2025
NINO FEMIANI
Cronaca

L’esperto di Intelligenza artificiale: “Così si possono evitare i rischi di truffa”

Brozzetti (Luiss): “Era inevitabile che qualcuno usasse i deepfake per fare truffe. Per fortuna la tecnologia progredisce anche sul fronte della sicurezza”

Roma, 10 febbraio 2025 – “Abbiamo imparato a non accettare caramelle dagli estranei, a non far entrare in casa sedicenti operatori del gas o della rete telefonica, a non rispondere a sms d’aiuto da parte di numeri sconosciuti. Impareremo anche a soppesare meglio una chiamata o videochiamata in cui ci viene chiesto di effettuare un bonifico in quattro e quattr’otto anche se proviene da persona conosciuta”. Filiberto Brozzetti, assistant professor of AI, Law and Ethics alla Università Luiss, tra i massimi esperti italiani sulle prospettive dell’intelligenza artificiale, non sembra sgomento per la truffa perpetrata, nel nome del ministro Crosetto, ai danni del gotha imprenditoriale d’Italia.

Truffa con la voce del ministro Crosetto grazie all’uso dell’intelligenza artificiale
Come evitare le truffe con l'intelligenza artificiale

Crede che questo tipo di inganno fosse prevedibile?

“Il deepfake, che replica l’aspetto o il tono della voce di un individuo, è una tecnologia nota già da qualche anno, che presto o tardi qualcuno l’avrebbe usata a scopo truffaldino più che prevedibile era inevitabile”.

C’è il rischio che diventiamo eccessivamente scettici verso ogni conversazione o contenuto audio/video, dubitando della loro autenticità?

“Siamo diventati più prudenti ogni volta che una nuova tecnologia – ma anche nuove pratiche sociali – ci ha esposto a rischi inediti, conoscendo i quali abbiamo imparato a essere più diffidenti. Proprio la prudenza ci ha insegnato a distinguere prodotti genuini e innocui da altri artefatti per raggirarci”.

1550840335572
Filiberto Brozzetti, assistant professor of AI, Law and Ethics alla Università Luiss, tra i massimi esperti italiani sulle prospettive dell’intelligenza artificiale

Quali sono, secondo lei, le contromisure più efficaci?

“Esistono già strumenti tecnologici in grado di garantire l’autenticità dei contenuti ed è proprio l’AI che potrebbe riconoscere, attraverso determinati marcatori, una voce o un’immagine contraffatte da un’altra AI. Al momento però non sono a disposizione di tutti. Per adesso possiamo tutelarci mettendo in pratica semplici tattiche d’ingegneria sociale, come chiedere controprove e conferme, di vedersi dal vivo e di parlare di persona, interrompere la chiamata, fare caso a imperfezioni, porre domande molto personali la risposta alle quali è nota solo agli interlocutori. Insomma, fare leva proprio su quegli aspetti così umani e interpersonali da essere irreplicabili da un’AI”.

Approfondisci:

La truffa del finto Crosetto. I consigli della polizia postale: “L’unica difesa è stare attenti”

La truffa del finto Crosetto. I consigli della polizia postale: “L’unica difesa è stare attenti”

Come possiamo bilanciare l’innovazione nell’intelligenza artificiale con la necessità di una regolamentazione etica che prevenga abusi come quelli del ’caso Crosetto’?

“Non credo siano necessarie regole ulteriori rispetto a quelle che già disciplinano gli illeciti o i reati. L’AI rappresenta certamente un’innovazione sistemica e trasversale, ma tutta questa enfasi sull’etica rischia di diventare un distrattore rispetto all’obiettività e anche al buon senso che dovremmo usare davanti alle applicazioni particolari delle nuove tecnologie, senza fare della retorica”.

Quali sono, a suo avviso, le conseguenze a lungo termine di questi episodi di manipolazione digitale sulla fiducia pubblica e sulla percezione della realtà?

“Gli utenti, i consumatori accolgono, assorbono, si abituano a nuove tecniche e costumi molto prima e in maniera più naturale delle istituzioni. Dovremmo smettere di assumere un atteggiamento paternalistico rispetto a cittadini che pensiamo non sarebbero in grado di comportarsi e tutelarsi in assenza di regole imperative. Potremmo invece cercare di ricalcare nella legge solo le urgenze effettivamente percepite come tali dai suoi destinatari”.

Alla luce di questi eventi, dovremmo aspettarci un aumento di tali attacchi?

“Le applicazioni dell’AI hanno avuto e stanno avendo un’evoluzione esponenziale. Ciò comporta un effetto moltiplicatore del rischio, ma perché ne saremo molto più esposti. Fortunatamente la tecnologia progredisce anche sul fronte della sicurezza, insieme alla consapevolezza. Se gli strumenti intelligenti, più o meno sofisticati, sono e saranno disponibili a tutti, simmetricamente, lestofanti ma anche onesti, possiamo dire che chi di AI ferirà di AI potrà anche perire”.