Giovedì 19 Dicembre 2024
FRUZSINA SZIKSZAI
Tech

Come riconoscere le truffe con l’IA: quali sono e cosa fare

Dal phishing alla sextortion, l’intelligenza artificiale ha raffinato le tecniche per effettuare raggiri. Vittime anche personaggi famosi come Rishi Sunak

Roma, 24 febbraio 2024 – L’intelligenza artificiale è una delle innovazioni tecnologiche più intriganti dei nostri tempi. L’IA è uscita dai laboratori e dai film di fantascienza ed è entrata nelle nostre case. Ma come succede spesso con gli strumenti avanzati, anche l’intelligenza artificiale è un’arma a doppio taglio: il suo potenziale infinito è tanto promettente quanto spaventoso, e quando finisce nelle mani dei truffatori diventa anche molto pericoloso. 

È allarme per le truffe online con l'Intelligenza artificiale
È allarme per le truffe online con l'Intelligenza artificiale

Le truffe con l’IA

Con l’aiuto dell’IA, i malfattori del mondo digitale possono sviluppare immagini, video, testi e audio falsi, imitando lo stile e le caratteristiche di potenzialmente qualsiasi persona. I cosiddetti deepfake ingannano facilmente i non esperti, ma spesso sono difficili da riconoscere pure per i software dedicati alla loro individuazione. Infatti, secondo uno studio elaborato da Zeyu Lu, scienziato informatico dell’Università Jiao Tong di Shanghai, anche il programma più performante in questo campo verrebbe ingannato nel 13% dei casi analizzati, indicando come ‘vere’ immagini in realtà realizzate tramite l’IA.

Il phishing con l’IA

Le truffe realizzate con questa tecnologia hanno mille facce. Forse il tipo più comune e semplice da realizzare è il phishing. Si tratta di una truffa attraverso la quale un malintenzionato si finge un ente affidabile per convincere la vittima a fornire informazioni personali, dati finanziari o codici di accesso. Le mail di phishing finora non erano troppo difficili da riconoscere: di solito l’indirizzo e-mail del mittente è ‘strano’ e il messaggio è pieno di errori linguistici o formali. Ma grazie all’IA, oggi si possono generare modelli di phishing molto più convincenti, che sembrano autentici a tutti gli effetti. Perciò è sempre importante controllare il link contenuto nel messaggio prima di cliccarci, per capire se indica un servizio esistente del mittente.

Foto, video falsi con l’IA

Oggi, però, i truffatori possono avvalersi non solo di testi, ma anche di immagini e video falsi. Dando in pasto all’IA immagini di persone realmente esistenti, ad esempio foto caricate sui social media, è possibile generare nuove immagini che non sono mai state scattate ma che danno l’impressione di essere vere.

Pubblicità truffa con l’IA

Le foto e i filmati così creati poi possono essere utilizzati in una varietà di modi: il viso e la voce di un personaggio famoso può essere impiegato per realizzare pubblicità per truffa dell’investimento online o campagne di give-away fraudolenti. Una delle ultime vittime è Rishi Sunak, il primo ministro del Regno Unito, che in un video realizzato con l’IA sosteneva un’app di trading di Elon Musk, incoraggiando i cittadini a ‘investire’. Ma ad essere esposti a truffe del genere non sono solo i personaggi famosi.

Approfondisci:

Microsoft scopre falla nell’AI che permette di generare immagini vietate

Microsoft scopre falla nell’AI che permette di generare immagini vietate

Sextortion con l’IA

È sempre più comune anche il fenomeno della sextortion facilitata dall’IA, che permette ai criminali di generare immagini compromettenti della vittima per poi ricattarla con esse. Queste foto, di solito, sono facili da riconoscere come false, ma a volte se è disponibile abbastanza materiale visivo adeguato, è possibile persino aggiungere una stanza o un ambiente familiare.

Le truffe telefoniche con l’IA

Infine, ultimamente è stato osservato un aumento anche delle truffe telefoniche realizzate con l’aiuto dell’intelligenza artificiale. Bastano dei campioni vocali registrati della persona interessata, ricavabili ad esempio da telefonate o video pubblicati sui social, e si può ricreare la lingua parlata in modo tale che la voce sintetizzata possa essere facilmente scambiata per quella vera.

Chi sono le vittime

Le vittime sono spesso genitori o nonni: i truffatori clonano la voce dei figli o dei nipoti che nella telefonata o nel messaggio vocale chiedono soldi per un’emergenza, sono stati coinvolti in un incidente fittizio o sono stati rapiti.

Il caso

È il caso, ad esempio, di una donna pesarese che ha ricevuto un audio preoccupante da suo ‘figlio’: "Mamma, ho perso portafogli e cellulare, ora non posso chiamarti, riesco solo a mandarti questo vocale dal cellulare di un amico. Ho bisogno di soldi, poi ti spiego meglio, però ti prego, fammi subito un bonifico istantaneo, ho pochi minuti, ti giro l’Iban, appena posso ti dico cosa mi è successo".

Cosa fare

Secondo le autorità, la cosa migliore da fare in queste situazioni è chiudere subito le chiamate strane o inquietanti che fingono un problema di un parente o amico, e provare a contattare la persona in questione tramite un altro canale – in caso di dubbi, anche la polizia.