Mercoledì 12 Febbraio 2025
MICHELA PICCINI
Tech

Sophos, esperti preoccupati per l'impatto negativo della GenAI sulla cybersicurezza

Dall'ultima ricerca “Beyond the Hype: The Businesses Reality of AI for Cybersecurity” emerge come l'89% dei responsabili IT teme che le falle dell’Intelligenza Artificiale generativa possano avere un impatto negativo

Chester Wisniewski, director and global field CTO, Sophos

Chester Wisniewski, director and global field CTO, Sophos

Le falle dell’intelligenza artificiale generativa spaventano sempre di più i professionisti della cybersicurezza. Con l'ultimo modello di GenAI DeepSeek che sta sconvolgendo l'attuale mercato dell'IA, i dati emersi dalla ricerca “Beyond the Hype: The Businesses Reality of AI for Cybersecurity, a cura degli esperti di Sophos, innovatore nelle soluzioni di sicurezza avanzate per neutralizzare i cyberattacchi, mettono in luce alcune p

L'indagine analizza le implicazioni dell'utilizzo della AI nell'ambito della sicurezza informatica secondo 400 responsabili IT: dai risultati emerge che, nonostante le funzionalità di intelligenza artificiale generativa (GenAI) siano state adottate dal 65% del campione, l'89% degli intervistati teme che le vulnerabilità presenti nei tool di cybersicurezza AI possano mettere a rischio la protezione delle rispettive aziende. Inoltre, mentre il 99% dei responsabili IT ha citato “le funzionalità IA come requisito rilevante nella scelta di una piattaforma di cybersecurity”, non è chiaro se abbiano le competenze necessarie per farlo in modo efficace.

“La natura open source di DeepSeek consente la libera esplorazione delle sue funzionalità e potenzialità sia da parte dei cybercriminali che dei semplici appassionati - spiega Chester Wisniewski, director and global field CTO, Sophos -. Come nel caso di Llama, è possibile “giocarci” e rimuovere in larga misura le barriere di sicurezza. Questo potrebbe portare ad abusi da parte dei criminali informatici, anche se è importante notare che l'esecuzione di DeepSeek richiede comunque molte più risorse e competenze di quelle di cui dispone il criminale informatico medio”.

Con la tecnologia AI integrata in una qualche forma all'interno delle infrastrutture di cybersicurezza del 98% delle aziende interpellate, i responsabili IT hanno espresso i loro timori verso un'eccessiva dipendenza dalla AI: l'87% degli intervistati si è infatti dichiarato preoccupato rispetto alla conseguente assenza di responsabilità nei confronti della sicurezza informatica. A complicare la questione, inoltre, è la preoccupazione segnalata dall'84% degli intervistati nei confronti della pressione verso la riduzione dei professionisti assegnati alla cybersicurezza come conseguenza di aspettative irrealistiche circa la capacità della AI di rimpiazzare gli operatori umani. Un’AI che molti pensano possa costare meno di un professionista, ma di fatto è difficile quantificare i costi della GenAI, soprattutto all'interno dei prodotti per la cybersicurezza, come concorda il 75% dei responsabili IT.

Le aziende si attendono quindi dei risparmi dalla GenAI, ma l'80% degli intervistati ritiene invece che aumenterà significativamente il costo dei tool per la cybersicurezza e che non ne ridurrà la spesa complessiva per le aziende. Secondo poi un'altra nuova ricerca pubblicata da Sophos X-Ops, “Cybercriminals Still Not Getting on Board the AI Train (Yet)”, si è verificato un lieve ma significativo cambiamento nel modo in cui i cybercriminali utilizzano la AI. Dopo aver monitorato alcuni forum underground, Sophos X-Ops ha infatti rilevato come, nonostante permanga un certo scetticismo nei confronti della GenAI, alcuni criminali la stiano sfruttando per automatizzare attività di routine come la preparazione dei messaggi di mass mailing e l'analisi dei dati; altri, invece, hanno integrato la tecnologia nei toolkit usati per spam e social engineering.

“Dato il costo ridotto, probabilmente vedremo diversi prodotti e aziende adottare DeepSeek, con potenziali rischi significativi per la privacy - conclude Wisniewski -. Come per qualsiasi altro modello di intelligenza artificiale, sarà fondamentale per le aziende effettuare una valutazione approfondita del rischio, che si estenda a tutti i prodotti e i fornitori che possono incorporare DeepSeek o a qualsiasi futuro LLM.

Devono inoltre essere certe di avere le giuste competenze per prendere una decisione informata. Le potenzialità di questi strumenti per accelerare i workload della sicurezza sono fantastiche, ma per poterne concretizzare i benefici occorrono sempre contesto e comprensione da parte di supervisori umani”. Michela Piccini