Allarme cybersecurity: un nuovo studio condotto dalla Columbia University e dall’Università di Chicago rivela che oltre la metà delle spam e-mail a livello globale è generata tramite intelligenza artificiale. Questo fenomeno segna un punto di svolta nell’evoluzione delle minacce informatiche, con i criminali che sfruttano le potenzialità dell’AI per condurre campagne massive, lasciando però gli attacchi mirati come il Business Email Compromise (BEC) ancora prevalentemente gestiti manualmente.
La ricerca, che si basa sui dati raccolti da Barracuda Networks tra febbraio 2022 e aprile 2025, mostra che il 51% delle email indesiderate nel mondo viene creato tramite sistemi di AI. Tuttavia, solo il 14% degli attacchi BEC utilizza tali tecnologie, poiché questi richiedono un alto livello di personalizzazione che ancora oggi necessita di un intervento umano significativo. Gli esperti indicano novembre 2022 come il momento di svolta, coincidente con il lancio di ChatGPT, che ha accelerato l’adozione dell’AI nella generazione di contenuti indesiderati.
Le email create artificialmente si distinguono per un linguaggio più sofisticato e formale, oltre a presentare meno errori grammaticali rispetto a quelle scritte manualmente. Queste caratteristiche le rendono più difficili da rilevare per i filtri di sicurezza, aumentando la loro efficacia e il rischio per gli utenti.
Evoluzione delle strategie offensive
I criminali informatici sfruttano l’AI principalmente per perfezionare i contenuti delle loro comunicazioni, testando diverse formulazioni linguistiche per massimizzare l’impatto delle loro campagne. Nonostante questa ottimizzazione, le strategie di attacco non sono cambiate radicalmente, indicando che l’AI viene utilizzata come strumento di supporto piuttosto che come un elemento rivoluzionario. Questo approccio consente di migliorare l’efficienza delle campagne senza alterarne significativamente la struttura.
Il professor Asaf Cidon della Columbia University ha evidenziato la difficoltà di identificare con certezza l’uso dell’AI negli attacchi. “Possiamo osservare solo il risultato finale, non il processo creativo”, ha affermato. Tuttavia, i ricercatori sono riusciti a sviluppare algoritmi avanzati in grado di rilevare automaticamente le email generate artificialmente, utilizzando modelli di riferimento basati su comunicazioni antecedenti all’era di ChatGPT.
Strategie di difesa
Per contrastare la crescente minaccia rappresentata dalle spam e-mail generate dall’AI, gli esperti di Barracuda Networks raccomandano l’adozione di soluzioni di protezione multilivello potenziate dall’AI stessa. Questi sistemi integrano tecnologie avanzate per identificare e bloccare i messaggi sospetti prima che raggiungano gli utenti finali.
Oltre alle soluzioni tecnologiche, è fondamentale investire in programmi di formazione continua per sensibilizzare il personale aziendale. La conoscenza delle tattiche più recenti è cruciale in un panorama in cui l’intelligenza artificiale si sta trasformando da strumento produttivo a potenziale minaccia nelle mani di malintenzionati. La consapevolezza e la preparazione degli utenti rappresentano la prima linea di difesa contro le sofisticate tecniche di phishing e social engineering.
La competizione tra tecnologie offensive e difensive richiede un costante aggiornamento delle misure di sicurezza. In un contesto in cui le comunicazioni ingannevoli diventano sempre più convincenti, gli utenti devono essere pronti a riconoscere segnali di allarme e a reagire prontamente per proteggere i propri dati e sistemi.
In conclusione, il panorama della cybersecurity sta cambiando rapidamente, spinto dall’adozione dell’AI sia da parte dei criminali informatici che delle aziende impegnate nella difesa. La sfida consiste nel mantenere un equilibrio tra l’innovazione tecnologica e la protezione degli utenti, garantendo che l’AI rimanga uno strumento a beneficio della società piuttosto che un’arma nelle mani di chi cerca di sfruttarla per scopi illeciti.