I cybercriminali stanno usando l’IA non solo per sferrare attacchi, ma anche per ingannare le persone: dagli endorsement di celebrità tramite deepfake e le vincite fraudolente con le ‘gift card’, fino ai rimborsi automatici e alle truffe con password monouso (OTP). L’IA generativa si trasforma così in un’arma potente, rendendo le frodi più rapide, economiche e credibili. Bati pensare che truffe deepfake che possono essere create per soli 5 dollari in meno di 10 minuti.
Rapporto McAfee – “State of the Scamiverse 2025”
Secondo l’ultimo rapporto di McAfee “State of the Scamiverse 2025”, le truffe deepfake sono diventate parte della nostra quotidianità.
Parafrasando Dante: “lasciate ogni speranza o voi che entrate nello Scamiverse”: un regno in continua espansione di truffe e frodi online che prende di mira persone ovunque.
È doveroso evidenziare che, nonostante la crescente consapevolezza, le truffe sono in aumento a livello globale, costando alle vittime denaro, tempo e benessere emotivo. Pertanto, comprendere questo panorama in evoluzione è fondamentale per restare protetti.
Secondo il sondaggio di McAfee risulta che:
- Il 59% delle persone a livello globale conosce qualcuno che è stato vittima di una truffa online, salendo al 77% per chi ha tra i 18 e i 24 anni.
- Una persona normalmente si imbatte in 10 truffe al giorno, mentre gli americani ne affrontano 14,4 al giorno, inclusi 2,6 video deepfake.
- Un terzo delle vittime di truffe perde 500 dollari o più, con uno su dieci che perde più di 5.000 dollari.
- A livello globale, le persone trascorrono in media 83 ore all’anno a esaminare messaggi sospetti; per gli americani, sono 94 ore.
- Il disagio emotivo aggrava le perdite economiche, con il 35% delle vittime che vive uno stress significativo.
Nuovo Sondaggio dell’Association of Certified Fraud Examiners (ACFE)
Un nuovo sondaggio intersettoriale tra professionisti antifrode condotto dall’Association of Certified Fraud Examiners (ACFE) e dal IA SAS – presentato in occasione della International Fraud Awarness Week (16-22 novembre 2025) – rivela che:
- il 77% delle organizzazioni intervistate riporta un’accelerazione dell‘ingegneria sociale deepfake negli ultimi 24 mesi;
- L’83% prevede un aumento moderato (28%) o significativo (55%) di tali schemi nei prossimi due anni.
Dati che evidenziano un rapido aumento delle frodi alimentate dall’IA che stanno colpendo non solo il settore finanziario ma anche i cittadini comuni. Di fatto, si tratta di educare i professionisti e di fornire strumenti di difesa ai Paesi, ai nostri ecosistemi e ai cittadini in grado di facilitare il riconoscimento delle minacce guidate dall’IA che proliferano inosservate, in modo da salvaguardare la nostra società.
La portata senza precedenti della crisi delle frodi dell’IA generativa (IAgen) del 2025 – Rapporto Sumsub 2025
Il report di Sumsub – società americana di soluzioni di rilevamento frodi – conferma i trend sopra descritti, rivelando come i cyber criminali impiegano l’IA generativa (IAgen) per generare identità sintetiche convincenti, falsificare documenti quasi perfetti e produrre deepfake iperrealistici che possono facilmente ingannare l’occhio umano e persino bypassare alcuni sistemi di onboarding e i controlli tradizionali che un tempo erano considerati sicuri.
Lo scenario dei primi tre mesi del 2025 vs. 2024 è preoccupante
- le frodi deepfake globali sono aumentate del 700%
- le frodi mondiali nei documenti d’identità sintetiche sono aumentate del 378%.
Inoltre, dal report si evince che la frode d’identità contribuisce a gravi danni sociali, i.e. dal riciclaggio di denaro ai deepfake che diffondo pericolosa disinformazione medica. Inoltre, anche gli ambienti di lavoro sono particolarmente vulnerabili alle frodi online senza misure di verifica adeguate in atto.
Uno scenario che ha allarmato anche i principali sostenitori dell’IA, con Sam Altman CIO di OpenAI che ha pubblicamente espresso timori di una prossima crisi di frode causata dall’IA.
Perché le frodi GenAI stanno crescendo così rapidamente
Le frodi basate sulla GenAI sono aumentate vertiginosamente negli ultimi anni a fronte di:
- Strumenti di IA avanzati facilmente accessibili – Potenti modelli GenAI open source (ad esempio, LLaMA, Stable Diffusion) sono facilmente accessibili a chiunque, compresi i criminali con intenti malevoli. Ciò significa che praticamente chiunque dispone degli strumenti necessari per creare contenuti falsi convincenti con poca o nessuna competenza tecnica.
- Automazione delle tattiche criminali – L’IAgen consente di produrre truffe su larga scala. Tra queste, truffe basate sulla clonazione vocale, deepfake o attacchi di phishing per impersonare dirigenti aziendali, creare documentazione sintetica per frodi di onboarding o messaggi di phishing persuasivi personalizzati su profili specifici su larga scala.
- Elusione della difesa tradizionale – L’IAgen può imitare dati e comunicazioni legittimi (ad esempio, generando email personalizzate o clonando la voce in tempo reale). Grazie a queste capacità, i truffatori possono aggirare il rilevamento basato su regole, superando in astuzia sia gli esseri umani che le macchine.
- L’ascesa del Fraud-as-a-Service – I cyber criminali hanno creato una fiorente economia sommersa in cui conoscenze, tattiche e tecnologie sono facilmente condivisibili. I criminali condividono modelli di GenAI, script e contenuti falsi già pronti in questi mercati illeciti. Tale libero scambio di informazioni apre numerose opportunità per i criminali, espandendo l’ecosistema delle frodi, oltre ad aumentare il volume degli attacchi.
Le principali tecniche di frode IAgen e come funzionano
Di seguito un’esamina delle principali tipologia di frodi scaturiti dall’impiego dell’IAgen e come funzionano.
- Clonazione vocale – I cyber criminali, registrandola voce di una persona ignara, possono convincere, ad esempio, il personale del call center a concedere loro l’accesso all’account dell’utente legittimo o ad approvare le transazioni.
- Truffe tramite SMS/phishing – L’IAgen può creare messaggi di testo o email falsi, convincenti, privi di errori e grammaticalmente corretti, che sembrano provenire da persone reali. Di fatto, poiché le comunicazioni sono convincenti, i criminali hanno maggiori probabilità di indurre gli utenti a cliccare su link dannosi, condividere informazioni sensibili o trasferire denaro.
- Deepfake – I cyber criminali utilizzano falsi video e audio deepfake generati dall’IA per spacciarsi per CEO e altri dirigenti di alto livello per attacchi di Business Email Compromise (BEC). In alcuni casi si spacciano anche per poliziotti, personale di banca o persino celebrità per truffe sentimentali.
Oltre a queste tattiche, l’IAgen può essere utilizzata anche per creare nuove identità e automatizzare attacchi di frode e truffa su larga scala. Tali metodi includono:
- Frode d’identità sintetica: i criminali combinano dati reali e dati fittizi per costruire nuove “identità” utilizzabili per l’onboarding digitale presso banche o aziende. La frode d’identità sintetica è considerata la tipologia di reato finanziario in più rapida crescita e, secondo un recente report di Deloitte – intitolato “Deepfake banking fraud risk on the rise” – si prevede che le perdite raggiungeranno i 23 miliardi di dollari entro il 2030.
- Falsificazione di documenti – L’IAgen può generare o manipolare documenti critici come bilanci, fatture, buste paga e documenti di identità.
- Chiamate truffa automatizzate e chatbot – Chatbot e cloni vocali basati sull’IA possono essere automatizzati e lanciati contemporaneamente su più obiettivi. Programmi dannosi come LoveGPT, ad esempio, possono essere utilizzati per colpire più vittime di truffe sentimentali contemporaneamente. I programmi utilizzano LLM per perfezionare i messaggi per obiettivi specifici.
- Creazione di dati di transazione sintetici – I cyber criminali possono utilizzare l’IAgen per creare transazioni fittizie. Utilizzando questi dati, possono testare tecniche di evasione contro i sistemi antifrode per capire come evitare il rilevamento da parte dei controlli antifrode.
Di seguito le aree di impatto chiave delle frodi online scaturite dall’impego dell’IA:
- Perdite finanziarie dovute a campagne di frode automatizzate
- Danni alla reputazione aziendale
- Erosione della fiducia dei clienti
- Problematiche di conformità normativa
Strategie di protezione contro le frodi digitali
Gli esperti di sicurezza raccomandano l’adozione di misure preventive strategiche, quali:
- Autenticazione “familiare” – Si consiglia di stabilire una parola o frase segreta, condivisa con i propri familiari, per verificare reciprocamente l’identità durante le comunicazioni a distanza.
- Analisi critica dei contenuti multimediali – È fondamentale esaminare attentamente immagini e video alla ricerca di imperfezioni sottili, quali: mani o piedi distorti, denti o occhi dall’aspetto irrealistico, volti indistinti o irregolari, accessori non realistici come occhiali o gioielli, ombre imprecise, filigrane, ritardi nella sincronizzazione audio-video e movimenti innaturali.
- Verifica vocale e comunicativa – Si raccomanda di prestare particolare attenzione al tono e alla scelta delle parole per distinguere tra una telefonata legittima da parte di un familiare e una potenziale clonazione vocale generata dall’intelligenza artificiale.
- Gestione della propria impronta digitale – È opportuno, ove possibile, limitare la diffusione online della propria immagine e voce, rendere privati gli account dei social media e restringere i follower alle persone conosciute personalmente, riducendo così le possibilità per i truffatori di sfruttare software di intelligenza artificiale generativa per creare identità fraudolente a scopo di ingegneria sociale.
- Protocolli di verifica dell’identità – Si suggerisce di verificare sempre l’identità del chiamante riattaccando il telefono, ricercando autonomamente i contatti ufficiali della banca o dell’organizzazione che sostiene di effettuare la chiamata, oltre a contattare direttamente il numero di telefono verificato.
- Protezione delle informazioni sensibili – È imperativo non condividere mai informazioni sensibili con persone conosciute esclusivamente online o telefonicamente.
- Cautela nelle transazioni finanziarie – Si raccomanda di non inviare denaro, buoni regalo, criptovalute o altri beni a persone sconosciute o con cui si è interagito unicamente attraverso canali digitali o telefonici.
Misure proattive per contrastare le frodi basate sull’IAgen
Di seguito alcune delle misure proattive di rilevamento e prevenzione delle frodi basate sull’IAgen:
- Investire in tecnologie avanzate per la prevenzione delle frodi – Un modo efficace per combattere le frodi basate sull’IA è implementare soluzioni di IA per la gestione delle frodi, basate su algoritmi di apprendimento automatico, che possono identificare modelli sospetti e anomalie nei dati, consentendo alle aziende di rilevare attività fraudolente in tempo reale. Tali soluzioni contribuiscono a prevenire potenziali truffe prima che causino danni significativi, salvaguardando così i propri asset e la propria reputazione, oltre a garantire la conformità.
- Implementare misure di sicurezza complete – Le organizzazioni, per proteggersi efficacemente dalle truffe basate sull’IA, devono gestire l’intero percorso del cliente dalla creazione dell’account al chargeback. Ciò implica l’identificazione e la protezione di tutti i punti di contatto rischiosi per l’utente, quali: la creazione dell’account, l’accesso, l’acquisto e i processi di contestazione. Di fatto, applicando misure di sicurezza complete in ogni fase, è possibile creare un solido sistema di difesa che riduca al minimo il rischio che le truffe basate sull’IA si infiltrino nelle proprie attività.
- Intervenire con cautela – È doveroso evidenziare che, sebbene sia essenziale disporre di solide misure di sicurezza, è anche necessario essere consapevoli che protocolli di sicurezza eccessivamente rigidi possono portare a falsi positivi, frustrare i clienti fidati e potenzialmente influire sui tassi di accettazione. Pertanto, è importante capire come applicare questi protocolli solo quando necessario, trovando un equilibrio tra sicurezza ed esperienza utente. In questo modo, è possibile mantenere la fiducia dei clienti e prevenire efficacemente le truffe legate all’intelligenza artificiale.
- Anticipare le minacce – Le organizzazioni, per rimanere al passo con le frodi generate dall’IA, devono essere preparate ad affrontare un’ampia gamma di minacce. Ciò include l’anticipazione e la mitigazione di rischi, quali: l’abuso di promozioni, la creazione di account falsi, l’appropriazione indebita di account, il trasferimento di denaro e l’abuso di policy. Di fatto, identificando proattivamente le potenziali vulnerabilità e implementando strategie di prevenzione mirate, è possibile rafforzare la propria resilienza considerando il panorama in continua evoluzione delle truffe basate sull’IA. Inoltre, è fondamentale aggiornare e adattare regolarmente queste strategie in base alle tendenze e alle tecnologie emergenti per mantenere una solida difesa contro le minacce basate sull’IA.
Cybsec-news.it vi invita alla terza edizione della CYBSEC-EXPO, in programma a Piacenza dal 9 all’11 Giugno 2026.



















