Trend Micro, società multinazionale di software per la sicurezza informatica, ha condotto e pubblicato uno studio intitolato “Virtual Kidnapping: How AI Voice Cloning Tools and Chat GPT are Being Used to Aid Cybercrime and Extortion Scams”.
Lo scopo di questo studio è dimostrare come intelligenza artificiale e machine learning (sistema che apprende e migliora le performance in base ai dati che utilizza) possano diventare un potente mezzo sfruttato dai cybercrminali per truffare le persone tramite estorsioni o il cosiddetto “rapimento virtuale”.
Questo genere di truffe sono diffuse soprattutto negli Stati Uniti, dove la Federal Trade Commission ha stimato, nel 2022, che la cifra totale estorta tramite questo genere di attività illecite possa aggirarsi intorno ai 2,6 miliardi di dollari.
I truffatori utilizzano un metodo schematico che prevede una serie di elementi ricorrenti per riuscire nelle proprie malefatte: dopo aver identificato una potenziale vittima, infatti, i cybercriminali eseguono ricerche approfondite sui canali social (Instagram, Facebook, TikTok) della persona presa di mira, raccogliendo tonnellate di informazioni riguardanti parenti e amici e acquisendone i dati biometrici. In seguito, utilizzando strumenti di intelligenza artificiale come, per esempio, VoiceLab, elaborano un deepfake vocale in grado di riprodurre perfettamente la voce di una persona.
A quel punto, sempre sfruttando i profili social della vittima e della persona individuata come strumento del ricatto, per esempio per verificare che i soggetti siano fisicamente lontani l’uno dall’altro, i truffatori avviano una telefonata facendo ascoltare le registrazioni alla vittima e inventando una storia che faccia spaventare il malcapitato.
Più la storia è credibile e manipolatoria, più la possibilità che la vittima si faccia prendere dal panico e smetta di ragionare è alta.
Una volta conclusa la truffa e recuperato il denaro estorto il cybercriminale svanirà nel nulla senza lasciare traccia.
In alcuni casi questi malviventi riescono ad automatizzare questo schema di attacco utilizzando le intelligenze artificiali come Chat GPT: in questo modo è possibile processare un notevole numero di dati, che servono ad attuare una selezione delle vittime nel modo più accurato e meno rischioso possibile.
Come se non bastasse, quando le vittime pagano il riscatto, non solo incoraggiano i cybercriminali a continuare con la propria attività, ma le loro informazioni vengono condivise in rete ed etichettate come redditizie e facilmente attaccabili: per questo motivo si fanno sempre più necessarie delle nuove tecniche antifrode basate sull’identità.