sabato, 26 Aprile 2025

DeepSeek sembra avere grosse lacune di sicurezza

Uno studio di sicurezza condotto da Anthropic, startup americana nel campo dell’IA, ha scoperto delle gravi lacune all’interno dei sistemi di controllo di sicurezza del chatbot di DeepSeek, il sistema di intelligenza artificiale generativa di matrice cinese capace di fare concorrenza a ChatGPT.

“Il modello non ha nessuna forma di protezione contro la generazione di informazioni potenzialmente pericolose. DeepSeek ha mostrato le difese più deboli mai riscontrate in un modello di IA” ha commentato Dario Amodei, CEO di Anthropic. Tra le informazioni pericolose che questa piattaforma è in grado di generare ci sono le istruzioni per la creazione di armi biologiche.

Leggi anche: Cyber resilience, quale calibrata sintesi di business continuity, risk management e cybersecurity

La tesi sulla pericolosità di DeepSeek è stata dimostrata anche da uno studio effettuato da Cisco, secondo cui l’attack success rate della piattaforma sia del 100%. Ciò significa che il chatbot non dispone di alcun input per filtrare le domande potenzialmente pericolose che possono portare alla creazione di sistemi utilizzabili anche per scopi dannosi. DeepSeek è sicuramente il sistema IA con il più alto tasso di attack success rate. Ciononostante, anche quello dei più famosi concorrenti è sorprendentemente elevato: quello di ChatGpt, per esempio, è dell’86%, mentre quello Llama, appartenente a Meta, è del 96%.

Anthropic non desidera, perciò, screditare DeepSeek, ma esortare a porre molta attenzione agli aspetti legati alla sicurezza.

Cybsec-news.it vi invita alla seconda edizione della CYBSEC EXPO, in programma a Piacenza dal 21 al 23 Maggio 2025.

Latest article