lunedì, 13 Ottobre 2025

Come combattere la shadow AI

La shadow AI rappresenta oggi una delle minacce più urgenti e meno visibili nella sicurezza dei dati aziendali ed è un fenomeno in crescita in vari settori.

Che cos’è la shadow AI?

La shadow IT rappresenta l’utilizzo non autorizzato di strumenti di intelligenza artificiale all’interno delle organizzazioni, quando i dipendenti scelgono autonomamente di impiegare strumenti di intelligenza artificiale come ChatGPT, Claude, Gemini o Copilot per ottimizzare i processi lavorativi o risolvere problematiche specifiche, senza ottenere l’approvazione del dipartimento IT o altre autorizzazioni ufficiali.

Gli ambiti di applicazione includono: generazione automatica di contenuti per la corrispondenza aziendale; strumenti di analisi AI per la creazione di report; soluzioni HR basate su intelligenza artificiale per la selezione del personale; generatori di immagini AI; funzioni di programmazione assistita installate privatamente; sistemi di valutazione del rischio per analisi creditizie o antifrode.

È importante sottolineare che due fattori principali favoriscono questo trend: da un lato, la crescente accessibilità degli strumenti AI consumer-oriented, che richiedono competenze tecniche minime o nulle; dall’altro, l’assenza di una governance aziendale strutturata per l’intelligenza artificiale, che permette ai dipendenti di ricercare e implementare soluzioni AI facilmente reperibili ma non validate dall’organizzazione.

Secondo il recente CX Trends Report 2025 di Zendetx l’utilizzo della shadow AI, in alcuni settori, è aumentato fino al 250% su base annua, esponendo le organizzazioni a rischi significativi. Inoltre, l’ultimo report IBM data breach 2025 rivela che, nel 2025, il 20% delle organizzazioni intervistate ha segnalato di aver subito una violazione causata dall’utilizzo di shadow AI, con un costo aggiuntivo medio di 670.000 dollari.

Shadow AI vs Shadow IT: le principali differenze

Shadow AI e shadow IT si riferiscono entrambi all’uso non approvato della tecnologia all’interno di un’organizzazione; tuttavia, i tipi di tecnologia utilizzati e i potenziali rischi sono i punti in cui risiedono le maggiori differenze e, precisamente:

  • Shadow AI – Utilizzo di strumenti e tecnologie di intelligenza artificiale senza l’approvazione dei team IT o di governance dei dati che i dipendenti utilizzano per gestire attività come l’analisi dei dati, l’elaborazione del linguaggio e le informazioni sui clienti.
  • Shadow IT – Utilizzo di qualsiasi software, hardware o infrastruttura IT, non autorizzato che i dipendenti portano sul posto di lavoro.

Rischi della shadow AI

Di seguito i principali rischi della shadow AI:

Perdita di controllo sui dati tramite prompt di input – I campi di inserimento dei prompt rappresentano un vero e proprio “buco nero” per la sicurezza dei dati aziendali. Una volta che informazioni sensibili – come codice sorgente, dettagli sui compensi, documenti di fusioni e acquisizioni – vengono inserite negli strumenti di intelligenza artificiale generativa, esse escono completamente dal controllo aziendale. Inoltre, anche quando i fornitori di IA promettono di non conservare i dati, l’applicazione rimane una “scatola nera” con scarse garanzie riguardo all’utilizzo per training dei modelli o per raccolta di telemetria.

Inoltre, si consiglia la Guida OWASP che pone l’accento sulla minimizzazione dei dati e sulla limitazione dell’accesso ai dati solo a coloro che ne hanno bisogno, dato che, senza questi controlli, l’accesso non autorizzato può portare a violazioni della privacy e abusi.

Minacce alla sicurezza informatica – La mancanza di trasparenza nei modelli di intelligenza artificiale e nella gestione dei dati può anche aumentare le vulnerabilità della sicurezza. Inoltre, gli strumenti di AInon approvati e non controllati possono introdurre bug, malware o codice difettoso nei processi aziendali.

Violazione dei requisiti di conformità normativa – Esistono innumerevoli normative a cui le organizzazioni devono conformarsi (i.e. GDPR, AI Act, Data Act, CRA, NIS2, DORA, ecc.). La maggior parte di queste condivide il requisito fondamentale che i dati regolamentati debbano essere archiviati, elaborati e resi accessibili secondo modalità molto specifiche. Tuttavia, l’inserimento di tali dati in modelli di IA esterni può facilmente violare queste normative, esponendo l’organizzazione a rischi legali significativi, sanzioni pecuniarie e obblighi di notifica delle violazioni.

Propagazione di informazioni obsolete o distorte – Gli strumenti di intelligenza artificiale generativa forniscono spesso risposte con apparente sicurezza, anche quando sono completamente errate. Pertanto, affidarsi a questi strumenti per comunicazioni con i clienti, report di conformità o documenti finanziari, senza un’adeguata validazione, può portare a decisioni aziendali basate su dati incorretti. Inoltre, le “allucinazioni” dei modelli si verificano costantemente e rappresentano un problema persistente, che non sembra risolversi nemmeno con l’evoluzione e il miglioramento dei large language model (LLM).

Shadow AI = Shadow Data – Il problema non si limita al prompt di input. Gli output generati dagli strumenti di IA generativa (riepiloghi, contenuti riscritti, frammenti di codice) vengono spesso salvati, condivisi e riutilizzati all’interno dell’organizzazione. Tali file, creati al di fuori dei flussi di lavoro formali e dei controlli IT standard, si trasformano in “shadow data”, i.e. dati che rimangono non tracciati, non classificati e non protetti dai sistemi di sicurezza aziendali.

Alcuni esempi di utilizzo dell’AI che possono creare problemi di shadow AI

Le seguenti comuni pratiche operative rappresentano esempi di attività che, pur garantendo ottimizzazione della produttività, possono generare significativi rischi di Shadow AI, e precisamente:

  • Uno sviluppatore software inserisce codice proprietario in un debugger basato su GPT di terze parti per la risoluzione di errori.
  • Un account manager carica liste clienti in strumenti di AI-powered email writing per generare proposte di up-selling personalizzate.
  • Un responsabile HR utilizza piattaforme di AI esterne per l’analisi di dati sensibili provenienti da survey sulla soddisfazione del personale.
  • Un analista finanziario trasferisce previsioni riservate su ChatGPT per la semplificazione linguistica destinata al management esecutivo.
  • Un consulente legale richiede a Gemini la riscrittura contrattuale, includendo clausole confidenziali estratte da accordi con clienti.

Perché gli strumenti di sicurezza tradizionali non rilevano la shadow AI

Gli stack di sicurezza legacy presentano limitazioni strutturali nel contrastare le moderne minacce AI. Tali sistemi non sono progettati per interpretare le minacce basate su prompt e mancano della capacità di monitorare le interazioni conversazionali con i modelli linguistici.

La shadow AI opera principalmente nel browser a livello applicativo, i.e. una zona dove la visibilità degli strumenti tradizionali è limitata. Ne consegue che i sistemi di sicurezza convenzionali non possono tracciare efficacemente le attività che avvengono dopo che un utente clicca su “genera” o invia un prompt.

Un ulteriore fattore critico è l’utilizzo di account e dispositivi personali da parte dei dipendenti, che aggira completamente i controlli di sicurezza aziendali e rende invisibile l’attività AI alle infrastrutture di monitoraggio corporate.

Best practice per gestire la shadow AI

Di seguito, un elenco di best practice di gestione e di mitigazione della shadow AI:

Fornire alternative approvate e sicure – Implementare strumenti di intelligenza artificiale che soddisfino le esigenze operative dei dipendenti, considerando che le licenze aziendali offrono maggiori garanzie di sicurezza e controllo sui dati rispetto alle soluzioni consumer.

Stabilire un framework di governance solido – Sviluppare linee guida chiare per l’uso dell’intelligenza artificiale che definiscano aspettative precise sull’utilizzo aziendale, oltre a creare un framework di governance completo che consideri bias culturali e organizzi politiche strutturate per guidare implementazione e utilizzo dei sistemi AI.

Creare strutture organizzative dedicate – Istituire un Centro di Eccellenza (CoE) per gestire centralmente le iniziative AI aziendali, oltre a coordinare strategia, implementazione e supervisione delle tecnologie intelligenti.

Investire in formazione e cultura aziendale – Prioritizzare programmi educativi che coprano rischi, opportunità e utilizzo corretto degli strumenti AI, oltre a promuovere una cultura di utilizzo sicuro per garantire l’adozione responsabile dell’intelligenza artificiale.

Implementare politiche e controlli operativi – Sviluppare politiche workplace specifiche che regolamentino tipologie di informazioni condivisibili con strumenti di intelligenza artificiale e garantiscano allineamento tra business e IT per assicurare che le soluzioni rispettino standard di sicurezza, conformità e performance.

Facilitare sperimentazione controllata – Creare ambienti designati per permettere ai team di esplorare nuove applicazioni AI in spazi sicuri e monitorati, oltre a adottare versioni enterprise che garantiscano pieno controllo sui dati ed evitino l’utilizzo di informazioni sensibili per training dei modelli.

Promuovere trasparenza e monitoraggio – Mantenere una comunicazione aperta sui benefici dell’adozione responsabile, spiegando funzionamento e gestione dati degli strumenti approvati, oltre ad utilizzare strumenti di quality assurance per valutare regolarmente risultati e identificare potenziali utilizzi non autorizzati.

Implementare detection e controlli tecnici – Monitorare i segnali di avvertimento (i.e. pattern anomali nei dati, picchi di produttività inspiegabili o incongruenze nella documentazione) oltre ad utilizzare strumenti di monitoraggio network, sondaggi anonimi e analisi delle spese per identificare utilizzi shadow.

Rafforzare sicurezza e governance – Implementare controlli di accesso selettivi per dati sensibili, mantenendo sicurezza anche in caso di utilizzo non autorizzato, oltre a sfruttare strumenti di filtraggio web e DLP per prevenire l’accesso a piattaforme AI non approvate.

Conclusione

L’adozione spontanea di strumenti di intelligenza artificiale può sembrare una scorciatoia immediata per incrementare la produttività, ma comporta rischi significativi che spaziano dalle violazioni dei dati ai problemi di conformità e alle interruzioni operative. Di fatto, ignorare questi pericoli può generare conseguenze di gran lunga superiori ai benefici iniziali.

Le organizzazioni possono trasformare la shadow AI da minaccia invisibile in risorsa controllata, implementando processi di approvazione chiari, framework di governance robusti, programmi formativi mirati e mantenendo monitoraggio continuo attraverso audit regolari, rendendo possibile una sua gestione strategica e consapevole.

La chiave del successo risiede, quindi, nell’equilibrio tra apertura all’innovazione e rigore nella gestione dei rischi, permettendo di sfruttare il potenziale dell’intelligenza artificiale all’interno di un framework sicuro e controllato, sempre con gli “occhi ben aperti”.

Cybsec-news.it vi invita alla terza edizione della CYBSEC-EXPO, in programma a Piacenza dal 9 all’11 Giugno 2026.

Latest article