Le organizzazioni si affrettano a implementare l’IA agentica per ottenere un vantaggio competitivo; tuttavia, molte trascurano un rischio fondamentale: la sicurezza dell’identità messa a dura prova dai sistemi autonomi che operano con una supervisione umana minima.
Introduzione
L’ascesa dei sistemi di IA agentica sta riscrivendo le regole della sicurezza informatica. A differenza dell’IA generativa, che si basa su istruzioni o prompt predefiniti, l’IA agentica opera in modo autonomo, apprende continuamente agendo con una supervisione umana minima, oltre a collaborare tra i sistemi e adattarsi ad ambienti dinamici. Inoltre, man mano che le aziende scalano le loro implementazioni di IA, la sicurezza delle identità deve evolversi di pari passo per preservare il controllo, mitigare i rischi e rafforzare la fiducia.
Secondo un recente report di CyberArk, dal titolo “2025 Identity Security Landscape”, l’82% delle organizzazioni ha riconosciuto che i modelli di IA introducono rischi informatici attraverso l’accesso ai dati sensibili. Inoltre, il 68% ha ammesso che non ha controlli di sicurezza per i sistemi di IA. Mentre, quasi la metà ha dichiarato di non essere in grado di garantire l’uso non autorizzato dell’IA all’interno dei propri ambienti. Ne consegue che il divario tra consapevolezza e azione rappresenta un grave rischio operativo per le aziende che deve essere gestito.
È risaputo che l’IA generativa è in grado di incrementare la produttività del personale in termini di attività di ricerca, di scrittura e di programmazione; mentre l’IA agentica è capaci di eseguire compiti più articolati e multi-fase per conto del personale e in grado di agire e di accedere alle risorse necessarie in maniera indipendente.
Ne consegue che le implicazioni aziendali risultano significative, ad esempio: un agente IA, dotato di privilegi eccessivi, potrebbe accedere in modo autonomo a dati sensibili della clientela, inizializzare transazioni finanziarie o modificare processi aziendali critici, operando interamente entro i confini dell’autorità che gli è stata conferita. Inoltre, a differenza del personale umano – che può essere chiamato a rispondere delle proprie azioni – l’IA agentica introduce sfide inedite in termini di governance e responsabilità.
IA Agentica: quali sfide di sicurezza ci attendono
È doveroso evidenziare che l’impiego dell’IA agentica presenta sfide di sicurezza critiche che le organizzazioni stanno affrontando con strumenti inadeguati, ovvero: i team di sicurezza si trovano a dover gestire queste nuove entità utilizzando framework di gestione delle identità progettati per gli utenti umani, creando un divario pericoloso tra l’evoluzione tecnologica e i meccanismi di controllo.
Di fatto, l’IA agentica richiede un approccio completamente nuovo alla gestione delle identità. Ovvero, a differenza degli utenti umani, questi sistemi necessitano di credenziali univoche, diritti di accesso definiti con precisione e capacità di revoca istantanea delle autorizzazioni per evitare un’esposizione operativa rischiosa, con implicazioni finanziarie significative.
Le organizzazioni devono adottare, quindi, strategie di sicurezza incentrate sull’identità che trattino l’IA come qualsiasi altro membro privilegiato della forza lavoro. È doveroso evidenziare che una protezione efficace richiede una nuova progettazione della governance delle identità per affrontare le nuove sfide. Di seguito le priorità principali che le organizzazioni dovrebbero considerare:
- Governance del ciclo di vita – Gli agenti IA all’interno dei sistemi di IA agentica seguono un percorso simile a quello dei dipendenti aziendali: necessitano di un processo di inserimento organizzato, di ruoli che si modificano nel tempo e di una dismissione appropriata, quando non sono più necessari. Proprio come un nuovo assunto riceve formazione e autorizzazioni specifiche per il suo ruolo, anche gli agenti IA devono essere “introdotti” nell’organizzazione con diritti di accesso calibrati sulle loro funzioni. Durante la loro “carriera” digitale, questi sistemi possono acquisire nuove competenze, assumere responsabilità diverse o essere riassegnati ad altri compiti. Di conseguenza, i loro privilegi di accesso devono essere aggiornati dinamicamente per riflettere queste evoluzioni.
Infine, quando un agente completa il suo ciclo operativo – o diventa obsoleto – deve essere “pensionato” in modo sicuro, garantendo che tutti i suoi accessi vengano revocati e che non rimangano vulnerabilità residue nel sistema. La gestione strutturata del ciclo di vita assicura che ogni agente IA mantenga sempre le autorizzazioni appropriate al suo stato e alle sue funzioni correnti.
- Autorizzazione contestuale – L’accesso alle risorse aziendali non può più basarsi su permessi fissi e immutabili. Per gli agenti di intelligenza artificiale, le decisioni di autorizzazione devono essere dinamiche e adattive, valutando continuamente una serie di fattori in tempo reale. Ovvero: il sistema deve considerare cosa sta facendo l’agente in quel momento specifico, in quale situazione operativa si trova, come si è comportato in passato e quali segnali provengono dall’ambiente circostante. Di fatto, l’autorizzazione contestuale trasforma la sicurezza da un sistema di “chiavi fisse” a un “guardiano intelligente”, che valuta continuamente se l’accesso richiesto è appropriato per la situazione specifica in quel preciso momento.
- Tracciabilità e fiducia – Ogni azione compiuta da un sistema di intelligenza artificiale deve lasciare una traccia chiara e verificabile. Non basta sapere che una decisione è stata presa, ma occorre poter ricostruire esattamente come e perché è stata presa, da quale agente e in quale momento specifico. Per garantire questa trasparenza, è necessario implementare registri immutabili che non possano essere alterati retroattivamente, firme digitali che certifichino l’autenticità di ogni operazione e sistemi di controllo che permettano di seguire facilmente il percorso decisionale. Ciò crea un “libro mastro” digitale di tutte le attività degli agenti IA nei sistemi di IA agentica, fondamentale per dimostrare conformità normativa e responsabilità aziendale.
Inoltre, la tracciabilità non è solo una questione tecnica, ma costruisce la fiducia degli stakeholder: clienti, normatori e partner commerciali possono avere la certezza che ogni processo automatizzato sia documentato e verificabile.
- Accesso JIT (Just-In-Time) – È doveroso evidenziare che concedere privilegi permanenti agli agenti IA equivale a lasciare porte aperte in un edificio ad alta sicurezza. L’approccio just-in-time ribalta questa logica: l’accesso viene concesso solo nel momento esatto in cui serve e per il tempo strettamente necessario a completare l’attività specifica. Tale sistema funziona come un “pass temporaneo”, ovvero: quando un agente deve accedere a dati sensibili o sistemi critici, riceve le autorizzazioni necessarie per quella specifica operazione che, successivamente, vengono automaticamente revocate, una volta completato il compito. In questo modo, se l’agente viene compromesso, il danno potenziale è limitato solo a ciò a cui ha accesso in quel preciso momento, non all’intera gamma di risorse che potrebbe utilizzare nel corso della sua operatività.
Pertanto, l’accesso JIT trasforma la sicurezza da una questione di “prevenzione totale” a una di “contenimento intelligente”, riducendo drasticamente la superficie di attacco disponibile a eventuali minacce.
Approccio strutturato alla sicurezza delle identità: la strategia delle cinque “A”
Le aziende, per gestire adeguatamente le sfide dell’IA agentica, dovrebbero adottare un approccio metodico e sistematico basato su:
- Analisi e classificazione delle identità degli agenti IA – Si tratta, innanzitutto, di creare una mappa completa di tutti gli agenti IA presenti nell’ecosistema tecnologico aziendale (i.e. infrastrutture on-premise, servizi cloud o applicazioni SaaS). Ogni agente IA deve essere catalogato e classificato in base al livello di sensibilità dei dati che gestisce, alle funzioni che svolge e all’ampiezza dei suoi diritti di accesso. Tale censimento iniziale fornisce la base per tutte le successive decisioni di sicurezza.
- Assetto dei confini operativi – È necessario, dopo aver mappati gli agenti IA, definire con precisione i limiti operativi di ciascuno. Ciò implica stabilire esattamente a quali risorse può accedere ogni agente, in quali circostanze e per quali scopi specifici. Inoltre, i privilegi devono essere strettamente allineati con le mansioni assegnate, creando perimetri digitali invalicabili che impediscano derive operative non autorizzate.
- Applicazione dei modelli con privilegi minimi – Le credenziali permanenti rappresentano un rischio per l’IA agentica. Pertanto, l’organizzazione deve transitare verso un sistema di accesso temporaneo e just-in-time, dove i diritti vengono concessi solo nel momento esatto della necessità e immediatamente revocati al completamento dell’attività per ridurre drasticamente le vulnerabilità in caso di compromissione.
- Approfondimento che va oltre l’autenticazione – Non basta la verifica dell’identità dell’agente; risulta fondamentale la comprensione delle motivazioni dietro ogni azione. Ovvero, il sistema deve realizzare la validazione delle attività dell’agente IA in corrispondenza, non solo alle sue autorizzazioni, ma anche al comportamento previsto e agli obiettivi autorizzati, al fine di aggiunge un ulteriore strato di sicurezza comportamentale.
- Attuazione di verifica e adattamento continui – La sicurezza degli agenti IA richiede monitoraggio costante e adattamento dinamico. Ogni attività necessita, di fatto, di registrazione con integrità crittografica, attraverso la creazione di audit trail immutabili. Inoltre, il sistema deve realizzare la verifica continua della presenza di anomalie, lacune di sicurezza o comportamenti imprevisti, oltre a adattare automaticamente le misure di protezione alle nuove minacce emergenti.
Conclusione
L’approccio strategico alla gestione delle identità rappresenta il fondamento per una scalabilità sicura dell’IA agentica. Pertanto, le aziende dovranno definire perimetri operativi chiari per ogni agente, evitando l’errore critico di trattare i sistemi autonomi come un software tradizionale. Ciò rende possibili operazioni sicure e l’adozione di una governance dell’IA trasparente e responsabile, capaci di garantire la fiducia degli stakeholder, oltre ad evitare sanzioni normative, perdita di clientela e danni reputazionali irreversibili.
Il momento di agire è ora: la differenza tra il successo e il fallimento nell’era dell’IA agentica risiede nella capacità di bilanciare innovazione e controllo attraverso una gestione strutturata delle identità.
Cybsec-news.it vi invita alla terza edizione della CYBSEC-EXPO, in programma a Piacenza dal 9 all’11 Giugno 2026.