ProofpointCloud SecurityIntelligenza Artificiale

Proofpoint mette in sicurezza gli agenti di IA con Agent Integrity Framework

di pubblicata il , alle 16:35 nel canale Security Proofpoint mette in sicurezza gli agenti di IA con Agent Integrity Framework

Proofpoint AI Security applica modelli di rilevamento basati sugli intenti, valutando continuamente se il comportamento dell’AI, avviato da un essere umano o da un agente autonomo, sia allineato alla richiesta originale, alle policy definite e allo scopo previsto.

 

Il passo dai semplici chatbot alimentati da LLM ad agenti di intelligenza artificiale più o meno autonomi è stato brevissimo. Prima ancora che la maggior parte delle persone (e delle aziende) riuscisse a prendere confidenza con i nuovi strumenti di IA, l'IA agentica ha iniziato ad affermarsi, promettendo maggiore autonomia pur lasciando le decisioni in mano alle persone. Il problema, però, è che la sicurezza dell'IA non ha corso tanto rapidamente. Proofpoint corre al riparo con Agent Integrity Framework, un modello per proteggere l'utilizzo dell'IA in azienda. 

IA sotto controllo e al sicuro con Agent Integrity Framework di ProofPoint

Già oggi esistono soluzioni per garantire la sicurezza dei sistemi di IA aziendali, ma nella maggior parte dei casi hanno delle importanti limitazioni. Visualizzano il traffico generato dall'IA e possono valutare i permessi di accesso, ma spesso non sono in grado di capire se l'IA sta generando risposte in linea con le intenzioni degli utenti. Un rischio da non sottovalutare: il problema in questo caso non è che l'IA possa offrire risposte poco attinenti, ma che possa venire manipolata da attori malevoli per estrapolare informazioni riservate.

In pratica, i sistemi per proteggere le IA oggi sono  in grado di rilevare tentativi di attacco, bloccare IA che cercano di accedere ai sistemi per i quali non hanno i permessi di accesso, ma non capiscono se stanno offrendo risposte fuori contesto, che potrebbero anche portare a fughe di dati. 

La soluzione di Proofpoint si occupa proprio di questo: analizza il comportamento delle IA e degli agenti di IA dal punto di vista semantico, segnalando situazioni di rischio e in generale risposte non allineate alle intenzioni di chi ha effettuato le richieste. 

Non solo: Agent Integrity Framework è in grado di rilevare l'uso di strumenti di IA non autorizzati all'interno dell'azienda, così come i server MCP cui si appoggiano le IA per interfacciarsi con i dati. 

Il framework definisce l’integrità dell’agente in modo semplice: deve fare solo ciò per cui è stato progettato, con i permessi previsti, senza deviazioni in interazioni, tool e accessi ai dati. Si basa su cinque pilastri (allineamento dell’intento, identità e attribuzione, coerenza, verificabilità e trasparenza operativa) e, in definitiva, serve a rendere la governance dell’IA qualcosa di concreto, senza dover rifare da zero la sicurezza esistente.

"L’IA è ormai parte integrante del modo di operare, e la sicurezza deve evolversi di conseguenza”, spiega Sumit Dhawan, CEO di Proofpoint. "Esseri umani e agenti di IA condividono rischi simili: entrambi possono essere manipolati e compiere azioni che divergono dal loro scopo, eppure, la sicurezza tradizionale non è mai stata progettata per convalidare l’intento. Proofpoint si posiziona in modo unico come piattaforma di cybersecurity unificata, creata per proteggere le persone, difendere i dati e insieme governare gli agenti di IA, fornendo verifica continua e basata sull’intento che il comportamento si allinei a policy e proposito nell’ambiente di lavoro agentico”.

Ci si aspetta che gli esseri umani operino con integrità quando utilizzano i sistemi aziendali, e agli agenti di IA deve essere applicato lo stesso standard”, afferma Ryan Kalember, executive vice president of cybersecurity strategy di Proofpoint. “Usare Agent Integrity significa garantire che gli agenti di IA agiscano entro i limiti del loro scopo previsto, dei permessi autorizzati e del comportamento atteso in ogni interazione, tool call e accesso ai dati. Con Proofpoint AI Security e Agent Integrity Framework, possiamo fornire un blueprint chiaro per supportare le aziende ad affrontare in modo completo l’intero spettro dei rischi che emergono quando gli agenti AI operano autonomamente nei sistemi aziendali”.

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mo4230 Marzo 2026, 16:57 #1
La soluzione di Proofpoint si occupa proprio di questo: analizza il comportamento delle IA e degli agenti di IA dal punto di vista semantico, segnalando situazioni di rischio e in generale risposte non allineate alle intenzioni di chi ha effettuato le richieste.


Praticamente, prima s'inventa il buco, e poi si monetizza sulla toppa.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^