intelligenza artificiale

Guardian Agents: l’AI che protegge dall’AI



Indirizzo copiato

Con la crescente diffusione dell’intelligenza artificiale, cresce anche il bisogno di meccanismi capaci di monitorarla, correggerla e contenerne gli effetti collaterali. Gartner descrive l’emergere dei Guardian Agents come risposta tecnica e concettuale al superamento del modello “human-in-the-loop”

Pubblicato il 10 ago 2025



aiagents

L’espansione dell’intelligenza artificiale nei processi aziendali, nei servizi pubblici e nelle interazioni quotidiane solleva una domanda sempre più urgente: chi controlla i sistemi intelligenti? Se fino a poco tempo fa la risposta standard era “l’uomo”, oggi questa garanzia non appare più sufficiente. A dirlo è Daryl Plummer, Distinguished VP Analyst e Chief of Research di Gartner, che durante il suo intervento al Gartner IT Symposium/Xpo ha descritto l’emergere di una nuova figura: quella dei “Guardian Agents“, agenti digitali autonomi incaricati di garantire il controllo dell’intelligenza artificiale.

Secondo Plummer, è illusorio pensare che gli esseri umani possano continuare a supervisionare ogni istanza o decisione generata da un sistema di AI. La moltiplicazione delle applicazioni e la loro crescente complessità rendono impraticabile l’idea di un “human-in-the-loop” come meccanismo centrale di governance. Gli operatori umani non sono abbastanza numerosi per gestire l’intero volume di output generato e, in molti casi, nemmeno sufficientemente affidabili per farlo con la necessaria coerenza e tempestività.

Perché gli esseri umani non bastano più

La supervisione umana è stata finora uno dei pilastri dell’adozione etica dell’AI. Ma come sottolinea Plummer, la rapidità con cui i sistemi intelligenti si diffondono e si specializzano supera di gran lunga la capacità delle persone di analizzarne, in tempo reale, il comportamento. Le aziende che vogliono garantire qualità, e sicurezza nei processi automatizzati devono iniziare a delegare parte del controllo ad altri sistemi di AI, progettati per svolgere compiti di supervisione e correzione.

Questa transizione segna un punto di svolta. Non si tratta più di integrare l’intelligenza artificiale nei processi, ma di costruire una metastruttura in cui alcune AI osservano e validano il lavoro di altre. Una condizione che, secondo Plummer, sarà centrale nell’evoluzione futura del controllo dell’intelligenza artificiale.

Sicurezza, osservabilità e orchestrazione automatica

Il concetto di Guardian Agent si colloca all’intersezione tra sicurezza informatica, osservabilità dei sistemi, orchestrazione automatica e gestione del rischio. Gli agenti non sono generalisti: nascono per ruoli specifici, come monitorare l’accuratezza, identificare deviazioni, segnalare errori o comportamenti sospetti.

Plummer sottolinea come i Guardian Agent siano parte di un più ampio ecosistema di agenti specializzati, che include anche mentori e broker. Il loro compito è duplice: proteggere le persone dagli effetti potenzialmente dannosi dell’AI e tutelare la stessa AI dal deterioramento delle sue performance nel tempo. L’obiettivo non è solo contenere, ma anche migliorare la qualità del servizio reso dai sistemi intelligenti.

Cosa stanno già facendo startup come AIXPLAIN

Il modello teorizzato da Gartner trova già applicazioni concrete. Plummer cita il caso di AIXPLAIN, startup che sta sviluppando una gamma di agenti digitali con funzioni di tutoraggio, supporto decisionale e monitoraggio. Tra questi, proprio i Guardian Agents rappresentano la punta più avanzata dell’offerta.

I sistemi proposti da AIXPLAIN non si limitano a osservare i comportamenti delle AI operative, ma sono progettati per agire proattivamente: rilevare anomalie, suggerire modifiche, impedire output inappropriati. In alcuni casi, sono in grado di interrompere l’attività di un sistema se viene superata una soglia critica di rischio o di errore.

La logica è la stessa di un sistema immunitario: riconoscere i segnali di malfunzionamento e intervenire prima che l’intero processo venga compromesso. Una visione che spinge il concetto di controllo dell’intelligenza artificiale oltre la semplice vigilanza passiva.

Oltre il paradosso dell’agente che sorveglia l’agente

Durante la presentazione, Plummer affronta anche una delle obiezioni più classiche: cosa succede quando l’agente che controlla l’intelligenza artificiale diventa a sua volta soggetto a errore? Chi controlla il controllore? La risposta è pragmatica: non serve un regresso infinito di livelli di sorveglianza, perché ogni strato aggiuntivo restringe lo spazio di rischio.

Plummer afferma che in genere bastano uno o due livelli di guardian per ottenere un sistema stabile. La chiave è nella progettazione modulare e nella capacità di ogni agente di operare in base a criteri autonomi ma verificabili. L’obiettivo non è eliminare ogni possibilità di errore, bensì ridurre al minimo l’impatto dei malfunzionamenti e garantire processi più resilienti.

Il futuro dei processi di “auto-guarigione” e autonomia

Guardando al medio termine, l’emergere dei Guardian Agents apre la strada allo sviluppo di sistemi in grado di autoripararsi, riconfigurarsi e adattarsi senza intervento umano. Plummer parla di “sistemi di auto-guarigione” capaci non solo di mantenere l’efficienza operativa, ma anche di evolversi in base a obiettivi definiti dinamicamente.

Questo scenario cambia il ruolo dell’intelligenza artificiale all’interno delle organizzazioni. Non è più solo uno strumento da integrare, ma un ambiente complesso da gestire, con regole, agenti e meccanismi di controllo propri. L’autonomia tecnica si combina con forme di responsabilità distribuita, in cui le decisioni vengono prese da entità artificiali ma monitorate da altri sistemi intelligenti.

Per le imprese tecnologiche, conclude Plummer, questa è l’opportunità per sviluppare nuovi prodotti, servizi e modelli di business. E per i decisori, è l’inizio di una fase in cui le politiche di controllo dell’intelligenza artificiale dovranno essere ripensate da zero.

Speciale Digital Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Leggi l'articolo Digital360Awards e CIOsumm.it, i momenti salienti
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Leggi l'articolo La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Leggi l'articolo Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Leggi l'articolo Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Leggi l'articolo Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Leggi l'articolo Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Leggi l'articolo Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Leggi l'articolo Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Leggi l'articolo Open Source: collaborazione e innovazione nel caos apparente del software libero 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Leggi l'articolo BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Leggi l'articolo AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Leggi l'articolo Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Leggi l'articolo Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Leggi l'articolo Digital360Awards e CIOsumm.it, i momenti salienti
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Leggi l'articolo La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Leggi l'articolo Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Leggi l'articolo Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Leggi l'articolo Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Leggi l'articolo Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Leggi l'articolo Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Leggi l'articolo Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Leggi l'articolo Open Source: collaborazione e innovazione nel caos apparente del software libero 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Leggi l'articolo BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Leggi l'articolo AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Leggi l'articolo Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Leggi l'articolo Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 5