Nel corso dell’ultima edizione della Gartner IT Infrastructure, Operations & Cloud Strategies Conference, gli esperti Autumn Stanish e Paul Delory hanno delineato una visione precisa su quella che oggi appare come la sfida più complessa per i dipartimenti tecnologici: l’evoluzione dell’AI nell’IT Operation. Il dibattito ha messo in luce come, nonostante l’entusiasmo dei vertici aziendali, il passaggio dai semplici assistenti conversazionali a veri e propri agenti autonomi richieda un cambiamento radicale dei modelli operativi e delle infrastrutture sottostanti.
Indice degli argomenti
La pressione del business e il rischio di irrilevanza dell’I&O
Il panorama attuale è dominato da una forte spinta verso l’efficienza economica. Autumn Stanish ha sottolineato che i CIO si trovano sotto una pressione crescente da parte del business per implementare l’intelligenza artificiale, motivata principalmente dalla volontà di ridurre le spese operative.
I dati presentati indicano che il taglio dei costi è la priorità numero uno per il 52% dei CIO in vista del 2026, e l’aspettativa generale è che l’AI sia lo strumento chiave per raggiungere questo obiettivo.
Tuttavia, esiste un divario significativo tra le ambizioni aziendali e la realtà operativa. Paul Delory ha evidenziato come le infrastrutture attuali non siano state progettate per questo tipo di carichi di lavoro e che i modelli operativi in uso risultino obsoleti.
Secondo le analisi Gartner, il 50% dei leader I&O identifica l’integrazione dell’intelligenza artificiale nelle infrastrutture correnti come una delle principali sfide per l’adozione della tecnologia. Se i responsabili delle operazioni non riusciranno a evolvere, rischiano di diventare un ostacolo per l’azienda, spingendo il business verso soluzioni alternative come lo “shadow IT”, l’outsourcing o la decentralizzazione.
Come affermato da Stanish, in questi scenari l’I&O non perde solo il controllo, ma rischia di perdere la propria rilevanza strategica: «L’I&O diventa un centro di costo per il mantenimento del passato, non per costruirci verso il futuro».
Comprendere l’evoluzione dell’AI nell’IT Operations: assistenti contro agenti
Per navigare correttamente nell’evoluzione dell’AI nell’IT Operations, è fondamentale distinguere tra le diverse tipologie di strumenti disponibili. Spesso si tende a confondere i chatbot con gli agenti, ma la differenza è sostanziale e risiede nel grado di autonomia. Stanish definisce un agente AI come un software autonomo o semi-autonomo che utilizza una combinazione di tecniche e tecnologie per agire su un obiettivo specifico.
Mentre gli assistenti AI sono strumenti conversazionali che aiutano o ottimizzano i compiti umani, restando confinati a un ruolo di supporto, gli agenti fanno un passo ulteriore. Una volta attivati, essi sono in grado di ingerire il contesto, ragionare su di esso e intraprendere azioni in modo indipendente, talvolta senza alcun input umano.
Nonostante il potenziale, Gartner invita alla cautela: esiste un “AI Agency Gap”, ovvero una discrepanza tra le aspettative del mercato e le reali capacità tecnologiche odierne. Le previsioni indicano che solo il 15% degli agenti sarà completamente autonomo entro i prossimi sette anni, suggerendo che l’autonomia sarà una progressione graduale e non un cambiamento immediato.
Le sfide tecnologiche e il rischio di fallimento dei progetti
L’implementazione degli agenti AI non è priva di rischi tecnici e finanziari. Queste tecnologie richiedono nuove componenti infrastrutturali, come i database vettoriali, che molte aziende oggi non possiedono. Inoltre, molte delle tecnologie operative emergenti hanno meno di un anno di vita e sono spesso legate a specifici fornitori, il che rende incerta la definizione di standard futuri.
Un altro punto critico riguarda l’imprevedibilità del comportamento degli agenti. Essi possono interagire con sistemi e dati in modi non preventivati, rendendo difficile l’intervento in tempo reale in caso di decisioni errate.
A questo si aggiunge il problema dell’agent sprawl, ovvero la proliferazione incontrollata di agenti diversi rilasciati da vari vendor, che mette a dura prova la capacità dei team di gestire i costi e la governance. L’incertezza finanziaria è già palpabile: il 61% dei leader IT teme il superamento dei costi, mentre il 38% dichiara che i costi di implementazione dell’AI stanno già superando i benefici ottenuti.
Queste criticità portano a una previsione drastica: entro il 2027, Gartner stima che il 40% dei progetti di AI Agentic sarà cancellato.
Continuous Operations: la soluzione per una governance sicura
Per mitigare questi rischi, Paul Delory suggerisce di adottare il modello delle Continuous Operations. Questo approccio estende i principi della Continuous Integration e della Continuous Delivery (CI/CD) direttamente all’infrastruttura. L’obiettivo è costruire una pipeline di distribuzione completamente automatizzata e strutturata, dotata di “guardrail” o test integrati in ogni fase.
Questo sistema agisce come una catena di montaggio industriale applicata al software e all’hardware. Ad esempio, nella creazione di un server, un orchestratore guida gli strumenti di build attraverso diverse stazioni di controllo. Il server non può avanzare alla fase successiva o entrare in produzione se non supera i test di sicurezza, conformità e configurazione. Delory ha spiegato l’importanza di questo metodo per il controllo degli agenti: «Ora abbiamo un meccanismo in cui possiamo fornire tutto ciò di cui l’agente AI ha bisogno, e allo stesso tempo quel meccanismo ci permette di controllarne il comportamento».
Le Continuous Operations consentono inoltre di integrare pratiche di FinOps direttamente nel processo di sviluppo. Utilizzando strumenti che stimano il costo di una configurazione infrastrutturale o del deploy di un’app, è possibile impostare test che bloccano le operazioni se queste superano il budget previsto. In questo modo, l’evoluzione dell’AI nell’IT Operations non avviene a scapito della stabilità finanziaria, ma all’interno di un perimetro di spesa controllato e verificabile.
La roadmap per guidare la trasformazione
Nonostante la complessità, Gartner sostiene che i dipartimenti I&O possano iniziare questo percorso oggi stesso, sfruttando quello che viene definito il “second mover advantage”. Molti degli strumenti necessari per le Continuous Operations sono disponibili, spesso open source, e le metodologie sono ormai consolidate da oltre un decennio di esperienza nel mondo del software.
Il percorso suggerito si articola in tre momenti chiave:
- Istituzione di un AI Center of Excellence (CoE). Questo team avrà il compito di fungere da “controllore del traffico AI”, decidendo quali task delegare agli agenti, definendo l’ambito dei progetti e stabilendo le misure di successo fin dall’inizio.
- Sviluppo di un Minimum Viable Product (MVP). È consigliabile iniziare con un compito semplice e comune, come l’automazione della distribuzione dei server con sistemi operativi “nudi”, per poi aggiungere gradualmente livelli di complessità come build applicative e controlli di sicurezza.
- Onboarding e scalabilità. Una volta costruita la pipeline iniziale, è necessario coinvolgere un primo team di utenti, perfezionare il processo in base alle loro esigenze e successivamente estendere il modello ad altri reparti, aumentando progressivamente le capacità della pipeline stessa.
In un anno di lavoro, questo approccio permette di creare un circolo virtuoso di feedback in cui le azioni degli agenti vengono costantemente monitorate e testate. Come sottolineato in chiusura da Delory, questo cambiamento non riguarda solo il futuro remoto: «Questa è la pipeline che potete costruire oggi e che vi darà benefici immediati oggi per i vostri utenti umani, e vi preparerà per il futuro in cui aggiungerete agenti AI nel mix». L’adozione di un modello Platform-Centric e l’implementazione delle Continuous Operations rappresentano dunque i pilastri necessari affinché l’I&O possa guidare la trasformazione aziendale invece di subirla.





















