Quando si parla di intelligenza artificiale in azienda, la domanda che ricorre più spesso, in questo momento, è “dove farla girare”. E la risposta, quasi sempre, non è né al 100% nel cloud pubblico né solo in un data center privato. È in quella “terra di mezzo”, quell’architettura distribuita e flessibile che il mercato ha cominciato a identificare come hybrid AI.
Il tema non è nuovo, ma al Red Hat Summit 2026 di Atlanta ha assunto una consistenza diversa. Non più una promessa vaga di flessibilità futura, ma una strategia articolata che vede nella libertà di scelta il “verbo”, supportato dalla casa di Raleigh con KPI, casi d’uso documentati, prodotti e funzionalità già disponibili.
Indice degli argomenti
Hybrid AI: come creare un modello operativo coerente
Perché l’hybrid AI funzioni davvero, hanno spiegato dal palco della kermesse i top manager di Red Hat, non basta distribuire i carichi di lavoro su infrastrutture diverse. Serve un modello operativo coerente, strumenti di governance unificati e la capacità di gestire modelli, agenti e inferenza distribuita senza che la complessità esploda e travolga i processi.
Ad alternarsi sul palco dei due keynote Matt Hicks, President e Chief Executive Officer di Red Hat; Chris Wright, Chief Technology Officer, e Ashesh Badani, Chief Product Officer dell’azienda, che hanno offerto tre prospettive diverse – strategica, tecnologica e di prodotto – costruendo uno storytelling coerente e coeso attorno a un’idea precisa. Ovvero che l’hybrid AI non può e non deve essere considerata la scelta di chi non può permettersi il cloud pubblico. È, invece, la risposta strutturale alle esigenze di controllo, compliance e sovranità delle grandi organizzazioni che operano in mercati regolati, gestiscono dati sensibili o, più semplicemente, non vogliono trovarsi, tra qualche anno, ingabbiati in dinamiche di lock-in tecnologico simili a quelle che hanno caratterizzato la stagione più recente del cloud.
Hybrid AI, il nuovo paradigma operativo dell’intelligenza artificiale agentica
Uno dei concetti sottolineati a più riprese nella due giorni del Red Hat Summit 2026 è stato il valore dell’hybrid AI come nuovo paradigma operativo destinato a dominare l’intelligenza artificiale enterprise nei prossimi anni.
Secondo Matt Hicks, President e CEO di Red Hat, l’AI non potrà vivere esclusivamente nel cloud pubblico. «Troppe aziende operano in settori regolati, gestiscono dati sensibili o devono garantire requisiti di latenza, compliance e continuità operativa incompatibili con un modello completamente public. L’hybrid AI per queste organizzazioni non rappresenta un compromesso ma l’unica strategia realmente sostenibile».

Nel corso del keynote il concetto di “any cloud, any model, any agent” è stato ripetuto più volte, quasi come un mantra. La visione Red Hat prevede che le aziende siano libere di scegliere dinamicamente dove eseguire workload AI, quali modelli utilizzare e come distribuire inferenza e agenti tra cloud pubblici, data center privati e ambienti edge.
La partita è economica e strategica
La partita non riguarda soltanto la tecnologia, ma anche il controllo economico e strategico delle infrastrutture AI. Molte organizzazioni iniziano, infatti, a temere che il mercato dell’intelligenza artificiale generativa e agentica possa replicare le stesse dinamiche di lock-in già viste negli anni scorsi nel cloud pubblico.
Ashesh Badani, Senior Vice President e Chief Product Officer di Red Hat, è stato esplicito sul punto. «La sovranità riguarda il controllo, la capacità di un’organizzazione di mantenere supervisione e comando sulla propria traiettoria di sviluppo dell’intelligenza artificiale, indipendentemente dagli shock geopolitici, dalle dinamiche del mercato o dalle condizioni dei vendor», ha spiegato.
Per la tech company americana i modelli open weight, in questo senso, non rappresentano semplicemente una scelta tecnica ma piuttosto uno strumento funzionale all’obiettivo di restituire autonomia alle aziende. Di questi modelli di grandi dimensioni, infatti, vengono resi pubblici e scaricabili i parametri (pesi) pre-addestrati. Questo significa che è possibile ottenere la disponibilità dell’equivalente delle sinapsi del “cervello” addestrato per quel modello, che sarà possibile eseguire in locale e adattare per i propri scopi garantendo maggior trasparenza e controllo sull’output.

Red Hat AI 3.4 e il Model-as-a-Service, l’architettura per l’IA ibrida
Venendo agli annunci di prodotto, Badani ha presentato Red Hat AI 3.4, la piattaforma che traduce in pratica il concetto di Metal-to-Agent, presidiando di fatto l’intera catena del valore dell’intelligenza artificiale – dall’hardware fisico ottimizzato per i carichi di lavoro AI alla gestione degli agenti autonomi in produzione.
La piattaforma introduce il concetto di Model-as-a-Service (MaaS), una singola interfaccia governata attraverso cui gli sviluppatori accedono a modelli validati, mentre gli amministratori tracciano i consumi, applicano le policy e definiscono i guardrail. L’inferenza distribuita è gestita attraverso vLLM e llm-d, due progetti AI open source di cui Red Hat è tra i principali sostenitori.
Badani ha insistito su un punto in particolare: le imprese devono essere in grado di gestire ambienti misti senza moltiplicare la complessità. «Abbiamo virtual machine, container e workload AI che devono poter girare fianco a fianco, gestiti nello stesso modo, operati nello stesso modo, protetti nello stesso modo», ha osservato. In altre parole, la piattaforma deve servire a unificare, non a frammentare e complicare.
AI Factory: industrializzare l’intelligenza artificiale per ridurre la complessità
Chris Wright, Chief Technology Officer and Senior Vice President, Global Engineering di Red Hat ha fornito il contesto architetturale di riferimento sottolineando a più riprese il concetto di AI Factory, come risposta strutturata alla necessità di portare l’intelligenza artificiale dal laboratorio alla produzione su scala industriale in tempi sempre più ridotti.
«Un’AI Factory non è un data center con qualche GPU in più – ha spiegato il manager –. È il concetto racchiuso in una piattaforma integrata, co-sviluppata con NVIDIA, capace di industrializzare l’intelligenza artificiale trasformandola da esperimento isolato a capacità operativa scalabile disponibile in tempo reale. Quello che abbiamo creato è un’offerta completa che parte dall’utilizzo di hardware ottimizzato e arriva alla gestione in produzione degli agenti, passando attraverso tutti gli aspetti di inferenza distribuita, gestione di qualsiasi modello IA e servizio agentico».
La legacy transformation di Eurocontrol
La metafora industriale è intenzionale. «Le aziende – ha precisato Wright – non vogliono gestire la complessità dell’inferenza, dei modelli e degli agenti. Vogliono usare gli agenti. E il nostro obiettivo è rendere semplice tutto lo stack tecnologico, dal server Linux al layer di inferenza, fino ai modelli linguistici e agli agenti autonomi. Pensate a come interagite oggi con il cloud. Di fatto, tutto si riduce a un’API dall’utilizzo piuttosto intuitivo. Ecco, il nostro impegno è aiutare le aziende a creare lo stesso tipo di interfaccia anche per gli agenti AI».

Un caso emblematico portato sul palco è quello di Eurocontrol, l’organizzazione europea per la sicurezza della navigazione aerea, che gestisce ogni anno oltre undici milioni di voli che transitano dal Vecchio Continente. La sua backbone core era ormai diventata obsoleta, impossibile da scalare e incompatibile con le tecnologie AI più moderne.
La migrazione su Red Hat OpenShift, la piattaforma basata su Kubernetes per gestire applicazioni containerizzate in ambienti cloud ibridi, ha permesso di rimodellare tredici anni di dati in una forma “AI-ready”, quindi digeribile e interpretabile dagli agenti, trasformando un vincolo legacy in un serbatoio di informazioni immediatamente fruibili per analisi in tempo reale votate a logiche di riduzione dell’impatto ambientale e ottimizzazione operativa.
AgentOps e sicurezza per governare l’hybrid AI in produzione
Diffuso e trasversale, al di là dell’ambiente di inferenza e del modello scelto, è il principio guida dell’AgentOps che nel caso di Red Hat si sostanzia in un set di strumenti di gestione end-to-end del ciclo di vita degli agenti AI, dall’ambiente di sviluppo alla produzione, con tracciabilità, osservabilità e gestione delle identità integrate.
Un aspetto non secondario in questo preciso momento “storico” dell’AI, considerato che gli agenti operano con un livello crescente di autonomia, con le ricadute in termini di sicurezza che ne derivano. Red Hat risponde a queste esigenze con audit trail completi; funzionalità di red teaming automatizzato (CART) per testare l’infrastruttura IT attraverso simulazioni evolute di attacchi su larga scala e gestione delle identità in ambienti dinamici e diversificati attraverso il progetto open source SPIFFE (Security Production Identity Framework for Everyone).
Il futuro dell’intelligenza artificiale è framework-agnostic
I vertici di Red Hat rimarcano a più riprese il valore di un modello BYOA – Bring Your Own Agent. la piattaforma è progettata per essere framework-agnostic, capace di ospitare agenti sviluppati con qualsiasi strumento e modello linguistico, gestendoli in modo unificato attraverso i servizi di AgentOps, includendo la gestione delle identità digitali degli agenti, il lifecycle management e l’osservabilità end-to-end, oltre che l’integrazione con MCP (Model Context Protocol, lo standard open source introdotto da Anthropic per collegare, come una sorta di porta USB-C, i modelli AI alle fonti dati esterne, agli ambienti di sviluppo e ai software di terze parti).
Per gli sviluppatori, il Red Hat Summit 2026 porta l’annuncio della disponibilità generale di Red Hat Desktop con funzionalità di sandboxing isolato per gli agenti AI, che possono essere testati in ambiente protetto sul laptop del programmatore prima di essere distribuiti in produzione su OpenShift, garantendo consistenza tra l’ambiente locale e il cloud.














