Artificial Intelligence open source come combinazione strategica per potenziare i sistemi aziendali utilizzando strumenti, framework, algoritmi e LLM più accessibili, adattabili e integrabili. Perché nel futuro dell’AI non c’è spazio per i silos. Democratizzare l’intelligenza artificiale significa renderla disponibile per qualsiasi modello, su qualsiasi acceleratore, in qualsiasi cloud. È questa la visione di Red Hat, che ha riassunto i punti chiave del Summit 2025 tenutosi a Boston in un evento organizzato a Milano. L’obiettivo? Mostrare come l’approccio open source sia oggi la leva più efficace per sbloccare il valore della algorithmic economy nei contesti enterprise. Una visione che il brand ha tradotto in un ecosistema d’offerta coerente, in cui l’Artificial Intelligence open source diventa un abilitatore funzionale e infrastrutturale per lo sviluppo di soluzioni intelligenti in ambienti complessi e ibridi.
“Quest’anno il nostro slogan è Any model, any accelerator, any cloud – ha spiegato Rodolfo Falcone, Country Manager, Red Hat -. Il futuro dell’AI deve essere aperto. La premessa è che tutti quelli che fanno progetti AI, soprattutto in ambito generativo e predittivo, hanno bisogno di tantissime risorse computazionali. Grazie alle nostre soluzioni, proponiamo un Artificial Intelligence open source leggera a livello di infrastrutture, permettendo ai nostri clienti di introdurre l’AI nel business e usarla anche in modo massivo senza esaurire i data center”.

Indice degli argomenti
Come l’Artificial Intelligence open source riduce il carico sulla GPU
Con l’acquisizione di Neural Magic, una società specializzata nello sviluppo di tecnologie software che consentono di eseguire modelli di deep learning complessi su CPU standard, la società ha trovato il modo di ottimizzare l’uso delle GPU. Ciò consente inferenze AI ad alte prestazioni con un’infrastruttura più leggera, economica e accessibile che permette di usare l’Artificial Intelligence in modo sostenibile.
La chiave di volta è vLLM (Virtual Large Language Model), una libreria open source – gestita dalla comunità omonima -, progettata per ottimizzare l’inferenza dei modelli linguistici di grandi dimensioni.
Il componente distintivo è PagedAttention, una tecnica di gestione della memoria ispirata al concetto di memoria virtuale e ai meccanismi di paginazione dei sistemi operativi. Senza dover ricalcolare ogni volta tutte le operazioni neurali, questa tecnologia consente di riutilizzare le risposte precedenti sfruttando la cache della memoria a breve termine del modello (nota come Key-Value Cache).
In pratica, quando un modello risponde a un prompt simile a uno che ha già visto, attinge dalla memoria cache ottimizzata anziché ricorrere alla GPU. Questo sistema rende l’esecuzione delle applicazioni GenAI molto più efficiente, perché riduce il carico computazionale a carico delle GPU, permettendo a Red Hat di garantire un’inferenza ad alte prestazioni anche su infrastrutture standardizzate, ibride, on-prem o in cloud.
“Red Hat non ha un prodotto di GenAI tipo ChatGPT o Manus – ha sottolineato Falcone -. All’interno dei nostri prodotti abbiamo la possibilità di accogliere e gestire l’AI che il cliente vuole usare e di posizionarla all’interno della sua infrastruttura, abilitando scenari di Artificial Intelligence open source per qualsiasi tipo di azienda, facendo in modo che i modelli sfruttino meno GPU possibili. Il che significa che gestire l’AI con Red Hat è molto più semplice, veloce, stabile e anche molto più sicuro”.
Un’infrastruttura open per ogni priorità digitale
Citando una recente ricerca condotta da NetConsulting sulle tecnologie abilitanti per le priorità strategiche delle imprese italiane, Falcone coglie l’occasione per evidenziare come l’offerta di Red Hat copra i segmenti più critici per l’evoluzione digitale: cybersecurity, soluzioni di AI, modernizzazione applicativa, cloud in tutte le sue forme e automazione/RPA.

“Red Hat è presente in modo trasversale su tutte le direttrici che oggi guidano le scelte IT strategiche delle imprese – ha puntualizzato il manager -: dalle soluzioni per l’automazione con Red Hat AI, a RHEL 10 come piattaforma nonché base operativa e sicura per l’AI-ready infrastructure, passando per OpenShift come piattaforma di orchestrazione cloud-native, Ansible Automation Platform per la governance intelligente dei processi, fino alla gestione dei workload distribuiti in ottica edge-to-cloud: l’intero stack Red Hat è progettato per abilitare e orchestrare le priorità di business attraverso un’architettura coerente, aperta, scalabile e securitizzata”.
Modelli AI validati
Al centro della proposta Red Hat c’è Red Hat AI, un portfolio integrato di soluzioni pensato per supportare l’intero ciclo di vita dell’AI: dalla selezione dei modelli fino alla gestione di progetti potenziati dalla tecnologia di qualsiasi tipo.
Tra le novità principali, i Red Hat AI Validated Models: modelli open source selezionati e ottimizzati che possono essere integrati direttamente nei flussi AI aziendali, garantendo affidabilità, interoperabilità e performance su architetture cloud-native, ibride e multivendor e resi disponibili tramite Hugging Face, una piattaforma open source collaborativa nata per semplificare l’accesso, la condivisione e il riutilizzo dei modelli.
“L’infrastruttura è il punto in cui l’AI incontra la realtà – ha sottolineato Giorgio Galli, Senior Manager Solution Architect, Red Hat -. Se vogliamo che diventi una leva concreta di trasformazione, dobbiamo garantirne le condizioni di esecuzione. Modelli diversi, dati diversi, ambienti diversi: è qui che l’approccio open source si dimostra vincente. Con questo obiettivo nasce il Red Hat AI Inference Server, basato su vLLM, progettato per offrire un layer di compatibilità e performance, eseguendo modelli di AI generativa in modo rapido, economico e coerente su qualsiasi piattaforma. Compatibile con ambienti Red Hat OpenShift AI, RHEL AI e con distribuzioni Linux/Kubernetes di terze parti, questo componente infrastrutturale è pensato per garantire massima efficienza anche in contesti ibridi e distribuiti”.
Ansible e AI generativa: una nuova automazione intelligente
Un ulteriore tassello della strategia Red Hat è rappresentato da Ansible, la piattaforma di automazione open source progettata per semplificare la configurazione, il provisioning e la gestione di infrastrutture IT complesse. Ansible consente di definire, in modo dichiarativo e trasparente, tutti i processi di automazione attraverso semplici file YAML, eliminando la necessità di script complessi e riducendo il rischio di errore umano.
Red Hat ha esteso le potenzialità della piattaforma abilitando funzionalità di GenAI che suggeriscono comandi, task e flussi in linguaggio naturale tramite l’agente Ansible Lightspeed. È così che l’Artificial Intelligence open source diventa un’estensione naturale del paradigma collaborativo di Ansible, facilitando la creazione di automazioni efficaci anche da parte di team meno esperti e accelerando così l’adozione dell’automazione intelligente nelle imprese.
RHEL 10: il sistema operativo AI-ready per il cloud ibrido
Il fondamento di tutta questa infrastruttura è Red Hat Enterprise Linux 10, disponibile anche nelle versioni ottimizzate per AWS, Azure e Google Cloud. Progettato per affrontare la crescente complessità degli ambienti IT, RHEL 10 integra funzionalità di sicurezza post-quantistica che includono la crittografia, gestione via AI generativa (con il già citato tool Lightspeed) e un approccio cloud-native che include una nuova modalità immagine per semplificare l’orchestrazione di container e flussi DevSecOps.
“Oggi il sistema operativo non è più un semplice layer tecnico: è un catalizzatore strategico che introduce tutta una serie di nuove capability utili a livello operativo e organizzativo – ha evidenziato Galli -. Con RHEL 10 vogliamo offrire un punto di partenza solido per qualsiasi iniziativa digitale, dalle applicazioni tradizionali fino ai carichi AI più complessi, semplificando tutte le fasi di progettazione e di gestione perché nelle aziende ci sono sempre meno risorse e competenze ma l’innovazione va governata. L’intelligenza conversazionale di Lightspeed permette di interrogare con linguaggio naturale l’agente per ottenere suggerimenti su comandi, configurazioni e policy di sicurezza, mentre con Insights Planner e Image Builder aiutiamo le aziende a standardizzare e automatizzare le implementazioni. Tutto questo in modo coerente, replicabile e controllabile”.

La nuova era della virtualizzazione secondo Red Hat
L’evento è stata l’occasione anche per illustrare i 4 punti cardinali della road map di Red Hat: Linux, l’AI, Containerizzazione e virtualizzazione e l’IT l’automation.
Sulla virtualizzazione, Galli ha ripreso due dati significativi emersi dal report State of Virtualization 2025:
- Il 43% delle organizzazioni è intenzionalmente propenso a passare a un hypervisor diverso o aggiuntivo nei prossimi tre anni
- Il 90% delle organizzazioni riconosce la virtualizzazione come elemento chiave per la produttività e la resilienza dell’IT moderno
“Questi numeri ci dicono che la virtualizzazione va ripensata – ha puntualizzato il manager -. Non si tratta solo di consolidare, ma di evolvere. Le imprese oggi vogliono piattaforme in grado di orchestrare tecnologie eterogenee, senza lock-in e con una governance chiara. Il nostro obiettivo è offrire continuità tecnologica, ma anche capacità di scelta – ha aggiunto Galli -. Il tutto introducendo la GenAi nelle nostre tecnologie per supportare chi le gestisce e semplificare l’operatività. Faccio un esempio: se si ha un fault livello operativo è possibile chiedere all’agente LightSpeed quali sono le configurazioni ideali per andare a sistemare le performance. Abbiamo anche rilasciato una modalità differente di gestire il sistema operativo in una modalità che consente di rilasciare applicazioni in cloud”.
Un ecosistema aperto, validato e industrializzabile
In conclusione, l’Artificial Intelligence open source non è più una promessa, ma una realtà industrializzabile. Grazie alla stretta collaborazione con vendor come Meta (per la famiglia Llama), Google (per i modelli Gemma) e AMD (per l’ottimizzazione su Instinct GPU), Red Hat sta costruendo un ecosistema aperto ma certificato, dove le aziende possono scegliere consapevolmente modelli e tool da utilizzare in produzione, scegliendo i loro hyperscaler di riferimento. L’obiettivo di Red Hat e di permettere un utilizzo delle tecnologie ibrido on prem o in cloud. E la stessa cosa vale per i modelli.
“Il repository che abbiamo costruito non è solo una vetrina – ha concluso Galli -. È una raccolta ampia e costantemente aggiornata, dove ogni modello è selezionato, validato e testato su scenari reali per garantire robustezza, efficienza e prontezza al deployment. La distinzione tra modelli validati e modelli ottimizzati, effettuata con LLM Compressor, ci consente di offrire alle aziende opzioni su misura, performance elevate, footprint ridotto e massima interoperabilità”.