L’EVENTO

HPE Discover 2025: reti autonome e infrastrutture smart ridisegnano il futuro del networking



Indirizzo copiato

Dal palco della kermesse europea a Barcellona i vertici della società delineano una strategia che si realizza nello sviluppo di reti progettate con l’AI e per l’AI. Il punto sull’integrazione con Juniper Networks e l’impegno sul fronte dell’intelligenza artificiale sovrana 

Pubblicato il 4 dic 2025



HPE Discover 2025

“Unlock your AI ambitions”, che tradotto in modo non proprio letterale suona più o meno come “sblocca tutte le tue ambizioni in ambito AI”. È questo il claim scelto come filo conduttore dell’edizione di quest’anno di HPE Discover.

La conferenza europea della casa texana si svolge ancora una volta a Barcellona, in Spagna, e dal palco della kermesse Antonio Neri, Chief Executive Officer di HPE ha illustrato una visione ambiziosa sul futuro dell’IT aziendale, fondata su tre pilastri connessi: networking, cloud e intelligenza artificiale.

AI-driven networking e AI sovrana sono i concetti più spesso citati. A sottolineare, qualora ce ne fosse ancora bisogno, la centralità dell’intelligenza artificiale nel trasformare i modelli di business nell’ambito di un percorso che, per ammissione stessa del CEO, appare ancora piuttosto accidentato e segnato da sfide importanti come l’eredità “scomoda” dei sistemi legacy, i costi crescenti e la rigidità delle infrastrutture.

Antonio Neri, Chief Executive Officer di HPE

Reti progettate con l’AI per l’AI

L’acquisizione di Juniper Networks, completata appena cinque mesi fa, rappresenta un punto di svolta per HPE, una mossa strategica capace di alterare gli equilibri del mercato del networking enterprise accelerando la convergenza tecnologica tra AI, Cloud e reti e ampliando il catalogo di soluzioni Ai native del vendor.

«Nell’era dell’intelligenza artificiale, le aziende necessitano di reti progettate con l’AI e per l’AI, capaci di gestire la crescita esponenziale di dati, dispositivi connessi e minacce sempre più complesse. Con la nostra offerta integrata di soluzioni per reti autonome e ad alte prestazioni, siamo pronti a trasformare l’industria del networking», ha avvertito Rami Rahim, ex CEO di Juniper Networks e ora Presidente e General Manager Networking Business di HPE confermando un obiettivo già intuito da molti dieci anni fa, all’epoca dell’acquisizione di Aruba Networks.

Rami Rahim, Presidente e General Manager Networking Business di HPE

Il networking non è mai stato così importante

L’azienda si presenta a questo appuntamento europeo, che segue di 6 mesi quello americano che si è tenuto a Las Vegas, con le idee molto chiare e con un portafoglio prodotti ampliato, che riflette la portata del cambiamento in atto e consolida la visione strategica di un futuro dominato dalle reti autonome e da un’IT sempre più ibrido.

«Il networking non è mai stato così importante come in questo momento», ha sottolineato dal palco Rahim, spiegando come l’evoluzione tecnologica stia ridefinendo i confini tradizionali dell’IT ed evidenziando come il networking, complice la diffusione dell’AI, sia diventato sempre più strategico in azienda.

La strategia di HPE in questo ambito si articola su due fronti complementari: “AI for Networks” e “Networks for AI”, ovvero l’AI al servizio delle reti e le reti ottimizzate per l’AI.

Nel primo caso, l’offerta di HPE Aruba Networking Central e HPE Juniper Networking Mist converge verso l’AIOps (AI Operations) per fornire opzioni di implementazione più flessibili possibile. La roadmap annunciata prevede anche l’introduzione, nel terzo trimestre del 2026, di “una nuova piattaforma Wi-Fi che permetterà di gestire insieme i mondi Aruba e Juniper, garantendo agli utenti massima libertà di scelta e protezione degli investimenti”, ha assicurato Neri. 

Le novità hardware: nell’Edge AI vince il fattore forma compatto

Sul fronte delle reti ottimizzate per l’AI, il CEO ha annunciato importanti novità nel portafoglio hardware, a partire dal QFX5250 Data Center Switch con chipset Broadcom Tomahawk 6, dotato di tecnologia di raffreddamento a liquido e ottimizzato per collegare le GPU nei data center e supportare le applicazioni di intelligenza artificiale e Machine Learning.

MX301 Multiservice Edge Router è, invece, un router compatto multiservizio pensato per portare l’elaborazione AI all’edge, proprio dove si sta spostando l’inferenza. «I fattori forma compatti – ha osservato Rahim – sono la scelta vincente se si vuole garantire che i modelli di IA e gli algoritmi vengano eseguiti direttamente sui dispositivi, come sensori, smartphone o device IoT, in cui questi dati si generano».

Particolarmente importante è l’annuncio di Helios, uno switch AI scalabile in rack realizzato in collaborazione con Broadcom e AMD basato su standard Ethernet open che, a detta di Rahim, rappresenta un punto di svolta soprattutto per i fornitori di servizi cloud e le grandi aziende. Disponibile nel 2026, promette prestazioni rivoluzionarie per il calcolo ad alte prestazioni, il training di modelli AI complessi e l’inferenza su larga scala.

Rafforzata anche la potenza di fuoco in ambito storage, con i nuovi Data Intelligence Nodes per HPE Alletra Storage MP X10000, sviluppati in collaborazione con NVIDIA, che promettono prestazioni di 1,2 Petabyte all’ora di throughput e un rapporto di deduplica dati di 60:1.

L’evoluzione verso le reti self-driving

Rahim ha illustrato la visione dell’azienda sul futuro delle self-driving network, le reti che si autogestiscono, parte integrante della strategia di networking intelligente sostenuta da un framework di microservizi e nuove funzionalità pensate per ridurre la complessità operativa a carico dei team IT. «Self configuring, self optimizing e self healing», ovvero in grado di configurarsi, ottimizzarsi e ripararsi in autonomia. Così Rahim ha descritto le caratteristiche delle reti di nuova generazione, evidenziando come questa evoluzione sia sempre più necessaria in un contesto in cui «ci sono sempre meno persone nell’IT e sempre più richieste da parte del business».

HPE Private Cloud AI: la soluzione chiavi in mano per l’AI sovrana

Novità importanti anche nell’offerta di piattaforme Cloud per l’AI, con l’obiettivo di rafforzare la strategia che vede HPE citata da IDC tra i leader del mercato delle infrastrutture private dedicate all’intelligenza artificiale. HPE Private Cloud AI è una soluzione “chiavi in mano” che consente di creare rapidamente ambienti privati pronti all’uso per avviare in tempi brevi i progetti IA.

Sviluppata da HPE in collaborazione con NVIDIA, questa piattaforma pronta all’uso combina hardware, rete, storage e software ottimizzato per i carichi di lavoro AI già integrati, preconfigurati e validati e introduce il partizionamento delle GPU per garantire efficienza e costi contenuti.

Le novità per il software: monitoraggio centralizzato e virtualizzazione

Sul fronte delle applicazioni e delle piattaforme software, a rubare la scena sono OpsRamp e Morpheus. La prima è una console per il monitoraggio centralizzato dell’infrastruttura che offre visibilità completa, insight predittivi e automazione intelligente degli ambienti complessi e multi vendor integrata in GreenLake, una piattaforma che offre servizi IT in modalità as-a-service garantendo un’esperienza cloud-like anche per i carichi di lavoro on premise.

Sul fronte della virtualizzazione, HPE ha ampliato l’offerta con Morpheus Enterprise, l’evoluzione di VM Essentials che promette di «ridurre i costi dei carichi di lavoro virtualizzati fino al 90% in virtù di un sistema di licenza per socket anziché per core – ha spiegato Rahim -. Morpheus unifica tutte le operazioni on premise, nel cloud pubblico e in quello privato garantendo funzionalità avanzate di microsegmentazione, configurazione automatizzata degli switch e stretched cluster per il Disaster Recovery».

HPE completa questi annunci con iniziative concrete, che puntano a facilitare l’adozione delle sue soluzioni, dai programmi di finanziamento a tasso zero per il software alla possibilità per le aziende del Vecchio Continente di testare e validare architetture e applicazioni di AI sovrana nel nuovo AI Factory Lab di Grenoble, in Francia, realizzato in collaborazione con il partner Nvidia.

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati