Per decenni, i data center centralizzati sono stati la spina dorsale dell’infrastruttura informatica, sia in sede sia nel cloud. Queste strutture su larga scala hanno garantito la potenza di calcolo e lo storage necessari alle aziende di tutto il mondo. Tuttavia, molte applicazioni si stanno spostando all’edge, il che pone nuovi problemi di latenza e prestazione quando si utilizzano i data center e/o i cloud.
Sempre più utenti insoddisfatti stanno valutando la possibilità di abbandonare i modelli IT completamente centralizzati e di collocare le proprie risorse informatiche nel punto in cui sono più necessarie, spesso in postazioni remote e più periferiche.
A contribuire a questo slancio è l’esigenza di gestire la crescita straordinaria e la proliferazione dei dati generati dall’Internet of Things (IoT) e la rapida ascesa dell’AI, con la grande potenza di calcolo che questa comporta. Spostando le risorse di elaborazione vicino alla fonte dei dati, l’edge computing elimina immediatamente la latenza intrinseca associata alla trasmissione di dati a lunga distanza. Questo è fondamentale per le applicazioni IoT e AI che richiedono un’analisi rapida e in tempo reale di enormi quantità di dati per fornire risposte istantanee.
Indice degli argomenti
Perché l’edge computing ha bisogno dell’AI
Secondo IDC, la spesa globale per l’edge computing crescerà fino a 378 miliardi di dollari entro il 2028, spinta dalla crescente domanda di analisi in tempo reale, automazione e miglioramento dell’esperienza dei clienti. Si tratta di una tendenza sempre più diffusa, poiché l’attrattiva di prestazioni di gran lunga migliorate è irresistibile, soprattutto quando si traduce in un vantaggio competitivo o in un time to market più rapido per nuovi prodotti e servizi.
È fondamentale che l’elaborazione di grandi volumi di dati all’edge e on demand consenta alle organizzazioni di far funzionare modelli di intelligenza artificiale praticamente in qualsiasi luogo e in tempo reale, offrendo informazioni, azioni e risposte immediate. Ad esempio, telecamere di sicurezza potenziate dall’AI possono analizzare in diretta le riprese video di un edificio, dando l’allarme immediato in caso di attività sospette. Allo stesso modo, un dispositivo di manutenzione basato sull’AI può elaborare i dati dei sensori provenienti da macchinari remoti, prevedendo quando sarà necessaria una manutenzione prima che si verifichi un guasto, evitando così costosi tempi di inattività o riparazioni più gravi in futuro.
Questi esempi evidenziano perché l’intelligenza artificiale sarà sempre più necessaria nelle aree remote e periferiche: l’attività di un’azienda dipende spesso dalla capacità di prendere decisioni dove i dati vengono generati – e questo avviene proprio all’edge, ai margini della rete.
Dove si colloca il cloud in un’architettura decentralizzata?
Nonostante l’edge computing ruoti attorno all’importanza della decentralizzazione, per molte organizzazioni il cloud continua a rappresentare la base della propria architettura, nonostante i suoi limiti di performance nella comunicazione con le applicazioni che operano all’edge. Abbandonare un approccio cloud-first potrebbe essere inizialmente percepito come un cambiamento destabilizzante. Per alcune realtà sarà necessario un significativo cambiamento di mentalità e una revisione del ruolo del cloud all’interno dell’architettura IT.
Chi non dispone di sistemi IT in loco potrebbe non possedere la flessibilità necessaria per apportare modifiche, soprattutto se già vincolati da costosi contratti cloud dei fornitori. Nel breve termine potrebbero trovarsi in una situazione complicata, costretti a scegliere tra rimanere temporaneamente con il proprio provider cloud oppure investire risorse aggiuntive per ricostruire le parti rilevanti della loro infrastruttura in un data center distribuito.
Sebbene gestire internamente gli elementi chiave possa garantire il 100% di operatività, potrebbe semplicemente non essere economicamente sostenibile o fattibile a livello pratico. Ad esempio, piccoli siti remoti potrebbero dover essere trasferiti in nuove sedi se non dispongono di spazio sufficiente per il nuovo hardware o per il sistema di raffreddamento necessario. Inoltre, potrebbe essere impossibile garantire una connessione internet affidabile al 100%.
Si pone poi il problema di trovare risorse IT locali per gestire e mettere in sicurezza i sistemi on-premises, oltre alle connessioni al cloud o al data center aziendale ancora necessarie per altre applicazioni e per l’archiviazione. Il personale qualificato scarseggia, e può essere difficile da reperire in aree remote, oltre che costoso da mantenere.
Inoltre, i gestori di dati dovranno decidere dove archiviare i propri dati. Devono rimanere all’edge? Essere conservati nel cloud? Salvati con backup all’interno del data center? Cancellati completamente?
Non è affatto semplice, e ci sono obblighi normativi e di conformità da tenere in considerazione quando si spostano i dati da un’area geografica all’altra, oltre alle questioni di sicurezza.
Il ruolo dell’infrastruttura iperconvergente
Sono necessarie soluzioni flessibili e adattabili pensate per l’edge che abbiano la capacità di soddisfare i requisiti di elaborazione in tempo reale richiesti dai motori IoT e AI. È proprio qui che un’infrastruttura iperconvergente (HCI) può risolvere molti dei problemi di prestazioni, logistica e costi che il cloud non può risolvere.
L’HCI consolida le risorse di calcolo, rete e storage in un’unica architettura data center semplificata. In genere può essere eseguita su due o tre server fisici. Tuttavia, a differenza di un’architettura server tradizionale che richiede hardware e software specializzati per ogni funzione, le moderne soluzioni HCI utilizzano la virtualizzazione per un’alternativa più snella ma ugualmente efficace. In questo modo, si ottiene l’equivalente di un’infrastruttura di fascia enterprise, ma senza costi eccessivi o spese aggiuntive.
Infatti, queste infrastrutture alleggerite richiedono solo due server ad alta disponibilità, invece di tre o più, il che permette di ridurre l’investimento iniziale in hardware senza compromettere l’affidabilità o il tempo di operatività.
I requisiti minimi dei server riducono l’ingombro fisico, rendendo la struttura HCI ideale per spazi limitati. Un numero ridotto di componenti hardware comporta un minor utilizzo di energia, sistemi di raffreddamento e parti di ricambio, e richiede meno manutenzione in loco, contribuendo a risparmiare ulteriormente sui costi.
Per supportare carichi di lavoro in continua evoluzione, i fornitori di HCI hanno dedicato particolare attenzione alla riduzione delle complessità legate all’impostazione e alla gestione delle soluzioni remote. L’implementazione non richiede competenze specifiche, al contrario i tecnici generalisti IT possono rendere operativi nuovi siti o applicazioni in meno di un’ora. Inoltre, gli strumenti di gestione centralizzata garantiscono agli amministratori la gestione remota dei siti edge da un’unica console.
Poiché le implementazioni edge per l’intelligenza artificiale continueranno presumibilmente a crescere a un ritmo esponenziale, le soluzioni HCI permettono una facile scalabilità e un rapido adattamento alle diverse esigenze di dati senza complesse riconfigurazioni.
Progettate fin dall’inizio per siti edge di dimensioni ridotte, le soluzioni HCI sono attentamente studiate per soddisfare i rigorosi requisiti di prestazione e disponibilità degli ambienti distribuiti. Ogni sistema bilancia automaticamente le risorse per ottenere un’efficienza ottimale, evitando il provisioning eccessivo o insufficiente, e include tutte le funzionalità necessarie per l’esecuzione di applicazioni a livello locale e per la connessione al cloud e al data center, anche quando questi poggiano su architetture diverse. Tutte le funzionalità sono fornite in un formato flessibile e modulare per facilitare l’integrazione e la gestione continua.
Sfruttare le sinergie tra HCI, cloud ed edge
Questa nuova sinergia tra edge computing, cloud e HCI permette ai reparti IT di implementare rapidamente infrastrutture decentralizzate robuste e scalabili, consentendo alle organizzazioni di sfruttare tutta la potenza dell’AI all’edge. Progettate con precisione per soddisfare tali esigenze, le HCI contribuiranno in modo significativo a rendere la latenza dell’elaborazione distribuita un problema del passato, senza però incidere eccessivamente sui costi.