Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Intelligenza artificiale per l’efficienza dei Data Center: dal MIT di Boston un nuovo sistema

pittogramma Zerouno

Prospettive

Intelligenza artificiale per l’efficienza dei Data Center: dal MIT di Boston un nuovo sistema

L’intelligenza artificiale potrebbe aiutare i Data Center a funzionare in modo molto più efficiente. Ne sono convinti al MIT, il Massachusetts Institute of Technology di Boston: alcuni ricercatori hanno messo a punto un nuovo sistema che impara come ottimizzare l’allocazione dei carichi di lavoro su migliaia di server per ridurre i costi e risparmiare energia.

05 Set 2019

di Nicoletta Boldrini

L’efficienza energetica ed il risparmio dei costi sono obiettivi di lunga data per chi si occupa di gestire ed ottimizzare i Data Center. Centri nevralgici da cui dipendono processi, comunicazioni e tutti i servizi che fanno ormai parte di tutte le attività aziendali, i Data Center sono tutt’ora energivori, nonostante negli ultimi decenni si sia fatto molto da punto di vista dell’ottimizzazione delle infrastrutture (con il consolidamento e la virtualizzazione di server, storage e network) e della gestione intelligente di power & cooling (energia e sistemi di raffreddamento). Un passo in avanti si potrebbe fare sfruttando le peculiarità tecnologiche di alcune soluzioni basate su intelligenza artificiale.

Che l’intelligenza artificiale possa essere applicata anche al mondo IT e della Computer Science non è una novità, così come non lo è il fatto di vederla utilizzata nell’ambito della gestione dei Data Center: nel 2018 Google annunciò di aver messo a punto un sistema basato su intelligenza artificiale i cui obiettivi iniziali erano il risparmio energetico e minori costi di gestione [migliaia di sensori sparsi nei Data Center alimentano una rete neurale profonda che fa avanzate analisi suggerendo in modo automatico che azioni intraprendere dando priorità, per volontà di Google stessa, ad azioni che privilegiano sicurezza e affidabilità rispetto a prestazioni e ai risparmi sui costi – ndr]. Il sistema di Google in poco tempo ha compreso quali soluzioni e scelte adottare per migliorare la gestione del raffreddamento del Data Center, con conseguenti risparmi sui costi ed una migliore efficienza energetica.

Reinforcement learning per pianificare e ottimizzare i carichi di lavoro nei Data Center

Al MIT, il Massachusetts Institute of Technology di Boston, hanno recentemente fatto un ulteriore passo in avanti in questa direzione sviluppando un nuovo sistema che impara autonomamente come pianificare le operazioni di elaborazione dei dati su migliaia di server in modo da ottimizzare l’impiego delle risorse (comprese quelle necessarie ad energia e raffreddamento), con conseguente riduzione dei costi.

L’allocazione dinamica delle risorse infrastrutturali per supportare l’elaborazione dati nei Data Center è un’attività che tradizionalmente è affidata ad algoritmi, solo che fino ad oggi questi venivano creati da esseri umani che privilegiavano policy e linee guida aziendali le quali, nella maggior parte dei casi, tenevano poco conto dell’efficienza energetica (se non come controllo sui costi complessivi) privilegiando performance ed affidabilità a supporto di processi e servizi applicativi.

I ricercatori del MIT di Boston hanno sviluppato nuove tecniche di machine learning basate sull’apprendimento con rinforzo stimolando il sistema ad auto-apprendere in base a regole, prove ed errori al fine di personalizzare le decisioni relative alla pianificazione dei carichi di lavoro (anche molto complessi), ossia allocare specifici workload in specifici cluster di server in modo da ottenere un’ottimizzazione dei carichi ed una migliore efficienza energetica.

In pratica, il sistema sviluppato dai ricercatori prova molti modi possibili per allocare i carichi di lavoro in entrata tra i server, trovando infine un compromesso ottimale nell’utilizzo delle risorse di calcolo e delle velocità di elaborazione. In tutto questo non è necessario alcun intervento umano, basta una semplice istruzione come quella che dice al sistema “minimizza i tempi di completamento del lavoro”.

Secondo quanto rivelato (e pubblicato) dagli scienziati che hanno lavorato al progetto, rispetto ai migliori algoritmi di programmazione scritti dagli esseri umani, il sistema sviluppato al MIT porta a termine lavori dal 20 al 30 percento più veloci, in generale, e due volte più veloci durante i periodi di “traffico intenso” (workload data intensive, come quelli derivanti dall’utilizzo massivo degli ERP, da applicazioni di analisi avanzate sui dati, ecc.).

Ad oggi, il sistema ha imparato come compattare i carichi di lavoro in modo efficiente per ridurre gli sprechi (di fatto è da qui che deriva l’efficienza energetica). I risultati lasciano però intravedere uno sbocco ulteriore, potrebbe fare in modo che il Data Center riesca a gestire lo stesso carico di lavoro a velocità più elevate, utilizzando meno risorse. Ed è qui che ci sarebbe la vera svolta sul fronte dell’efficienza.

“Non esiste una soluzione unica per prendere decisioni sulla pianificazione dei carichi di lavoro in un Data Center”, è quanto ha affermato Mohammad Alizadeh, professore e ricercatore EECS nel Computer Science and Artificial Intelligence Laboratory (CSAIL) nella pubblicazione scientifica con la quale è stato presentato il progetto. “Nei sistemi esistenti la pianificazione si basa su parametri codificati che devono essere decisi in anticipo. Il nostro sistema impara invece ad ottimizzare le caratteristiche dei suoi criteri di pianificazione, a seconda del Data Center e del carico di lavoro”.

Tutti i dettagli sul sistema di reinforcement learning sviluppato dal MIT e applicato alla pianificazione dei carichi di lavoro nei Data Center sono disponibili nell’articolo pubblicato da Rob Matheson su MIT News.

Nicoletta Boldrini

Direttore responsabile di ZeroUno

Direttore di ZeroUno e del portale AI4Business dedicato all'intelligenza artificiale, seguo da molti anni le novità e gli impatti dell'Information Technology e, più recentemente, delle tecnologie esponenziali sulle aziende e sul loro modo di "fare business", nonché sulle persone e la società. Il mio motto: sempre in marcia a caccia di innovazione #Hunting4Innovation

Argomenti trattati

Approfondimenti

I
Intelligenza Artificiale
Intelligenza artificiale per l’efficienza dei Data Center: dal MIT di Boston un nuovo sistema

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 4