Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Data center 2019: i 5 trend topic da tenere a mente

pittogramma Zerouno

TechTarget Tech InDepth

Data center 2019: i 5 trend topic da tenere a mente

Tra le tecnologie guida nell’evoluzione dei sistemi informativi, l’attenzione nel 2019 andrà all’integrazione di funzioni di Intelligenza Artificiale, ma anche all’open source, ai microprocessori di ultima generazione e ad un’evoluzione delle infrastrutture a supporto dell’IoT

23 Gen 2019

di Laura Zanotti - Fonte TechTarget

Data center 2019: come ogni anno, gli esperti alzano il sipario sui trend che i manager IT non devono perdere d’occhio per garantire la governance delle infrastrutture di supporto al business. Secondo alcune previsioni effettuate dai principali analisti di mercato, nel corso dell’anno la polarizzazione delle scelte aziendali si orienterà su almeno 5 direttive chiave:

  • integrare intelligenza artificiale e soluzioni di apprendimento automatico;
  • investire in software open source;
  • gestire dispositivi IoT;
  • prepararsi alla rivoluzione apportata dalle ultime generazioni di microprocessori;
  • far evolvere i sistemi di help desk.

Scelte che nei data center 2019 si ribalteranno sugli amministratori che dovranno predisporre sale macchine più reattive, automatizzate e di facile manutenzione.

AI, grande protagonista

L’Intelligenza Artificiale sarà un tech topic dei data center 2019, in particolar modo a livello di manutenzione. A questo proposito gli esperti parlano di un utilizzo dell’AI a supporto delle operazioni IT. Il termine, di nuovo conio, è: AIOps. I software AIOps combinano big data, intelligenza artificiale, machine learning e tecniche di visualizzazione per semplificare l’elaborazione di tutte le attività di monitoraggio e gestione delle routine.

Gli analisti di Gartner stimano che l’uso di questi strumenti aumenterà da qui ai prossimi tre anni: oggi solo il 5% dei grandi dipartimenti IT attualmente utilizza piattaforme AIOps, ma entro il 2022 lo faranno 4 aziende su 10.

In estrema sintesi, cosa succede? Quando viene scaricata in automatico un’attività di routine come, ad esempio, la generazione di un avviso da una persona a una macchina, entra in campo l’AIOps.

Gli strumenti AIOps raccolgono in tempo reale dati da file di registro, metriche, ticket dell’help desk e strumenti di monitoraggio. Esaminando come vengono eseguite le attività, identificano i modelli o anomalie, prendendo decisioni su come gestire le varie attività come nel caso dell’identificazione e il blocco di un utente che sta tentando di entrare in una rete aziendale. Fornitori come CA Technologies, Loom Systems e ScienceLogic stanno lavorando per semplificare l’implementazione di soluzioni AIOps.

I giganti del settore sposano l’open source

Concetto di Open Source

Da qualche anno le offerte open source stanno conquistando quote di mercato su più aree come, ad esempio, le operation. Il motivo è semplice: con il software open source, le organizzazioni possono utilizzare tutti i programmi di cui hanno bisogno a un costo inferiore e con un maggior livello di interoperabilità. La guida pubblicata e aggiornata periodicamente dalle varie community semplifica il mixaggio dei prodotti open source rispetto a quanto avviene con i sistemi proprietari. Il risultato è che gli amministratori dei data center, grazie a queste soluzioni, possono configurare direttamente il software di cui hanno bisogno quando ne hanno bisogno.

Nel 2018, per altro, ci sono stati due deal importanti che hanno segnato un aumento degli investimenti nell’open source. Il primo nel giugno 2018 quando, per 7,5 miliardi di dollari, Microsoft ha acquisito GitHub, una piattaforma di sviluppo software open source che conta ben 28 milioni di sviluppatori. Questo accordo offre sia ai programmatori sia agli amministratori un modo più semplice per gestire, condividere e perfezionare il codice all’interno delle loro organizzazioni. Il secondo nell’ottobre 2018 quando, per 34 miliardi di dollari, c’è stata la seconda e più grande acquisizione open source: Red Hat è passata a IBM, orientata a ottenere una maggiore trazione nel mercato cloud e rafforzare il supporto cloud open source per tutti i clienti. Come ha precisato Matthew Kimball, analista senior delle tecnologie dei data center di Moor Insights & Strategy: “IBM ha pagato un premio per Red Hat perché ha capito di aver bisogno di nuove soluzioni per accogliere quella fetta di sviluppatori e di reparti IT che stanno guardando oltre le soluzioni legacy”.

Questo aumento dell’interesse per il mondo open source dovrebbe far riflettere chi sta decidendo come impostare le strategie che rientrano nel capitolo data center 2019. Gli amministratori dovrebbero identificare quale software open source può essere utilizzato nei loro data center e verificare su quali community poter fare riferimento per le future migliorie ai sistemi.

Microprocessori di ultima generazione per i server

Concetto di microprocessore

Secondo gli analisti, il capitolo data center 2019 sarà caratterizzato da un’evoluzione dei server che diventeranno sempre più potenti, agili e performanti grazie alle ultime generazioni di microprocessori.

Il retroscena di questo tipo di investimenti si spiega da sé: man mano che le organizzazioni implementano nuovi carichi di lavoro ad alta intensità di elaborazione (come big data, intelligenza artificiale e machine learning), cresce il bisogno di nuove soluzioni più potenti.

I server tradizionali, basati su CPU, non sono in grado di supportare facilmente questo tipo di carichi di lavoro. Persino Google, all’interno dei server di Google Cloud che offrono i servizi a cui tutti in misura maggiore o minore abbiamo accesso quotidiano, sta lavorando per sviluppare unità di elaborazione tensoriali (Tensor Processor Unit – TPU) sempre più potenti. Si tratta di CPU progettate e realizzate da Google espressamente per operazioni caratterizzate da alto carico di lavoro, quindi tipicamente quelle di machine learning. Questi ASIC (Application specific integrated circuit) sono destinati a ridurre il tempo dedicato alla fase inferenziale del machine learning (ossia quella che compara i singoli dati con il modello creato nella fase di apprendimento e che costituisce quella con il più elevato carico di lavoro), per questo vengono definiti “acceleratori di AI”: lo sviluppo di questi chip è iniziato nel 2008 e durante il Google I/O 2018, la conferenza annuale dedicata agli sviluppatori web, l’azienda di Mountain View ha presentato la release 3.0 delle TPU che, ha dichiarato l’amministratore delegato di Google Sundar Pichai, ha prestazioni 8 volte superiori rispetto alla v. 2.0 raggiungendo sino a 100 Petaflop per le operazioni di machine learning. Una potenza che, per la prima volta, ha richiesto l’inclusione nel circuito di un sistema di raffreddamento a liquido dato l’elevato calore prodotto.

I progettisti stanno lavorando anche su alternative a supporto delle nuove applicazioni ad alto volume. Gli esperti puntano i riflettori sui processori basati su ARM (Advanced RISC Machine, famiglia di microprocessori RISC a 32-bit sviluppata da ARM Holdings e utilizzata in una moltitudine di sistemi embedded), il cui rilascio è previsto proprio nel corso di quest’anno. Nel momento in cui dovessero sorgere problemi di prestazioni hardware, gli amministratori potranno così essere in grado di trovare una soluzione potendo lavorare su una scelta di microprocessori più composita, invece di avere come punto di riferimento solo le soluzioni Intel.

Dispositivi sempre più intelligenti, connessi e comunicanti

Edge Computing

L’Internet of Things avanza e le infrastrutture di supporto si diversificano attraverso soluzioni di edge computing e fog computing. Le aziende possono distribuire dispositivi intelligenti e soluzioni per la raccolta di dati ai margini delle loro reti ma, al tempo stesso, cercano di evitare di generare maggiore traffico di rete e carichi di lavoro che vanno ad appesantire i servizi centrali.

Questo è il motivo per cui i fornitori in tutte le loro offerte, hardware e software, stanno implementando soluzioni di intelligenza artificiale e nuovi sistemi di controllo a livello di programmazione, tali da permettere una migliore gestione di questi flussi. Data center 2019, dunque, significherà per gli amministratori gestire la collaborazione tra una pluralità crescente di dispositivi autonomi, supportati da hardware funzionanti. Edge computing e infrastrutture richiederanno nuovi standard, ma anche una larghezza di banda superiore, atta a garantire le prestazioni di questi nuovi ecosistemi tecnologici che, per altro, devono essere soggetti a un monitoraggio e a un controllo sempre più spinto per garantire la qualità dei servizi e la business continuity.

Chatbot: gli help desk diventano più intelligenti

Concetto di chatbot

I software di help desk ora sono molto più sofisticati e automatizzati. Intelligenza artificiale, apprendimento automatico e l’elaborazione del linguaggio naturale stanno gettando le basi per i programmi chatbot che, comprendendo sempre meglio i problemi degli utenti, sono in grado di presentare automaticamente le possibili opzioni di risoluzione.

Data center 2019, dunque, sarà anche sinonimo di chatbot: senza richiedere l’intervento di personale IT, gli assistenti digitali si faranno carico delle richieste più comuni degli utenti, consentendo allo staff IT di dedicare meglio il proprio tempo, indirizzato a problemi di supporto più complessi. I chatbot risponderanno in modo sempre più appropriato agli stati d’animo degli utenti, formulando indicatori testuali e visuali per valutare quanto il risultato proposto abbia risolto o meno il problema. Se un utente nella relazione automatica apparirà frustrato, il sistema potrà indirizzarlo a una persona in modo da garantire la qualità dell’experience. L’obiettivo, infatti, è quello di scaricare queste attività di routine dal personale di supporto del data center valorizzando il tempo e il lavoro di tutti.

Z

Laura Zanotti - Fonte TechTarget

Giornalista

Ha iniziato a lavorare come technical writer e giornalista negli anni '80, collaborando con tutte le nascenti riviste di informatica e Telco. In oltre 30 anni di attività ha intervistato centinaia di Cio, Ceo e manager, raccontando le innovazioni, i problemi e le strategie vincenti delle imprese nazionali e multinazionali alle prese con la progressiva convergenza tra mondo analogico e digitale. E ancora oggi continua a farlo...

Data center 2019: i 5 trend topic da tenere a mente

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 4