Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Dell: “Implementare AI e machine learning? Vanno superati tre ostacoli”

pittogramma Zerouno

Intervista

Dell: “Implementare AI e machine learning? Vanno superati tre ostacoli”

01 Giu 2018

di Giorgio Fusari

L’uso degli algoritmi di intelligenza artificiale richiede prima alle imprese di creare una base solida, in termini di tecnologie e competenze, per il loro corretto funzionamento: Ravi Pendekanti, di Dell, spiega quali ingredienti essenziali non possono mancare

LAS VEGAS – Di questi tempi, parole come intelligenza artificiale (AI) e machine learning (ML) sono molto di moda, e sembra non esista più alcuna impresa innovativa, in qualunque settore aziendale, che non voglia sfruttare la potenza di tali algoritmi per migliorare la propria attività di business, attraverso una più efficace analisi dei dati. Quali sono però i reali ostacoli che le aziende devono superare per utilizzare queste tecnologie? Lo abbiamo domandato a Ravi Pendekanti, SVP Product Management and Marketing per l’area Server and Infrastructure Systems di Dell, durante un’intervista a margine del recente Dell Technologies World 2018 di Las Vegas, a cui ZeroUno ha di recente partecipato. “Vediamo che la maggioranza dei nostri clienti sta sperimentando tre principali problemi: quello numero uno è assicurarsi di ottenere dati corretti, perché, quando si parla di machine learning e deep learning, senza estrapolare determinati dati non vi può essere apprendimento, training, inferenza. Quindi la prima cosa da fare è raccogliere le disparate tipologie di dati, strutturati e destrutturati, distribuiti ovunque, attraverso tecniche ETL [extract, transform, load – ndr.], in modo da ottenere informazioni omogenee e pronte da usare”.

La seconda sfida per le organizzazioni, continua Pendekanti, è assicurarsi di possedere le corrette competenze: “Queste ultime possono diventare un grande problema, perché per fare ML e deep learning esistono diversi framework, ad esempio TensorFlow, Caffe2, CNTK, e anche diversi modelli di reti neurali: si possono usare le ‘deep neural networks’ (DNN), oppure le RNN (recurrent neural network), o le CNN (convolutional neural network). Inoltre, le metodologie di analisi delle immagini sono differenti da quelle di analisi dei dati, e una persona competente in un ambito non lo è necessariamente in un altro: dunque qui la sfida è abbinare i corretti framework ed elementi tecnologici alle persone giuste, che sanno comprenderli e utilizzarli”.

Ravi Pendekanti

SVP Product Management and Marketing per l’area Server and Infrastructure Systems di Dell

Infine, aggiunge Pendekanti, la terza sfida è che le imprese potrebbero non possedere la corretta infrastruttura hardware per ‘far girare’ le applicazioni di AI, machine learning o deep learning.

“Un’infrastruttura di vecchio tipo potrebbe non supportare il numero di GPU, o FPGA, di cui si ha necessità: e questo è un problema molto concreto”.

Data center: nei server i dispositivi FFGA pronti al decollo

Parlando di infrastruttura, continua Pendekanti, un altro trend, favorito dai continui progressi in microelettronica, è la crescita, nei moderni server dedicati ai data center, del numero di dispositivi GPU (graphics processing unit) e FPGA (field-programmable gate array). Basti pensare, esemplifica il top manager, che il server Dell PowerEdge R740, introdotto nel 2017, mantenendo lo stesso form factor del predecessore R730 (che supportava due GPU) è ora in grado di scalare arrivando fino a tre GPU, ciascuna con un consumo di 300 W. Ma perché gli FPGA? Nei prossimi 18 mesi, prevede Pendekanti, questi device registreranno un decollo, in termini di adozione nei server: le GPU, o le GPGPU (general-purpose GPU), forniscono cavalli di potenza, sono adatte all’elaborazione di tutti i tipi di workload, ma sono costose; e le ragioni per cui gli utenti in futuro tenderanno a scegliere gli FPGA sono essenzialmente due. “Primo, ci si preoccupa dei consumi delle GPU: un server con 4 GPU da 300 W consuma circa 1.200 W. Secondo, gli FPGA consumano meno, e poi sono programmabili, e riprogrammabili, per adattarsi all’elaborazione di workload specifici. Però servono esperienza e le competenze giuste per utilizzarli”.

Giorgio Fusari
Giornalista

Nel settore giornalistico dal 1989, Giorgio Fusari negli anni ha collaborato per numerose pubblicazioni nel panorama tecnologico e ICT italiano, tra cui la rivista NetworkWorld Italia (gruppo IDG); il settimanale di tecnologia @alfa, del quotidiano Il Sole 24 Ore, la testata Linea EDP. Dal 2012 collabora con il gruppo Digital360 e in particolare con ZeroUno. Tra le aree di maggior specializzazione di Giorgio, il crescente universo dei servizi cloud, il networking, le tecnologie di cybersecurity.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 4