Google: rendere semplice la complessità

Strategia: semplificare l’It aziendale sfruttando l’esperienza maturata in ambito consumer, facendo leva sul modello di offerta as a service. Con alle spalle la potenza di Google.

Pubblicato il 20 Nov 2012

MILANO – In un recente incontro stampa di Google, Luca Giuratrabocchetta, country manager italiano di Google Enterprise, approfittando della presenza in Italia di Shailesh Rao, director New Products and Solutions Google Enterprise, spiega come “Il lavoro di Rao, che riflette la strategia e la vision della multinazionale, sia quello di capire a livello mondiale quanto di ciò che Google già fa per il consumer possa avere valore anche per le aziende”. “Obiettivo dichiarato della nostra azienda – aggiunge il country manager – è far toccare con mano l’impatto incredibile che alcune soluzioni, già disponibili, possono avere sull’azienda e in che modo tali soluzioni possono influenzare il modo di fare business, dare vantaggi competitivi, ridurre costi. Il tutto ad una distanza di click”.

Luca Giuratrabocchetta, country manager italiano di Google Enterprise

“Google vuole confermarsi ‘market disruptor’, con un motto: rendere la complessità semplice”, continua Giuratrabocchetta. E su questa vision, da Rao scopriamo che “Google sta per mettere a frutto la piattaforma e i servizi cloud che dal 2008 vengono testati internamente. Penso che alcune tecnologie cambieranno il modo con cui le aziende interpretano i dati estraendone valore”, e lo dice dimostrando come nulla di ciò che ci presenta durante l’incontro sia installato fisicamente su uno dei suoi dispositivi: ha un tablet ‘vuoto’, le slide presentate sono su cloud Google. Il suo messaggio riprende quello di Giuratrabocchetta: “sappiamo semplificare la complessità”. Per Google la semplificazione coinvolge Infrastrutture, Piattaforme, Software, oggi disponibili attraverso il modello as a service. Non solo, il cloud di Google offre la possibilità di semplificare anche funzioni strategiche quali analisi di Big data (con l’offerta chiamata Big Query). Per il mondo Enterprise si apre cioé l’opportunità di utilizzare Google come cloud provider pubblico con quattro aree di proposta: Big Query (ricerca e analisi in ambito Big data), Build (per costruire nuove applicazioni sulla Paas di Google), Compute (per fruire di capacità elaborativa), Store (per memorizzare dati nello storage di Google). A spingere in modo significativo il trend del public cloud sono i Big data i cui Volumi, Velocità e Varietà vanno oltre le possibilità delle architetture on premise.

Shailesh Rao, director New Products and Solutions Google Enterprise

Per l’analisi del Big data serve una ricerca parallelizzata in cloud su un numero di server crescente al crescere dei volumi, con un open software (Hadoop e MapReduce). E, come anticipato, Google offre Big Query, un servizio che “a fronte di petabyte di dati in arrivo fornisce una analisi approfondita in secondi, ad una frazione del costo di qualsiasi altra tecnologia sul mercato”, sottolinea Rao.

Per quanto riguarda la parte identificata sotto il cappello ‘Build’, Rao evidenzia come “con Google App Engine siano state ormai sviluppate oltre 1 milione di applicazioni, da 150 mila sviluppatori, con 7,5 miliardi di click su pagine web al giorno”. Quanto alla componente ‘Compute’, “il valore di Google Compute Engine è la capacità di lanciare delle Vm Linux on demand, collegandole in forma di cluster nella quantità necessaria, anche enorme, su cui far girare qualsiasi tipo di workload per computer”, spiega Rao. “La performance e la capacità di scala di Google sono straordinarie, ma è con Hpc che la sua offerta on demand promette di superare limiti di capacità elaborative di cui dall’healthcare al finance risentono un po’ tutte le industry”, riflette Rao.

Infine l’offerta Google cloud storage. “Garantiamo la replica dei dati su una molteplicità di data center, l’availability da qualunque parte del mondo vi si acceda, la consistenza e la content delivery (con Sla e affidabilità world-class al 99,9%). Il differenziatore qui è aver investito in ingegnerizzazione per ottimizzare la rete e la sua velocità negli scambi tra data center, tra server del data center, tra processori del server”, conclue Rao. “Sempre con la filosofia di costruire tutto da zero, in modo ottimizzato all’obiettivo”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4