Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Ibm mainframe: un giovanotto di cinquant’anni

pittogramma Zerouno

Ibm mainframe: un giovanotto di cinquant’anni

15 Apr 2014

di Giampiero Carli Ballola

A mezzo secolo dalla sua nascita come sistema, il mainframe Ibm affronta un’ennesima sfida: estendersi a infrastruttura per l’economia digitale, basata sulla conoscenza, accanto al tradizionale ruolo di sistema transazionale. Con un futuro che, tramite un’inedita capacità di far da base a servizi e applicazioni mobili, analitici, sociali e cloud si apre a nuove prospettive d’impiego.

NEW YORK – Il 7 aprile 1964 Ibm introduceva System 360, un mainframe, come erano già allora chiamati i sistemi centrali che elaboravano i dati delle poche aziende che se li potevano permettere. Rispetto alle macchine del tempo rappresentava una svolta rivoluzionaria. Progettato da Gene Amdahl (che nel 1970 avrebbe fondato una società rimasta a lungo a far concorrenza a Ibm prima di essere assorbita da Fujitsu), la nuova macchina aveva blocchi processori costituiti da 100 nuclei a stato solido montati su un supporto ceramico, poteva essere configurata con 5 diversi processori per un totale di 19 versioni di diversa potenza e, soprattutto, utilizzava software e periferiche compatibili e intercambiabili con i mainframe Ibm preesistenti. Era, insomma, un vero ‘sistema’. Quando Thomas J. Watson Jr, storico presidente di Big Blue, presentò alla stampa il nuovo sistema disse che si trattava del “più importante annuncio nella storia della società”. Era certamente vero allora e probabilmente è vero ancora adesso.

Nei giorni 7 e 8 aprile scorsi si è svolto prima a Poughkeepsie (il centro dove sono costruiti i mainframe e dove cinquant’anni fa venne presentato l’S360) e poi a New York, un evento organizzato appunto in occasione del cinquantenario. Ma non si è trattato né di una festa autocelebrativa (anche se i bicchieri sono stati giustamente levati) né tantomeno di una sorta di commemorazione. Si è trattato invece di un incontro dal nome importante, Make the Extraordinary Possible, ma dal tono molto sobrio, dedicato a un ristretto numero di grandi utenti (circa 250) e a un ristrettissimo numero di giornalisti e analisti It (una cinquantina tra gli uni – ZeroUno presente – e gli altri). Con una manciata di interventi che sono durati in tutto poco più di due ore, Ibm ha ricordato brevemente il passato per concentrarsi nell’esporre il presente e soprattutto il futuro dei System z e del concetto stesso del mainframe. La cui linea di sviluppo, aperta cinquant’anni fa, appare ancora ben lontana dal concludersi.

Da gestore di eventi a motore di conoscenza

Tom Rosamilia, Senior VP del Systems & Technology Group

L’incontro è stato aperto da Steve Mills, Senior VP e Group Executive di Ibm Software & Systems, che, stante anche il suo ruolo, ha ‘volato’ piuttosto alto, facendo una breve storia dei sistemi centrali dalle origini ai giorni nostri (lo sapevate che il primo computer con sistema binario è stato lo Z-1 inventato dal tedesco Konrad Zuse nel 1938?) e chiamando i Cio di due colossi del calibro di Citigroup e Visa a testimoniare, con dati impressionanti di volumi di operazioni e di velocità e sicurezza di trattamento, la funzione insostituibile del mainframe nelle grandi imprese (certo tutti gli altri, Dell, Hp, Oracle, Fujitsu…non saranno dello stesso parere). Ricco di contenuti l’intervento di Tom Rosamilia. Senior VP del Systems & Technology Group, che ha parlato del valore della conoscenza e di come questa aumenti “…quando le analisi sono fatte là dove si generano i dati, che nell’80% dei casi stanno nei mainframe”. Con questo, Rosamilia ha poi mostrato come l’analisi dei dati su mainframe offra un ambiente sicuro e faccia risparmiare tempo e denaro, eliminando i processi Etl (Extract, Transform, Load), e ha introdotto il tema dell’evoluzione del mainframe da macina-numeri a base dei ‘systems of engagement’, i sistemi che guidano l’impresa nella sua attività (vedi riquadro Il nuovo mainframe per la smart enterprise).

Inediti i contenuti dell’ultimo intervento, forse il più atteso e certamente il più ‘intrigante’: quello di John Kelly, Senior VP e Direttore della Ricerca Ibm, che ha parlato del futuro. Senza dare né troppi dettagli né alcuna roadmap (il domani sta sulle ginocchia degli dei e… sotto gli occhi dei concorrenti) Kelly ha parlato dell’avvento dei sistemi cognitivi. In quella che, ha detto, “dopo i sistemi tabulati e quelli programmabili è la terza era del computing”, il mainframe avrà un ruolo importante (mentre oggi il sistema di cognitive computing Ibm Watson è su tecnologia Power-Unix) nello sviluppo dei ‘systems of insight’, basati su approfondite analisi e proiezioni. Un po’ più in là, o forse molto più in là nel tempo, Kelly ha prefigurato il superamento delle tecnologie al silicio e del sistema binario, quando saranno realizzati a livello industriale i processori quantici (che, invece di essere basati sul tradizionale calcolo binario 0-1 possono considerare entrambi i valori contemporaneamente), sui quali Ibm lavora dal 2001 nel centro di Almaden, e dei relativi computer basati sui qbit. Per il momento, accontentiamoci dell’annuncio dei nuovi chip da 5,5 GHz, del 30% più veloci di quelli attuali.


Il nuovo mainframe per la smart enterprise

Linda Sanford, Senior Vice President Enterprise Transformation di Ibm, è una minuta e vivace signora che nei primi anni ’90 ha impostato e guidato una delle più grandi evoluzioni compiute dai mainframe Ibm, con il passaggio dalla tecnologia bipolare a quella Cmos e il riposizionamento dell’S/390, allora il prodotto di punta della casa, come enterprise server dall’architettura aperta. Naturale quindi che le nostre domande abbiano riguardato i nuovi ruoli del mainframe in considerazione della generale evoluzione delle infrastrutture di data center.

Linda Sanford, Senior Vice President Enterprise Transformation di Ibm

“Quello che stiamo facendo è ‘reinventare’ il mainframe in sintonia con il cosiddetto ‘cams’, ossia lo sviluppo combinato di cloud, analytics, mobile e social (molti concorrenti, per differenziarsi, parlano di Smac, ma è lo stesso). Dobbiamo fare in modo che da struttura portante dei ‘systems of records’, quelli che dicono alle aziende quello che hanno e che succede, il mainframe diventi la struttura fondante dei ‘systems of engagement’, che dicono invece cosa fare e come rapportarsi al mondo esterno di utenti e mercato”. In altre parole, Sanford ha spiegato che si tratta di aggiungere al classico compito di piattaforma tecnologica per Dbms relazionali e applicazioni transazionali (che non possono di certo sparire) il nuovo compito di dare alle operazioni ‘cams’ un’infrastruttura che ne garantisca la disponibilità e la sicurezza. Che, ha osservato, “sono le doti migliori del mainframe e rispondono alla prima richiesta degli utenti riguardo i servizi cloud“. Requisito tecnologico di questa evoluzione sarà in primo luogo l’integrazione dell’hardware Series z con lo storage e il software di gestione dei servizi cloud realizzata nel nuovo Enterprise Cloud System offerto come Infrastructure-as-a-Service, e in seguito la trasformazione dell’interfaccia utente: “La capacità di visualizzare in tempo reale dati e risultati – conclude Sanford – è fondamentale, e con la divisione Watson lavoriamo anche sull’impiego del linguaggio naturale”

Prodotti e servizi, ecco i ‘pezzi’ del nuovo mainframe

Sul fronte dei prodotti e della tecnologia, a margine dell’evento di New York sono state presentate le ultime novità:

– zDoop: lavorando con Ibm, Veristorm, società californiana specialista in area big data, ha realizzato la prima versione commerciale di Hadoop per Linux su System z. Ciò evita il trasferimento dei dati sul database colonnare e assicura alle analisi i livelli di sicurezza e governance tipici dell’ambiente mainframe sul quale restano custoditi.

– Flash Storage: la nuova generazione dei sistemi flash Ibm DS8870 offre una velocità di accesso ai dati sino a 30 volte superiore ai sistemi a disco, permettendo analisi quasi in real-time.

– Nuovo Cics: l’ennesima versione del Customer Information Control System, il gestore transazionale che da 35 anni assicura la sicurezza e affidabilità delle operazioni online e in background, porta il supporto alle operazioni mobili e via cloud sino a oltre un miliardo di transazioni nelle 24 ore.

– Websphere Liberty z/OS Connect: nuovo middleware per l’accesso sicuro delle soluzioni web, mobili e cloud alle risorse gestite dal sistema operativo mainframe.

– zSecure Sse: soluzione software che tramite operazioni di intelligence e controllo delle conformità previene eventuali attacchi al sistema. Gli eventi rilevati si possono trasmettere all’Ibm Qradar Siem per una gestione della sicurezza centralizzata a livello enterprise.

A queste soluzioni specifiche va infine aggiunta la crescente integrazione delle tecnologie relative, che riduce drasticamente il tempo tra lo sviluppo e testing delle applicazioni alla delivery agli utenti business.

Sul piano dei servizi, la grande novità è ovviamente l’offerta dell’Enterprise Cloud System, che per quanto sia, fisicamente, un sistema preconfigurato che può essere implementato on-premise per i service provider e le grandi imprese che vogliano avere un cloud privato, avrà il suo più prevedibile impiego in azienda come servizio Iaas (Infrastructure-as-a-Service) fruito attraverso i data center Ibm ed è così che viene interpretato dal marketing Ibm. Si tratta di un servizio d’infrastruttura che può gestire sino a 6.000 macchine virtuali in un singolo sistema, fornendo un ambiente multi-tenant sicuro e in grado di distribuire e condividere dinamicamente le risorse storage e di elaborazione fra i carichi di lavoro. Secondo Ibm, l’elevata efficienza e scalabilità dell’hardware fanno sì che il Tco di un cloud basato su Linux per System z possa essere inferiore di oltre il 50% a quello di una soluzione di prestazioni comparabili ma basata su sistemi x-86.

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 4