Informatica aggiorna la 9.1

I riconoscimenti degli analisti e la crescita del fatturato premiano la costante focalizzazione della società californiana sui problemi relativi alla gestione e alla qualità dei dati. Che il fenomeno dei big data porta in primo piano e che la ‘data integration company’ affronta con un’offerta di strumenti e servizi tra le più complete e tecnologicamente avanzate.

Pubblicato il 03 Apr 2012

Spinto dalle macrotendenze che accelerano l’aumento in volume e complessità dei dati rilevanti per le attività aziendali e la velocità con la quale questi vanno gestiti e analizzati, creando il fenomeno dei big data tutto il mercato degli strumenti di data management (Data integration, Dlm, Etl, Data quality e Master data mgmt) è in fortissimo sviluppo, con ritmi di crescita, a seconda dei sotto-settori considerati, che vanno da quattro a sei-sette volte rispetto alla media dell’Ict. Si capisce quindi come raggiungere e consolidare una leadership in quest’area sia difficile e si comprende la soddisfazione con cui lo scorso marzo Fredi Agolli (nella foto), country manager per l’Italia di Informatica, ha annunciato l’inserimento della società nel rapporto Forrester sulle soluzioni di Etl (The Forrester Wave: Enterprise ETL Q1 2012), con il punteggio più alto sia per la strategia che per l’offerta tecnologica, valutata come “la più completa disponibile sul mercato”. Il riconoscimento, che si aggiunge alla posizione leader attribuita alla casa di Redwood City da Gartner nei Magic Quadrant per gli strumenti per il Master data mgmt (ottobre 2010) e per i tool per la Data quality (agosto 2011), è certamente di quelli che fanno piacere. Ma il risultato più ambito è sempre quello che viene dal gradimento del mercato e che si rispecchia nella ‘bottom line’ e da questo punto di vista Informatica ha chiuso un anno record, registrando un fatturato di 783,8 milioni di dollari, in crescita del 21% rispetto ai 650 dell’anno prima, e un più che solido profitto netto (Gaap) di 117,5 milioni di dollari, cresciuto addirittura del 36% rispetto al 2010.

Ottimi risultati, quindi. Ma come Agolli ha ricordato, le problematiche dei big data portano l’asticella della sfida tecnologica sempre più in alto e bisogna adeguarsi. Le novità che negli ultimi mesi hanno innalzato il livello dell’offerta Informatica sono state parecchie. La più importante parte ovviamente dalla nuova versione della piattaforma unificata per la data integration (Informatica 9.1 Platform) presentata lo scorso giugno e che oggi si avvale di Hadoop, il framework sviluppato in ambito Apache e disponibile da gennaio nella release 1.0. Grazie ad un particolare filesystem distribuito, Hadoop permette ad applicazioni data-intensive di elaborare velocemente grandi volumi di dati eterogenei, sia strutturati sia non strutturati, su piattaforme hardware standard e con qualsiasi sistema operativo. La release 9.1 della piattaforma comprende inoltre le soluzioni Fast Clone e Data Replication, che permettono di clonare e replicare in modo automatico e soprattutto veloce, le transazioni dai Dbms aziendali (Ibm Db2, Oracle e Microsoft Sql, ma anche vecchi database legacy) nelle appliance analitiche di Teradata, HP Vertica, Ibm Netezza ed Emc Greenplum. Sul fronte della sicurezza infine, fondamentale per l’impiego dei big data nel business, Agolli ha ricordato l’annuncio del Dynamic Data Masking, il primo sistema per il mascheramento dei dati sensibili che agisce in tempo reale, cioè mentre i dati sono usati dalle applicazioni aziendali e senza dover intervenire né sul database né sul sorgente dell’applicazione.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4