Dall’hype alla sperimentazione, l’AI è uscita dai titoli dei giornali per entrare direttamente nelle strategie aziendali e nell’operatività quotidiana dell’organizzazione. Dove si è scontrata subito con un ostacolo inaspettato. Sì, perché non conta quanto sia potente un modello se, alla base, è alimentato con dati incoerenti, duplicati o frammentati tra ERP, Data Lake, servizi SaaS esterni e silos legacy.
Lo sviluppo su ampia scala dell’intelligenza artificiale, in fin dei conti, il più delle volte non è bloccato da motivi tecnologici, ma da una ragione molto più semplice: l’assenza di fiducia nel dato. Ecco perché il tema dell’AI affidabile (Trustworthy AI) non è più un vezzo tecnologico, ma il prerequisito per qualsiasi strategia IA di successo.
Non basta più sperimentare con i modelli, perché il vero vantaggio competitivo nel governo dell’intelligenza artificiale risiede nella capacità di costruire una data foundation solida, governata e conforme, in grado di sostenere in modo affidabile agenti AI, automazione diffusa e Decision Intelligence. Il tema non è più quindi “che cosa può fare l’AI?”, ma piuttosto “possiamo fidarci abbastanza dei nostri dati da farci guidare dall’AI?”.
Indice degli argomenti
SAP BDC: governance centralizzata e contesto di business
SAP Business Data Cloud (SAP BDC) nasce proprio per risolvere questo dilemma: una piattaforma enterprise che unifica, governa e valorizza il patrimonio informativo delle organizzazioni ridefinendo gli standard del Data Management aziendale grazie all’integrazione di capacità AI-native, Advanced Analytics e governance centralizzata dei dati.
SAP BDC rappresenta l’evoluzione delle soluzioni di gestione dati del colosso di Walldorf e integra in un’unica piattaforma SaaS il layer di unificazione SAP Datasphere, la piattaforma di BI e analisi dati SAP Analytics Cloud e il Data Warehouse SAP Business Warehouse.
Obiettivo dichiarato è abilitare un’AI affidabile che non solo genera risposte, ma che le produce su basi verificabili, armonizzate e governate.
«Molte organizzazioni continuano a lottare con dati di cui non possono fidarsi. SAP Business Data Cloud colma questa lacuna con una base dati affidabile e armonizzata, fornendo ai responsabili IT un contesto di business completo per prendere decisioni più efficaci», spiega Irfan Khan, President & Chief Product Officer della SAP Data & Analytics.
Come abilitare una AI affidabile
Per SAP, la risposta al dilemma della fiducia non è la “trasparenza” dell’algoritmo, ma la certezza del dato. SAP BDC consente l’ingestione dei dati direttamente dall’ERP, eliminando i costi nascosti legati alla loro estrazione e trasformazione. «La piattaforma si ispira a principi di governance e Data Quality – osserva il manager –. Offre strumenti integrati per definire policy di accesso, tracciare il Data Lineage e garantire la conformità normativa in materia di tutela della privacy e protezione dei dati». La piattaforma si ispira a un modello di AI basata sui dati contestuali (Grounding AI) per ridurre il rischio di allucinazioni.
L’elemento fondante di SAP BDC è il concetto di Data Products: «Asset pre-configurati – spiega Khan –, entità armonizzate e gestite dalla piattaforma SAP che coprono tutti i principali processi aziendali, pronte per essere consumate dall’AI. Questi prodotti dati mantengono la semantica e il contesto business originale, garantendo coerenza e affidabilità delle informazioni».
Se oggi l’AI è un acceleratore, domani diventerà un moltiplicatore, si dice convinto il manager «non perché è intelligente ma perché è affidabile». E l’affidabilità non nasce dall’algoritmo, ma dalla qualità del dato che lo alimenta.
SAP Databricks: Data Lakehouse e tecnologia Zero Copy
SAP Databricks è un componente essenziale di SAP BDC, che permette a Data Engineer e Data Scientist di accelerare lo sviluppo di modelli AI e applicazioni di intelligenza artificiale generativa operando direttamente sui dati di business semanticamente arricchiti, riducendo drasticamente i tempi di sviluppo.
L’approccio è federato: il dato può essere condiviso in sicurezza con i sistemi di partner certificati come Databricks, Google Cloud e Snowflake. Come?
Anzitutto, attraverso l’impiego di tecnologie zero-copy: «Un’unica copia del dato, condivisibile senza inutili duplicazioni e senza routing complessi – tiene a sottolineare Khan –. Garantita l’ownership, è possibile rendere i record istantaneamente accessibili per le analisi o per alimentare i modelli AI sulle piattaforme dei partner certificati».
A questo si aggiunge il supporto al protocollo Delta Sharing di Databricks, che assicura una condivisione bidirezionale dei Data Products.
Ma, soprattutto, attraverso l’adozione di un modello di Data Lakehouse – un’architettura dati che unisce la scalabilità e la flessibilità di un Data Lake con la struttura e le performance di un Data Warehouse, per abilitare analisi e storage di dati strutturati e non strutturati nello stesso sistema unificato.

















