L’intelligenza artificiale (AI) ha raggiunto un punto di svolta nell’opinione pubblica. Ciò è dovuto in gran parte agli sviluppi tecnologici nell’ambito dei modelli di linguaggio di grandi dimensioni (LLM, Large Language Model) e dal lancio di strumenti di IA generativa, tra cui ChatGPT di OpenAI.
Tuttavia, per quelle aziende che stanno definendo una strategia sull’IA che sia proiettata al futuro, un punto cruciale da affrontare nel dibattito è la scelta tra l’AI privata e quella pubblica. Comprendere quali siano le implicazioni relative alla privacy e alle normative di ciascun approccio è fondamentale, soprattutto nel caso di organizzazioni pubbliche o aziende del settore privato che operano in ambiti fortemente regolamentati.
Durante il Festival dell’Economia di Trento, tenutosi tra il 22 e il 25 maggio, si è parlato molto di Intelligenza Artificiale. In particolare, durante l’incontro “Leadership nell’era dell’Intelligenza Artificiale: il compromesso tra valore umano e tecnologie nelle PMI” Eleonora Angelini e Paolo Zanolli dei Giovani di Confcommercio hanno affermato che “il tema dell’AI è tanto rilevante quanto attuale e interviene sui modelli di leadership, sul modo di fare impresa e si sta affacciando sul mondo delle PMI, che è preponderante nel tessuto economico sociale del nostro paese. A fronte di questa trasformazione che stiamo subendo negli ultimi anni, dobbiamo trovare un corretto punto di equilibrio tra le tecnologie e la parte relativa al valore del capitale umano”.
Indice degli argomenti
Festival dell’Economia di Trento: lo scenario di mercato
Dai dati in possesso di Confcommercio, l’AI è utilizzata nel 19% dell’imprese, con un impatto del 16% sul fatturato e del 7% sui costi, ma nelle microimprese, cioè fino a 10 dipendenti, viene utilizzata nell’8% dei casi. Considerando che in Italia il tessuto imprenditoriale è composto per il 90% da piccole aziende, esiste una importante opportunità di crescita significativa dell’AI nelle imprese, a patto che si possano ripensare i processi, i ruoli e le competenze aziendali.
In particolare, come indicato anche da Franco Bernabè, Presidente dell’Università degli Studi di Trento e Presidente di Techvisory, già amministratore delegato di importanti aziende italiane e internazionali tra cui Eni e Telecom, durante l’evento “Perché il modello attuale di sviluppo dell’intelligenza artificiale può non essere sostenibile” le aziende devono rivedere i propri processi interni per adattarli alle nuove tecnologie.
In particolare, le aziende aderenti a Confcommercio non hanno reparti di R&D o budget dedicati, nonché consulenze continue e specializzate, di cui possono invece usufruire le aziende nel settore industriale, però possiedono dei vantaggi come la prossimità con il cliente, la flessibilità e una conoscenza profonda del mercato. Quindi la sfida delle aziende è quella di applicare in maniera sostenibile l’utilizzo della AI con poco tempo a disposizione, con risorse limitate e senza un team AI dedicato. Quindi, sempre secondo Confcommercio, le PMI dovrebbero partire da micro soluzioni, come le chat bot di base, gli assistenti virtuali, avvalendosi del supporto delle associazioni di categoria, che dovrebbero fare da ponte tra l’innovazione e il territorio e quindi fornendo strumenti concreti alle imprese (in particolar modo la formazione, in quanto l’AI è un tema nuovo che richiede un’assistenza continua, workshop pratici e il supporto per operazioni di rappresentanza basati su dati economici e normativi), promuovendo quindi una cultura digitale dell’impresa, però a misura della piccola impresa, con una rete che le sostenga.
Il tema del network e del sostegno alle imprese è stato affrontato anche durante la sessione che ha coinvolto le università, con particolare riferimento al territorio dell’Emilia-Romagna dove sono state presentate le attività che vengono svolte dalle università che danno supporto alle imprese, soprattutto in un’ottica globale di inserimento in un ecosistema europeo.
Roberto Viola, direttore generale della EG Connect della Commissione Europea, segnala che in Europa è presente il numero più alto di startup e il maggior numero di ricercatori che trattano di AI. Tuttavia, abbiamo un gap di afflusso di capitali e di capacità di calcolo, che stiamo colmando, anche grazie al progetto AI factory, con una spesa in un anno di 3 miliardi di euro per creare un ecosistema relativo alla intelligenza artificiale.
Francesco Ubertini, ex rettore dell’Università di Bologna e presidente del Cineca, afferma che Bologna è un nodo di un ecosistema che coinvolge tutto il paese e che intrepreta in una modalità diffusa, aperta e di squadra il gioco sull’AI su cui si sta scommettendo. Nel Tecnopolo Dama di Bologna opera il supercomputer Leonardo, che rimarrà in funzione fine al 2028, ma entro la fine dell’anno verrà affiancato dalla realizzazione di giga factory che saranno decine di volte più potente di Leonardo, in cui l’Italia parteciperà con un ruolo importante. Le AI factory sono state pensate per offrire gratuitamente risorse alle PMI e alle amministrazioni, con un’offerta antitetica rispetto a quella delle Giga Factory che oggi sono in mano a poche, grandi aziende.
Ma a quale modello di AI ci stiamo referendo? Da una parte ci sono i grandi modelli degli hyperscaler che vanno verso la AI Generale, dall’altra abbiamo l’AI private all’interno delle imprese, a supporto della pubblica amministrazione, per i prodotti e servizi in una ottica B2B e B2C.
Cosa sono le Private AI
Si intendono come Private Al le soluzioni di intelligenza artificiale che vengono sviluppate e gestite all’interno di un ambiente controllato e privato, in cui un’organizzazione mantiene il pieno controllo su tutte le fasi del ciclo di vita dell’Al, dalla raccolta dei dati, all’istruzione dei modelli e alla loro implementazione.
I vantaggi di una Private AI, alimentata con i propri dati, per i propri scopi, i cui benefici vengano unicamente a chi la coltiva e utilizza, che valorizzi le peculiarità di prodotto, di creatività, di contesto di mercato, sono innumerevoli.
Per implementare questo tipo di modelli, sono necessari una grande quantità di dati di alta qualità, come indicato nel convegno “Colonizzatori di dati” dove è stato riportato che la prima fase di raccolta dei dati per i grandi modelli è ormai terminata, dopo aver utilizzato tutti i dataset pubblici disponibili, come Wikipedia, Common Crawl, arXiv, PubMed, StackExchange, BookCorpus, Project Gutenberg, Reddit (in passato), forum pubblici, GitHub, public news, ecc.
Tuttavia, i dati delle imprese e i dati dei sistemi pubblici non sono stati ancora condivisi: il sistema pubblico della sanità in Europa è interconnesso, mentre non lo è quello americano, e nell’ambio dell’agricoltura abbiamo dati di altissima qualità e in grande quantità.
Raccogliere solo i dati necessari e non condividerli con gli operatori globali che propongono le loro soluzioni di Intelligenza Artificiale non equivale a limitare le capacità innovativa delle aziende, bensì a garantire che i dati utilizzati siano pertinenti e di alta qualità, con risultati più accurati e affidabili e che il loro valore non sfugga al perimetro dell’impresa che investe capitale di rischio, ricerca e innovazione.
La Private AI può essere utilizzata per analizzare grandi volumi di dati clinici e genetici in modo sicuro, supportando lo sviluppo di nuovi farmaci e trattamenti personalizzati. La capacità di creare modelli di machine learning su misura, ottimizzati per le esigenze specifiche dell’azienda, permette di ottenere risultati più precisi e rilevanti rispetto ai modelli generici offerti dai player globali, proteggendo le proprie scoperte e i dati di ricerca più sensibili, come i risultati delle sperimentazioni ed i modelli di previsione elaborati con l’AI.
Dopo una pandemia che ha colpito tutto il mondo, causando milioni di morti e congelando tanto attività produttive quanto rapporti sociali, modelli di relazione e apprendimento, abbiamo capito che la comprensione di queste dinamiche, l’anticipazione di eventi e la prevenzione sono cruciali.
Stefano Mertler, un esperto della Fondazione Bruno Kessler, aveva iniziato ad analizzare i dati ufficiali a disposizione sui focolai Covdi-19 già prima di Natale 2019, diventando un punto di riferimento per l’osservazione e la previsione dell’evoluzione del contagio e oggi è uno dei maggiori esperti sui metodi di analisi a disposizione, basati su tecniche di intelligenza artificiale e modellistica matematica (o una loro integrazione), per lo studio, il monitoraggio e il contrasto alla diffusione delle malattie infettive.
Altri esempi, tra i tanti, sono Giovanni Marini, per le analisi delle dinamiche di popolamento delle zanzare e delle zecche, presso la Fondazione Mach, utilizzando le potenzialità della statistica unita al machine learning, o Marco Morelli, co-founder della start-up AI-Spot, che ha sviluppato sistemi predittivi per poter venire in soccorso agli agricoltori in modo di poter intervenire in maniera tempestiva sulle infestazione causate dalle spore, oppure Paolo Sonego, sempre delle Fondazione Mach, per la individuazione precoce della presenza infestante di insetti nocivi, come la cicalina della flavescenza dorata, che flagella le vigne, tramite sistemi di AI che la distinguono dagli altri insetti innocui, con sistemi basati una logica open source.
Vincenzo Sabatino, dirigente medico dell’UO di senologica clinica e screening mammografico dell’APSS di Trento è capofila del progetto AI-Trust, che con il supporto della società Lunit, ha sviluppato un software di AI applicato alla mammografia e alla tomosintesi 3D, che ha raggiunto una accuratezza diagnostica del 96%, avendo la possibilità di utilizzare dati in un contesto reale di malattia nella popolazione, su un intero round di screening.
I vantaggi delle Private AI
La Private Al rappresenta oggi, secondo il whitepaper sulle Private AI della Seeweb, un approccio avanzato per le organizzazioni che intendono mantenere il controllo totale sui propri dati, garantendo allo stesso tempo la massima sicurezza e conformità alle normative vigenti. Questo modello permette di conservare la sovranità sulle informazioni in possesso, evitando che vengano gestite o trasmesse a terze parti, un aspetto particolarmente rilevante per settori come la Finanza, la Sanità e la Pubblica Amministrazione.
Uno dei principali vantaggi derivanti da una Private Al è la tutela della proprietà intellettuale. Le aziende che sviluppano e gestiscono internamente le proprie soluzioni Al riducono il rischio di condivisione involontaria dei dati sensibili, che potrebbe accadere quando si utilizzano piattaforme cloud pubbliche gestite da terze parti. Questo è particolarmente importante in settori in cui la proprietà intellettuale rappresenta un asset strategico, come nel caso degli algoritmi proprietari o dei set di dati unici utilizzati per l’addestramento dei modelli Al.
Inoltre, la Private Al garantisce una piena conformità al GDPR e alle altre normative europee sulla protezione dei dati, superando le lacune regolamentari che spesso affliggono gli hyperscaler globali. Questi ultimi, pur offrendo soluzioni di Al potenti e scalabili, operano spesso in contesti normativi extraeuropei, il che può comportare difficoltà nel garantire il rispetto delle stringenti normative UE.
Il Data Act, approvato a livello europeo, ha l’obiettivo di creare un quadro normativo che favorisca una gestione dei dati più trasparente e controllata. Tra gli elementi chiave del Data Act vi è l’enfasi sul diritto di accesso ai dati da parte degli utenti e l’obbligo per le aziende di facilitare lo scambio di dati con altri soggetti in determinati casi. Tutto questo per evitare la concentrazione di dati nelle mani di poche grandi aziende e per favorire una più ampia partecipazione al mercato dei dati.
Per le aziende italiane, che spesso operano in settori strategici come la manifattura, l’agroalimentare la moda, la ricerca pharma, questo nuovo quadro normativo rappresenta un’opportunità per migliorare la gestione dei dati a livello locale, ma anche una sfida in termini di compliance. Affidarsi a infrastrutture nazionali o private, invece che ai grandi provider globali, può facilitare la governance dei dati, garantendo che i dati sensibili e strategici non escano dai confini europei e che le aziende rispettino i requisiti imposti dal Data Act in modo più sicuro e flessibile
Un elemento fondamentale di questa strategia è la data residency, che non si limita a una questione puramente geografica, ma riguarda soprattutto la giurisdizione di riferimento in cui i dati vengono gestiti. Mantenere i dati all’interno del perimetro giuridico scelto consente alle organizzazioni di rispettare le normative locali e le politiche specifiche in materia di residenza dei dati, evitando il rischio che informazioni sensibili siano soggette a regolamentazioni straniere meno restrittive o a ingerenze di governi esteri. Un approccio che offre una maggiore certezza legale e operativa, riducendo le vulnerabilità legate alla dipendenza da infrastrutture globali e garantendo alle imprese e alle istituzioni pubbliche un livello superiore di protezione e controllo sulle proprie risorse digitali.
Le infrastrutture degli hyperscaler operano spesso in più giurisdizioni, con server distribuiti tra diversi Paesi, il che comporta che i dati delle aziende europee possano essere trattati e archiviati anche al di fuori dell’Unione Europea, esponendoli a normative di Paesi terzi come il Cloud Act statunitense, che consente alle autorità americane di accedere ai dati ospitati da società con sede negli Stati Uniti, indipendentemente dal luogo in cui questi siano fisicamente conservati. Questo scenario mette a rischio la sovranità dei dati e la protezione delle informazioni aziendali riservate, con conseguenze che possono andare anche oltre la semplice conformità normativa.
Anche le politiche di conservazione dei dati adottate dai provider globali sono un aspetto da considerare con attenzione. Nel momento in cui un’azienda decide di migrare verso una soluzione più controllata, i termini di servizio imposti dagli hyperscaler possono complicare il recupero delle informazioni. Spesso vengono applicati periodi minimi di conservazione, restrizioni sui formati di esportazione o costi elevati per il trasferimento dei dataset aziendali, generando di fatto effetti di lock-in5 che ostacolano la possibilità di spostarsi verso alternative più sicure e trasparenti senza subire oneri imprevisti.
Un’ulteriore caratteristica della Private Al è la possibilità di personalizzare le misure di sicurezza in base alle specifiche esigenze dell’organizzazione, come la crittografia avanzata, l’accesso controllato e un monitoraggio continuo delle attività, assicurando che la protezione dei dati sia allineata con le normative locali e settoriali, come il GDPR in Europa. La conformità a queste normative non solo evita sanzioni, ma rafforza anche la fiducia degli utenti.
La Private Al consente inoltre un alto grado di customizzazione, permettendo lo sviluppo di modelli di machine learning su misura, ottimizzati per le esigenze operative specifiche. Personalizzazioni che, a differenza dei modelli generici offerti dai grandi cloud provider pubblici, possono portare a una maggiore precisione e risultati più rilevanti, in linea con le reali e specifiche esigenze e aspettative della singola azienda.
Infine, la Private AI garantisce indipendenza operativa, affrancando le organizzazioni dai contratti o le politiche dei provider di cloud globali, potendo così adattare le loro soluzioni in modo flessibile, senza dipendere da aggiornamenti esterni. Una flessibilità operativa che consente alle aziende di muoversi secondo i propri ritmi e necessità, senza doversi conformare a infrastrutture cloud pubbliche, spesso troppo generiche per soddisfare le esigenze specifiche di un settore o di un Paese.
Il ruolo dell’AI Act
L’AI Act rappresenta un punto di svolta nella regolamentazione dell’intelligenza artificiale a livello europeo. Si tratta di una nuova legge, approvata nel 2024, che punta a creare un quadro normativo unico e armonizzato per lo sviluppo e l’utilizzo dell’intelligenza artificiale all’interno dell’Unione Europea.
Al di là degli aspetti etici, l’AI Act influenza profondamente le strategie basate sull’intelligenza artificiale delle aziende italiane ed europee. Le nuove normative impongono infatti un livello più alto di rigore nella gestione dei dati, nella resilienza e nella sicurezza informatica, ma offrono anche un’opportunità per rivedere l’approccio aziendale all’AI e adottare soluzioni che garantiscano maggiore controllo e conformità.
L’AI Act offre i seguenti vantaggi alle aziende:
- Certezza del diritto e riduzione dei rischi: l’AI Act fornisce un quadro normativo certo e prevedibile, consentendo alle aziende di operare in un ambiente regolamentato e di mitigare i rischi legati all’utilizzo di sistemi di IA non conformi.
- Stimolo per l’innovazione: pur ponendo limiti a pratiche considerate rischiose, l’AI Act incoraggia l’innovazione responsabile, offrendo alle aziende l’opportunità di sviluppare soluzioni basate sull’IA sicure, affidabili e conformi ai più alti standard europei.
- Protezione della proprietà intellettuale: Il regolamento tutela la proprietà intellettuale delle aziende, garantendo che i loro sviluppi in ambito IA siano protetti da eventuali usi illeciti.
- Accesso al mercato unico europeo: le aziende che rispettano le disposizioni dell’AI Act avranno maggiori facilità ad accedere al mercato unico europeo, evitando barriere normative e facilitando la commercializzazione dei propri prodotti e servizi.
- Miglioramento della reputazione: l’adozione di pratiche conformi all’AI Act contribuisce a migliorare la reputazione aziendale, aumentando la fiducia dei consumatori e degli investitori.
In particolare, per le aziende, l’AI Act si concentra sui seguenti aspetti:
- Valutazione dei rischi: le aziende dovranno condurre valutazioni approfondite dei rischi associati ai loro sistemi di IA, identificando e mitigando potenziali minacce alla sicurezza, alla privacy e ai diritti fondamentali.
- Trasparenza: le aziende dovranno garantire la trasparenza dei loro sistemi di IA, informando gli utenti sull’utilizzo dell’IA e sui suoi limiti.
- Qualità dei dati: l’AI Act pone l’accento sulla qualità dei dati utilizzati per addestrare i sistemi di IA, richiedendo che i dati siano accurati, completi e non discriminatori.
- Supervisione umana: anche nei processi decisionali automatizzati, l’AI Act prevede un ruolo fondamentale per la supervisione umana, alfine di garantire il controllo e la responsabilità.
L’AI Act dell’Unione Europea introduce una serie di obblighi volti a garantire che i dataset utilizzati per l’addestramento siano accurati, completi e rappresentativi, richiedendo alle aziende di implementare strumenti avanzati per monitorare e tracciare i dati lungo tutto il loro ciclo di vita. Per le imprese che vogliono mantenere un controllo rigoroso sui propri dati, la Private AI offre un’infrastruttura ideale, dove i dati non devono essere esternalizzati, riducendo così i rischi associati a possibili violazioni normative.
In un ambiente economico sempre più dipendente dall’AI, le aziende devono anche garantire la resilienza operativa dei loro modelli. L’AI Act pone proprio l’accento sulla sicurezza e sull‘affidabilità dei sistemi, richiedendo piani di emergenza e backup. La geo-ridondanza, che consente la distribuzione dei carichi di lavoro tra diverse sedi, e l’integrazione di soluzioni ibride tra cloud pubblico e privato, sono alcune delle strategie che possono rafforzare la continuità operativa delle imprese.
Inoltre, il regolamento evidenzia l’importanza di mantenere il controllo sui dati e sui modelli, evitando accessi non autorizzati o manipolazioni. Le aziende possono sfruttare l’Al federata, che consente di accedere a vasti dataset mantenendo al tempo stesso la proprietà intellettuale e la riservatezza del proprio know-how. Questo approccio non solo facilita la conformità normativa, ma protegge anche il valore strategico delle informazioni aziendali. Implementare una strategia di private Al aiuta le aziende a gestire le complessità dell’Al Act, assicurando che ogni fase dello sviluppo e dell’uso dei modelli sia in linea con i requisiti normativi. Questa soluzione si adatta alle esigenze di governance, sicurezza e sostenibilità, permettendo alle imprese di crescere senza rinunciare al controllo dei propri asset digitali. Nell’ottica di lungo termine, l’adozione della private Al rappresenta una scelta strategica per garantire competitività e conformità, preparandosi alle sfide del futuro regolamentare.
Hyperscaler o Private AI? I costi a confronto
L’adozione di soluzioni Al offerte dagli hyperscaler internazionali, come Amazon Web Services, Google Cloud, e Microsoft Azure, può sembrare inizialmente attraente per molte aziende, grazie a modelli di pricing flessibili, scalabilità immediata, e la possibilità di accedere a infrastrutture potenti senza un grande investimento iniziale. Ma bisogna fare attenzione: dietro queste offerte si celano una serie di costi nascosti che possono rendere l’Al pubblica molto più costosa nel lungo termine rispetto all’opzione Private AI.
Secondo il whitepaper di Seeweb, nella tabella sotto sono riportati i costi di un’azienda media che decide di implementare una soluzione AI per analizzare grandi quantità di dati:
Costo | Hyperscaler Al (Annuale) | Private Al (Annuale) |
Storage dati | 50-70 €/TB/mese per 50 TB (ca. 42.000 €/anno) | 12.000 € (dischi locali e backup su cloud) |
Data egress fees* | 5-10 €/TB per 10 TB (ca. 6.000 €/anno) | N/A |
Calcolo (GPU/CPU) | 30.000 € (GPU per AI su hyperscaler) | 15.000 € (GPU on-premises ammortizzata) |
Scalabilità infrastrutturale | Dinamico (ca. 25.000 €/anno) | Fissa (ca. 10.000 € di gestione IT e upgrade) |
Licenze software | 12.000 €/anno per funzionalità avanzate | 5.000 €/anno per stack software open source |
Supporto e consulenza | 5.000 €/anno | Incluso nelle spese di gestione |
Totale stimato | ca. 120.000 €/anno | ca. 42.000 €/anno |
*for transferring data out of their cloud environments
I clienti con infrastrutture di AI privata, i quali utilizzano modelli open source e li gestiscono su proprie infrastrutture o su cloud public fidati, in cui dispongono di risorse pronte all’uso e al contempo dedicate, arrivano a risparmiare da 3 a 5 volte di più evitando costi mensili per token che spesso nella public Al sfuggono al controllo. A questi costi però si dovrebbero aggiungere i costi per la formazione interna (nel caso si utilizzasse personale non in outsourcing o in body rental) e per l’aggiornamento dell’architettura, considerando l’elevata obsolescenza di questi sistemi nel tempo.
Le soluzioni open source per l’AI
L’integrazione di soluzioni open source all’interno di un motore Al proprietario può essere una scelta strategica per molte aziende, poiché consente di accedere a un’ampia gamma di librerie e framework (TensorFlow, PyTorch e Hugging Face), senza dover investire enormi risorse nello sviluppo da zero
lnoltre, la natura “open source” favorisce una continua collaborazione con la Community globale di sviluppatori e ricercatori, che contribuiscono costantemente al miglioramento e all’innovazione delle soluzioni. Questo ambiente dinamico permette alle aziende di restare sempre all’avanguardia senza essere legate a vendor specifici. Un ulteriore vantaggio è poi la trasparenza del codice, che consente alle imprese di effettuare audit interni per garantire che non vi siano vulnerabilità o backdoor, aumentando così la sicurezza dei propri sistemi.
L’open source, infine, risponde anche a esigenze di conformità normativa, specialmente in ambito europeo, offrendo piena visibilità e tracciabilità del codice utilizzato. La sua flessibilità consente una personalizzazione totale delle soluzioni Al, permettendo alle aziende di adattare i modelli alle proprie necessità, riducendo al minimo il rischio di lock-in tecnologico con fornitori esterni e aumentando la loro competitività.
Le tipologie di modelli di AI open source disponibili oggi si potrebbero suddividere in tre possibili proposte di soluzioni.
- La prima comprende framework open-source di machine learning e deep learning “specialistici” come TensorFlow, progettato per costruire e addestrare modelli di AI scalabili su CPU, GPU e TPU, o come PyTorch, che è un altro framework open-source di deep learning, sviluppato da Facebook AI (ora Meta AI) e rispetto a TensorFlow, è più flessibile e intuitivo per la ricerca e il prototyping rapido, oppure come JAX, che è un framework di machine learning di nuova generazione sviluppato da Google che consente di fare trasformazioni automatiche su funzioni Python (derivate, ottimizzazioni vettoriali e parallele).
- La seconda riguarda Ollama che oggi è una delle soluzioni più interessanti per gestire modelli LLM privati on-prem o su edge in modo semplice e sicuro, perfetta per ambienti regolati come le banche o il fintech. Ollama funge da motore AI locale per LLM (come LLaMA, Mistral, Vicuna) che gira in locale o su cloud privato, con un’interfaccia API REST molto semplice da integrare.
- La terza si riferisce ad Olmo by AI2 (Allen Institute for AI), citato in precedenza, che è uno dei più promettenti LLM open source sviluppati per ambienti controllati, progettato per essere trasparente, auditabile e utilizzabile in contesti regolati come finanza, sanità, e pubblica amministrazione.
Sistemi open source di Private AI, caratteristiche a confronto
Livello Infrastrutturale | |||||
STACK OPEN SOURCE – TensorFlow, PyTorch, Scikit-learn, JAX | STACK OPEN SOURCE – Ollama | STACK OPEN SOURCE – Olmo | |||
Componente | Scopo | Funzione | Open Source Tools | Open Source Tools | Open Source Tools |
Data Center on-premise o Cloud Privato | Hosting sicuro dei dati e dei modelli AI | Virtualizzazione / Container | Kubernetes, OpenShift OKD | serving containerizzato, API locale via REST su Docker/Kubernete, Podman, Kubernetes (K3s o full) | Docker, Podman |
Orchestrazione AI /LLM on-prem | Esecuzione efficiente di modelli AI, soprattutto deep learning | Cluster Orchestration/ AI Workflow Orchestration | Kubeflow (AI/ML pipelines su Kubernetes) | Ollama docker native, supporta orchestrazione via Docker Compose e Kubernetes | Nativamente in Docker e Kubernetes, ottimizzato per private deployment (o K3s on-prem) / WF orchestration con Kuberflow |
Network sicuro e segmentato | Separazione tra ambienti di test, produzione e analytics | Storage distribuito e cifrato | Ceph, MinIO (object storage on-prem) | Ceph, MinIO | Ceph, MinIO |
Storage cifrato (v. sotto livello di sicurezza e compliance) | Protezione dei dati a riposo con chiavi gestite internamente | Gestione segreti / chiavi | HashiCorp Vault | HashiCorp Vault | HashiCorp Vault |
Chat Interface | Interfaccia utente | Python CLI | Gradio, Streamlit, React, LangChainJS | Streamlit, React, LangChainJS con explainability viewer | |
Livello Dati | |||||
Data Lake / Data Warehouse privato | Raccolta centralizzata di dati strutturati e non | Data Lake | Apache Hadoop, Apache Iceberg, Delta Lake | Apache Iceberg, Delta Lake | Apache Iceberg, Delta Lake |
Data Ingestion Layer | Integrazione di dati da sistemi interni (core banking, CRM, ecc.) | Data Ingestion | Apache Nifi, Airbyte, Apache Kafka | Apache Nifi, Kafka | Apache Nifi, Kafka |
Data Governance Layer | Policy di accesso, audit trail, classificazione dei dati | Data Governance | Apache Atlas | Apache Atlas | Apache Atlas |
Data Anonymization / Pseudonymization | Preprocessing dei dati per la tutela dei dati personali | Data Anonymization / Pseudonymization | ARX, Amnesia, Diffprivlib (differential privacy su Python) | ARX, Diffprivlib | ARX, Diffprivlib |
Livello AI / ML | |||||
AI/ML Framework privato | Addestramento ed inferenza dei modelli AI in ambiente controllato | AI/ML | TensorFlow, PyTorch, Scikit-learn, JAX | Ollama funge da motore AI locale per vari LLM | Olmo |
LLM | modello linguistico di grandi dimensioni | LLM | LLaMA, Mistral, Phi, Olmo e altri via container | Modello LLM locale via Hugging Face Transformers | |
Fine tuning locale LLM | PEFT (Hugging Face), LoRA, QLoRA su Ollama | PEFT, LoRA, QLoRA (con Hugging Face PEFT) | |||
Secure Federated Learning (opzionale) | Addestramento distribuito senza trasferire dati sensibili | Federated Learning | Flower, PySyft, FedML | Flower, FedML | Flower, FedML |
Model Registry | Repository per la gestione di versioni e approvazioni dei modelli | Model Registry | MLflow | MLflow | MLflow |
Retrieval-Augmented Generation. | motore di ricerca di documenti basato su vector database | Vector Database per RAG | ChromaDB, Weaviate, Milvus | Ottimizzato per RAG: gestisce retrieval embedding + explainability con attribution | |
Explainability LLM | interpreta, spiega e verifica come un LLM ha preso una decisione o generato una risposta | Explainability LLM & Bias Detection | SHAP, LIME, AI Fairness 360, Alibi Explain | Non nativa, va integrata a parte via LangChain o strumenti esterni (TruLens, LangChain Inspect) | Parte integrante del modello: fornisce attribution ed evidenzia fonti ( Alibi Explain) |
Feature Store | Catalogo centralizzato di variabili/feature calcolate | Feature Store | Feast (su backend Redis o PostgreSQL) | Integrabile via API (Richiesto codice custom) | API-friendly, ma non nativo: da integrare con FastAPI adapter |
Caching | Caching dei documenti recuperati da RAG e delle domande frequenti | Si integra facilmente con Redis via LangChain memory o custom Redis handler | Supporto pieno per Redis prompt/session caching, configurabile via API | ||
Livello Decisionale | |||||
AI Decision Engine | Esecuzione di decisioni automatizzate su base di policy approvate | Decision Engine / Rule Engine | Drools, Decision Manager (JBoss) | Drools, JBoss Decision Manager | Drools, JBoss Decision Manager |
Model Monitoring | Monitoraggio continuo di bias, drift, performance e compliance | Model Monitoring | Prometheus + Grafana, Evidently AI, WhyLogs | Evidently AI, Prometheus + Grafana | Evidently AI, WhyLogs, Prometheus + Grafana |
Auditability Layer | Tracciabilità e audit sui risultati AI | Audit & Logging AI | ELK Stack (Elasticsearch, Logstash, Kibana) | ELK Stack (Elasticsearch, Logstash, Kibana) | ELK Stack (Elasticsearch, Logstash, Kibana) |
LLM Orchestration & Agents | LangChain, LlamaIndex | LangChain, LlamaIndex | |||
API Gateway & Access Control | Kong, Envoy Proxy (API Gateway) | Kong, Envoy Proxy | |||
Livello Sicurezza e Compliance | |||||
Identity & Access Management (IAM) | Controllo granulare sugli accessi | IAM & Access Control | Keycloak | Keycloak | Keycloak |
Secure Key Management | Gestione interna delle chiavi di cifratura | Cifratura storage e rete | OpenSSL, HashiCorp Vault, WireGuard | OpenSSL, WireGuard | OpenSSL, WireGuard |
Compliance & Audit Engine | Log, report e verifiche automatiche sui modelli AI | Compliance & Audit Engine | Auditbeat, Wazuh | Wazuh, Auditbeat | Wazuh, Auditbeat |
AI Risk Management Layer | Valutazione del rischio AI in base ai KPI/KRI finanziari e regolamentari | AI Risk Management | Workflow custom su Airflow + Evidently AI + ELK | ||
Performance hardware | dipendono da vari fattori architetturali, generalmente con latenza più alta rispetto a modelli Ollama, ma con inferenza altamente ottimizzata su GPU NVIDIA | GPU optional, buona su CPU, ottimo scaling su cluster container | Ottimizzato per CPU-based private inference, adattabile su GPU | ||
Vantaggi | |||||
100% controllabile in-house o in private cloud | Modelli LLM gestiti on-prem o cloud privato | Modello open source, auditabile e adattabile | |||
Elevata modularità e scalabilità | Nessun dato sensibile esce dall’organizzazione | Zero dipendenza da cloud pubblico | |||
Soluzioni mature, enterprise-ready | Integrabile facilmente via API REST | Privacy e sicurezza dei dati garantita | |||
Community attive e aggiornamenti continui | Modulare e scalabile con componenti open source maturi | Possibilità di fine-tuning controllato | |||
Conformabile a GDPR, DORA, AI Act, ISO 27001 | Compliance-ready per GDPR, DORA, AI Act | Compliant a GDPR, AI Act, DORA | |||
Possibilità di fine-tuning privato e Retrieval-Augmented Generation (RAG) con vector DB | Modulare, estendibile, interamente open source | ||||
generico e flessibile (multi-LLM) | Specifico per AI explainable e RAG | ||||
Deployment container-based molto veloce | Ottimizzato per deployment AI bancari regolamentati | ||||
Richiede plug-in explainability esterni | Ha explainability integrata (attribution delle fonti) | ||||
Ottimo per ambienti AI sperimentali e multilingua | Ideale per AI regolamentata, AI ethics e risk control | ||||
Casi d’uso | |||||
Crédit Mutuel → Private AI con TensorFlow, MLflow, Kubernetes | Private AI assistant per clienti premium bancari | Chatbot per assistenza normativa e compliance su database normativo interno di policy | |||
BBVA AI Factory → uso intensivo di Kubeflow, Feast, MLflow e Prometheus | Document search intelligente in ambito compliance e normativa | Motore di ricerca intelligente di documenti regolamentari con RAG su vector DB, tipo Milvus, ChromaDb | |||
Chatbot per helpdesk bancario con knowledge base interna | Analisi e reportistica AI-based su dati finanziari cifrati e anonimizzati |
Le limitazioni e le aree di attenzione dei modelli open source
I modelli open source, nonostante i vantaggi immediatamente percepibili, potrebbero in genere presentare rischi e limitazioni, che però sono difficilmente applicabili in un contesto aziendale delimitato:
- l’utilizzo improprio: ovvero la realizzazione di attività illecite, come la diffusione di disinformazione o la creazione di contenuti deepfake, in un ambiente controllato come quello aziendale e con casi d’uso definiti, nonché accessi ed utilizzazione perimetrata è difficilmente attuabile;
- la possibile disparità nell’accesso ai dati, non è applicabile quando i dati sono quelli volutamente raccolti ed utilizzati in ambito aziendale e messi a disposizione secondo le regole definite e condivise dall’organizzazione;
- la mancanza di standardizzazione: è una problematica di fatto meno applicabile al modello Olmo che è compatibile secondo il processo di convalida OSAID agli standard OSI e ad Ollama, che permette di utilizzare una pletora di LLM. L’evoluzione dei modelli è estremamente dinamica e necessariamente confluiranno, per quelli non legacy e rivolti a soluzioni specialistiche, verso uno standard “de facto”.
Le fasi per l’implementazione di una soluzione di Private AI in azienda
Ma quali sono gli step da considerare per implementare una soluzione di Private AI nella propria organizzazione? Vediamo i principali
Definizione degli obiettivi di business
- Che cosa deve fare la private AI (es: assistente per il customer care, generazione documenti compliance, risk analysis, analisi conversazioni, retrieval documentale).
- Definizione KPI e KRI (es. tempo medio di risposta, % di explainability garantita, audit log coverage, tempo di deployment.)
Identificazione delle fonti dati e compliance
- Classificazione dati: pubblici, aziendali interni, regolamentati (es. dati bancari)
- Verifica GDPR/DORA/AI Act readiness
- Definizione dataset di training/fine-tuning o retrieval (per RAG)
- Eventuale pseudonimizzazione o anonimizzazione dei dati sensibili
Scelta e progettazione dell’architettura
- Le opzioni principali sono il cloud privato, l’on-premise e l’hybrid cloud, ognuna con caratteristiche peculiari, da considerare in base alle esigenze/possibilità delle singole aziende.
- Componenti tipici open source (vedi tabella sopra)
Integrazione con i processi aziendali esistenti per garantire l’efficacia operativa
- L’integrazione con i processi aziendali richiede una mappatura approfondita delle operazioni correnti per identificare i punti in cui l’AI può avere l’impatto più significativo.
- La formazione del personale è altrettanto importante
Deploy ambiente di sviluppo e test
- Ambiente segregato per PoC e security test
- Deploy modelli AI (LLM) privati
- Vector DB con embedding propri o public
- Integrazione Explainability, Audit logging e Redis caching
- Test di inferenza e carico
(Se necessario) addestramento o fine-tuning modelli
- Se si usa una soluzione RAG (Retrieval-Augmented Generation) con un LLM pre-addestrato (Ollama, Olmo) non è necessario fare training: si aggiornano solo i documenti nel Vector DB e il modello rimane invariato.
- Se si vuole personalizzare il comportamento del modello o aggiungere competenze linguistiche/settoriali specifiche si può effettuare fine-tuning o full training su dati aziendali privati.
- Raccolta e cleaning dati proprietari
- Creazione dataset addestramento (prompt + completion)
- Addestramento full o fine-tuning LLM privato
- Valutazione metrica su dataset di validazione
- Explainability e bias testing
- Deploy modello fine-tunato in staging
- Deploy Vector DB e cache Redis
Definizione policy di sicurezza e compliance
- Access control e RBAC sui servizi AI
- Logging centralizzato
- Audit trail su tutte le richieste AI
- Alerting e incident management AI (es. anomalie di comportamento modello)
- Verifica Explainability per AI Act compliance
- Policy di retention dati e inferenza anonimizzata
Deploy ambiente di produzione
- Deploy virtualizzazione/container su infrastruttura privata o cloud privato
- Monitoraggio carichi e inferenza
- Deploy chat conversazionale (Gradio, Streamlit, React, …. )
- Integrazione con sistemi legacy o CRM aziendali via API
- Deploy Redis caching per prompt e session memory
- Deploy AI Feature Store (se serve) → Feast
Monitoraggio, explainability e governance
- Metriche di inferenza (tempo risposta, carico, fail rate)
- Tracciamento audit su richieste AI
- Verifica attributi explainability (ragionamento modello)
- Logging vettoriale su Vector DB
- Reportistica per audit e compliance
Manutenzione continua e retraining
- Aggiornamento periodico embedding e knowledge base
- Fine-tuning modelli su dati aziendali (se consentito)
- Security patching container AI e librerie AI
- Monitoraggio drift di performance e bias modello
Le piccole e medie imprese sono il cuore pulsante dell’economia italiana, ma spesso trovano difficoltà nell’accedere a tecnologie avanzate come l’intelligenza artificiale a causa dei costi e della complessità iniziale di implementazione.
A differenza dei servizi offerti dagli operatori globali, che comportano costi operativi continui e la dipendenza da terze parti, una soluzione di Private AI consente alle PMI di mantenere il controllo completo sui dati aziendali, tutelando la loro proprietà intellettuale e riducendo i costi su scala. In questo modo, anche le imprese più piccole possono accedere a strumenti personalizzati che migliorano efficienza e competitività.
Inoltre, l’evoluzione delle tecnologie AI e la maggiore disponibilità di strumenti open source o personalizzabili stanno gradualmente abbattendo le barriere d’ingresso, permettendo alle PMI di avviare progetti più accessibili. La Private AI democratizza l’accesso all’innovazione senza compromessi sul controllo dei dati, stimolando un ecosistema industriale più inclusivo, dove anche le aziende di dimensioni minori possono competere ad armi pari con le grandi multinazionali, preservando però il proprio carattere distintivo e la propria autonomia tecnologica.