Analisi

AI privata o “pubblica”? I pro, i contro, le cose da sapere



Indirizzo copiato

Cresce l’interesse delle PMI italiane per soluzioni di intelligenza artificiale private rispetto agli hyperscaler internazionali. Il confronto tra costi, sicurezza, controllo dei dati e flessibilità alla luce dell’AI Act. Il ruolo dei modelli open source

Pubblicato il 4 giu 2025

Marco Beozzi

Quadro direttivo bancario



PRIVATE AI

L’intelligenza artificiale (AI) ha raggiunto un punto di svolta nell’opinione pubblica. Ciò è dovuto in gran parte agli sviluppi tecnologici nell’ambito dei modelli di linguaggio di grandi dimensioni (LLM, Large Language Model) e dal lancio di strumenti di IA generativa, tra cui ChatGPT di OpenAI.

Tuttavia, per quelle aziende che stanno definendo una strategia sull’IA che sia proiettata al futuro, un punto cruciale da affrontare nel dibattito è la scelta tra l’AI privata e quella pubblica. Comprendere quali siano le implicazioni relative alla privacy e alle normative di ciascun approccio è fondamentale, soprattutto nel caso di organizzazioni pubbliche o aziende del settore privato che operano in ambiti fortemente regolamentati.

Durante il Festival dell’Economia di Trento, tenutosi tra il 22 e il 25 maggio, si è parlato molto di Intelligenza Artificiale. In particolare, durante l’incontro “Leadership nell’era dell’Intelligenza Artificiale: il compromesso tra valore umano e tecnologie nelle PMI” Eleonora Angelini e Paolo Zanolli dei Giovani di Confcommercio hanno affermato che “il tema dell’AI è tanto rilevante quanto attuale e interviene sui modelli di leadership, sul modo di fare impresa e si sta affacciando sul mondo delle PMI, che è preponderante nel tessuto economico sociale del nostro paese. A fronte di questa trasformazione che stiamo subendo negli ultimi anni, dobbiamo trovare un corretto punto di equilibrio tra le tecnologie e la parte relativa al valore del capitale umano”.

Festival dell’Economia di Trento: lo scenario di mercato

Dai dati in possesso di Confcommercio, l’AI è utilizzata nel 19% dell’imprese, con un impatto del 16% sul fatturato e del 7% sui costi, ma nelle microimprese, cioè fino a 10 dipendenti, viene utilizzata nell’8% dei casi. Considerando che in Italia il tessuto imprenditoriale è composto per il 90% da piccole aziende, esiste una importante opportunità di crescita significativa dell’AI nelle imprese, a patto che si possano ripensare i processi, i ruoli e le competenze aziendali.

In particolare, come indicato anche da Franco Bernabè, Presidente dell’Università degli Studi di Trento e Presidente di Techvisory, già amministratore delegato di importanti aziende italiane e internazionali tra cui Eni e Telecom, durante l’evento “Perché il modello attuale di sviluppo dell’intelligenza artificiale può non essere sostenibile” le aziende devono rivedere i propri processi interni per adattarli alle nuove tecnologie.

In particolare, le aziende aderenti a Confcommercio non hanno reparti di R&D o budget dedicati, nonché consulenze continue e specializzate, di cui possono invece usufruire le aziende nel settore industriale, però possiedono dei vantaggi come la prossimità con il cliente, la flessibilità e una conoscenza profonda del mercato. Quindi la sfida delle aziende è quella di applicare in maniera sostenibile l’utilizzo della AI con poco tempo a disposizione, con risorse limitate e senza un team AI dedicato. Quindi, sempre secondo Confcommercio, le PMI dovrebbero partire da micro soluzioni, come le chat bot di base, gli assistenti virtuali, avvalendosi del supporto delle associazioni di categoria, che dovrebbero fare da ponte tra l’innovazione e il territorio e quindi fornendo strumenti concreti alle imprese (in particolar modo la formazione, in quanto l’AI è un tema nuovo che richiede un’assistenza continua, workshop pratici e il supporto per operazioni di rappresentanza basati su dati economici e normativi), promuovendo quindi una cultura digitale dell’impresa, però a misura della piccola impresa, con una rete che le sostenga.

Il tema del network e del sostegno alle imprese è stato affrontato anche durante la sessione che ha coinvolto le università, con particolare riferimento al territorio dell’Emilia-Romagna dove sono state presentate le attività che vengono svolte dalle università che danno supporto alle imprese, soprattutto in un’ottica globale di inserimento in un ecosistema europeo.

Roberto Viola, direttore generale della EG Connect della Commissione Europea, segnala che in Europa è presente il numero più alto di startup e il maggior numero di ricercatori che trattano di AI. Tuttavia, abbiamo un gap di afflusso di capitali e di capacità di calcolo, che stiamo colmando, anche grazie al progetto AI factory, con una spesa in un anno di 3 miliardi di euro per creare un ecosistema relativo alla intelligenza artificiale.

Francesco Ubertini, ex rettore dell’Università di Bologna e presidente del Cineca, afferma che Bologna è un nodo di un ecosistema che coinvolge tutto il paese e che intrepreta in una modalità diffusa, aperta e di squadra il gioco sull’AI su cui si sta scommettendo. Nel Tecnopolo Dama di Bologna opera il supercomputer Leonardo, che rimarrà in funzione fine al 2028, ma entro la fine dell’anno verrà affiancato dalla realizzazione di giga factory che saranno decine di volte più potente di Leonardo, in cui l’Italia parteciperà con un ruolo importante. Le AI factory sono state pensate per offrire gratuitamente risorse alle PMI e alle amministrazioni, con un’offerta antitetica rispetto a quella delle Giga Factory che oggi sono in mano a poche, grandi aziende.

Ma a quale modello di AI ci stiamo referendo? Da una parte ci sono i grandi modelli degli hyperscaler che vanno verso la AI Generale, dall’altra abbiamo l’AI private all’interno delle imprese, a supporto della pubblica amministrazione, per i prodotti e servizi in una ottica B2B e B2C.

Cosa sono le Private AI

Si intendono come Private Al le soluzioni di intelligenza artificiale che vengono sviluppate e gestite all’interno di un ambiente controllato e privato, in cui un’organizzazione mantiene il pieno controllo su tutte le fasi del ciclo di vita dell’Al, dalla raccolta dei dati, all’istruzione dei modelli e alla loro implementazione.

I vantaggi di una Private AI, alimentata con i propri dati, per i propri scopi, i cui benefici vengano unicamente a chi la coltiva e utilizza, che valorizzi le peculiarità di prodotto, di creatività, di contesto di mercato, sono innumerevoli.

Per implementare questo tipo di modelli, sono necessari una grande quantità di dati di alta qualità, come indicato nel convegno “Colonizzatori di dati” dove è stato riportato che la prima fase di raccolta dei dati per i grandi modelli è ormai terminata, dopo aver utilizzato tutti i dataset pubblici disponibili, come Wikipedia, Common Crawl, arXiv, PubMed, StackExchange, BookCorpus, Project Gutenberg, Reddit (in passato), forum pubblici, GitHub, public news, ecc.

Tuttavia, i dati delle imprese e i dati dei sistemi pubblici non sono stati ancora condivisi: il sistema pubblico della sanità in Europa è interconnesso, mentre non lo è quello americano, e nell’ambio dell’agricoltura abbiamo dati di altissima qualità e in grande quantità.

Raccogliere solo i dati necessari e non condividerli con gli operatori globali che propongono le loro soluzioni di Intelligenza Artificiale non equivale a limitare le capacità innovativa delle aziende, bensì a garantire che i dati utilizzati siano pertinenti e di alta qualità, con risultati più accurati e affidabili e che il loro valore non sfugga al perimetro dell’impresa che investe capitale di rischio, ricerca e innovazione.

La Private AI può essere utilizzata per analizzare grandi volumi di dati clinici e genetici in modo sicuro, supportando lo sviluppo di nuovi farmaci e trattamenti personalizzati. La capacità di creare modelli di machine learning su misura, ottimizzati per le esigenze specifiche dell’azienda, permette di ottenere risultati più precisi e rilevanti rispetto ai modelli generici offerti dai player globali, proteggendo le proprie scoperte e i dati di ricerca più sensibili, come i risultati delle sperimentazioni ed i modelli di previsione elaborati con l’AI.

Dopo una pandemia che ha colpito tutto il mondo, causando milioni di morti e congelando tanto attività produttive quanto rapporti sociali, modelli di relazione e apprendimento, abbiamo capito che la comprensione di queste dinamiche, l’anticipazione di eventi e la prevenzione sono cruciali.

Stefano Mertler, un esperto della Fondazione Bruno Kessler, aveva iniziato ad analizzare i dati ufficiali a disposizione sui focolai Covdi-19 già prima di Natale 2019, diventando un punto di riferimento per l’osservazione e la previsione dell’evoluzione del contagio e oggi è uno dei maggiori esperti sui metodi di analisi a disposizione, basati su tecniche di intelligenza artificiale e modellistica matematica (o una loro integrazione), per lo studio, il monitoraggio e il contrasto alla diffusione delle malattie infettive.

Altri esempi, tra i tanti, sono Giovanni Marini, per le analisi delle dinamiche di popolamento delle zanzare e delle zecche, presso la Fondazione Mach, utilizzando le potenzialità della statistica unita al machine learning, o Marco Morelli, co-founder della start-up AI-Spot, che ha sviluppato sistemi predittivi per poter venire in soccorso agli agricoltori in modo di poter intervenire in maniera tempestiva sulle infestazione causate dalle spore, oppure Paolo Sonego, sempre delle Fondazione Mach, per la individuazione precoce della presenza infestante di insetti nocivi, come la cicalina della flavescenza dorata, che flagella le vigne, tramite sistemi di AI che la distinguono dagli altri insetti innocui, con sistemi basati una logica open source.

Vincenzo Sabatino, dirigente medico dell’UO di senologica clinica e screening mammografico dell’APSS di Trento è capofila del progetto AI-Trust, che con il supporto della società Lunit, ha sviluppato un software di AI applicato alla mammografia e alla tomosintesi 3D, che ha raggiunto una accuratezza diagnostica del 96%, avendo la possibilità di utilizzare dati in un contesto reale di malattia nella popolazione, su un intero round di screening.

I vantaggi delle Private AI

La Private Al rappresenta oggi, secondo il whitepaper sulle Private AI della Seeweb, un approccio avanzato per le organizzazioni che intendono mantenere il controllo totale sui propri dati, garantendo allo stesso tempo la massima sicurezza e conformità alle normative vigenti. Questo modello permette di conservare la sovranità sulle informazioni in possesso, evitando che vengano gestite o trasmesse a terze parti, un aspetto particolarmente rilevante per settori come la Finanza, la Sanità e la Pubblica Amministrazione.

Uno dei principali vantaggi derivanti da una Private Al è la tutela della proprietà intellettuale. Le aziende che sviluppano e gestiscono internamente le proprie soluzioni Al riducono il rischio di condivisione involontaria dei dati sensibili, che potrebbe accadere quando si utilizzano piattaforme cloud pubbliche gestite da terze parti. Questo è particolarmente importante in settori in cui la proprietà intellettuale rappresenta un asset strategico, come nel caso degli algoritmi proprietari o dei set di dati unici utilizzati per l’addestramento dei modelli Al.

Inoltre, la Private Al garantisce una piena conformità al GDPR e alle altre normative europee sulla protezione dei dati, superando le lacune regolamentari che spesso affliggono gli hyperscaler globali. Questi ultimi, pur offrendo soluzioni di Al potenti e scalabili, operano spesso in contesti normativi extraeuropei, il che può comportare difficoltà nel garantire il rispetto delle stringenti normative UE.

Il Data Act, approvato a livello europeo, ha l’obiettivo di creare un quadro normativo che favorisca una gestione dei dati più trasparente e controllata. Tra gli elementi chiave del Data Act vi è l’enfasi sul diritto di accesso ai dati da parte degli utenti e l’obbligo per le aziende di facilitare lo scambio di dati con altri soggetti in determinati casi. Tutto questo per evitare la concentrazione di dati nelle mani di poche grandi aziende e per favorire una più ampia partecipazione al mercato dei dati.

Per le aziende italiane, che spesso operano in settori strategici come la manifattura, l’agroalimentare la moda, la ricerca pharma, questo nuovo quadro normativo rappresenta un’opportunità per migliorare la gestione dei dati a livello locale, ma anche una sfida in termini di compliance. Affidarsi a infrastrutture nazionali o private, invece che ai grandi provider globali, può facilitare la governance dei dati, garantendo che i dati sensibili e strategici non escano dai confini europei e che le aziende rispettino i requisiti imposti dal Data Act in modo più sicuro e flessibile

Un elemento fondamentale di questa strategia è la data residency, che non si limita a una questione puramente geografica, ma riguarda soprattutto la giurisdizione di riferimento in cui i dati vengono gestiti. Mantenere i dati all’interno del perimetro giuridico scelto consente alle organizzazioni di rispettare le normative locali e le politiche specifiche in materia di residenza dei dati, evitando il rischio che informazioni sensibili siano soggette a regolamentazioni straniere meno restrittive o a ingerenze di governi esteri. Un approccio che offre una maggiore certezza legale e operativa, riducendo le vulnerabilità legate alla dipendenza da infrastrutture globali e garantendo alle imprese e alle istituzioni pubbliche un livello superiore di protezione e controllo sulle proprie risorse digitali.

Le infrastrutture degli hyperscaler operano spesso in più giurisdizioni, con server distribuiti tra diversi Paesi, il che comporta che i dati delle aziende europee possano essere trattati e archiviati anche al di fuori dell’Unione Europea, esponendoli a normative di Paesi terzi come il Cloud Act statunitense, che consente alle autorità americane di accedere ai dati ospitati da società con sede negli Stati Uniti, indipendentemente dal luogo in cui questi siano fisicamente conservati. Questo scenario mette a rischio la sovranità dei dati e la protezione delle informazioni aziendali riservate, con conseguenze che possono andare anche oltre la semplice conformità normativa.

Anche le politiche di conservazione dei dati adottate dai provider globali sono un aspetto da considerare con attenzione. Nel momento in cui un’azienda decide di migrare verso una soluzione più controllata, i termini di servizio imposti dagli hyperscaler possono complicare il recupero delle informazioni. Spesso vengono applicati periodi minimi di conservazione, restrizioni sui formati di esportazione o costi elevati per il trasferimento dei dataset aziendali, generando di fatto effetti di lock-in5 che ostacolano la possibilità di spostarsi verso alternative più sicure e trasparenti senza subire oneri imprevisti.

Un’ulteriore caratteristica della Private Al è la possibilità di personalizzare le misure di sicurezza in base alle specifiche esigenze dell’organizzazione, come la crittografia avanzata, l’accesso controllato e un monitoraggio continuo delle attività, assicurando che la protezione dei dati sia allineata con le normative locali e settoriali, come il GDPR in Europa. La conformità a queste normative non solo evita sanzioni, ma rafforza anche la fiducia degli utenti.

La Private Al consente inoltre un alto grado di customizzazione, permettendo lo sviluppo di modelli di machine learning su misura, ottimizzati per le esigenze operative specifiche. Personalizzazioni che, a differenza dei modelli generici offerti dai grandi cloud provider pubblici, possono portare a una maggiore precisione e risultati più rilevanti, in linea con le reali e specifiche esigenze e aspettative della singola azienda.

Infine, la Private AI garantisce indipendenza operativa, affrancando le organizzazioni dai contratti o le politiche dei provider di cloud globali, potendo così adattare le loro soluzioni in modo flessibile, senza dipendere da aggiornamenti esterni. Una flessibilità operativa che consente alle aziende di muoversi secondo i propri ritmi e necessità, senza doversi conformare a infrastrutture cloud pubbliche, spesso troppo generiche per soddisfare le esigenze specifiche di un settore o di un Paese.

Il ruolo dell’AI Act

L’AI Act rappresenta un punto di svolta nella regolamentazione dell’intelligenza artificiale a livello europeo. Si tratta di una nuova legge, approvata nel 2024, che punta a creare un quadro normativo unico e armonizzato per lo sviluppo e l’utilizzo dell’intelligenza artificiale all’interno dell’Unione Europea.

Al di là degli aspetti etici, l’AI Act influenza profondamente le strategie basate sull’intelligenza artificiale delle aziende italiane ed europee. Le nuove normative impongono infatti un livello più alto di rigore nella gestione dei dati, nella resilienza e nella sicurezza informatica, ma offrono anche un’opportunità per rivedere l’approccio aziendale all’AI e adottare soluzioni che garantiscano maggiore controllo e conformità.

L’AI Act offre i seguenti vantaggi alle aziende:

  • Certezza del diritto e riduzione dei rischi: l’AI Act fornisce un quadro normativo certo e prevedibile, consentendo alle aziende di operare in un ambiente regolamentato e di mitigare i rischi legati all’utilizzo di sistemi di IA non conformi.
  • Stimolo per l’innovazione: pur ponendo limiti a pratiche considerate rischiose, l’AI Act incoraggia l’innovazione responsabile, offrendo alle aziende l’opportunità di sviluppare soluzioni basate sull’IA sicure, affidabili e conformi ai più alti standard europei.
  • Protezione della proprietà intellettuale: Il regolamento tutela la proprietà intellettuale delle aziende, garantendo che i loro sviluppi in ambito IA siano protetti da eventuali usi illeciti.
  • Accesso al mercato unico europeo: le aziende che rispettano le disposizioni dell’AI Act avranno maggiori facilità ad accedere al mercato unico europeo, evitando barriere normative e facilitando la commercializzazione dei propri prodotti e servizi.
  • Miglioramento della reputazione: l’adozione di pratiche conformi all’AI Act contribuisce a migliorare la reputazione aziendale, aumentando la fiducia dei consumatori e degli investitori.

In particolare, per le aziende, l’AI Act si concentra sui seguenti aspetti:

  • Valutazione dei rischi: le aziende dovranno condurre valutazioni approfondite dei rischi associati ai loro sistemi di IA, identificando e mitigando potenziali minacce alla sicurezza, alla privacy e ai diritti fondamentali.
  • Trasparenza: le aziende dovranno garantire la trasparenza dei loro sistemi di IA, informando gli utenti sull’utilizzo dell’IA e sui suoi limiti.
  • Qualità dei dati: l’AI Act pone l’accento sulla qualità dei dati utilizzati per addestrare i sistemi di IA, richiedendo che i dati siano accurati, completi e non discriminatori.
  • Supervisione umana: anche nei processi decisionali automatizzati, l’AI Act prevede un ruolo fondamentale per la supervisione umana, alfine di garantire il controllo e la responsabilità.

L’AI Act dell’Unione Europea introduce una serie di obblighi volti a garantire che i dataset utilizzati per l’addestramento siano accurati, completi e rappresentativi, richiedendo alle aziende di implementare strumenti avanzati per monitorare e tracciare i dati lungo tutto il loro ciclo di vita. Per le imprese che vogliono mantenere un controllo rigoroso sui propri dati, la Private AI offre un’infrastruttura ideale, dove i dati non devono essere esternalizzati, riducendo così i rischi associati a possibili violazioni normative.

In un ambiente economico sempre più dipendente dall’AI, le aziende devono anche garantire la resilienza operativa dei loro modelli. L’AI Act pone proprio l’accento sulla sicurezza e sull‘affidabilità dei sistemi, richiedendo piani di emergenza e backup. La geo-ridondanza, che consente la distribuzione dei carichi di lavoro tra diverse sedi, e l’integrazione di soluzioni ibride tra cloud pubblico e privato, sono alcune delle strategie che possono rafforzare la continuità operativa delle imprese.

Inoltre, il regolamento evidenzia l’importanza di mantenere il controllo sui dati e sui modelli, evitando accessi non autorizzati o manipolazioni. Le aziende possono sfruttare l’Al federata, che consente di accedere a vasti dataset mantenendo al tempo stesso la proprietà intellettuale e la riservatezza del proprio know-how. Questo approccio non solo facilita la conformità normativa, ma protegge anche il valore strategico delle informazioni aziendali. Implementare una strategia di private Al aiuta le aziende a gestire le complessità dell’Al Act, assicurando che ogni fase dello sviluppo e dell’uso dei modelli sia in linea con i requisiti normativi. Questa soluzione si adatta alle esigenze di governance, sicurezza e sostenibilità, permettendo alle imprese di crescere senza rinunciare al controllo dei propri asset digitali. Nell’ottica di lungo termine, l’adozione della private Al rappresenta una scelta strategica per garantire competitività e conformità, preparandosi alle sfide del futuro regolamentare.

Hyperscaler o Private AI? I costi a confronto

L’adozione di soluzioni Al offerte dagli hyperscaler internazionali, come Amazon Web Services, Google Cloud, e Microsoft Azure, può sembrare inizialmente attraente per molte aziende, grazie a modelli di pricing flessibili, scalabilità immediata, e la possibilità di accedere a infrastrutture potenti senza un grande investimento iniziale. Ma bisogna fare attenzione: dietro queste offerte si celano una serie di costi nascosti che possono rendere l’Al pubblica molto più costosa nel lungo termine rispetto all’opzione Private AI.

Secondo il whitepaper di Seeweb, nella tabella sotto sono riportati i costi di un’azienda media che decide di implementare una soluzione AI per analizzare grandi quantità di dati:

CostoHyperscaler Al (Annuale)Private Al (Annuale)
Storage dati50-70 €/TB/mese per 50 TB (ca. 42.000 €/anno)12.000 € (dischi locali e backup su cloud)
Data egress fees* 5-10 €/TB per 10 TB (ca. 6.000 €/anno)N/A
Calcolo (GPU/CPU)30.000 € (GPU per AI su hyperscaler)15.000 € (GPU on-premises ammortizzata)
Scalabilità infrastrutturaleDinamico (ca. 25.000 €/anno)Fissa (ca. 10.000 € di gestione IT e upgrade)
Licenze software12.000 €/anno per funzionalità avanzate5.000 €/anno per stack software open source
Supporto e consulenza5.000 €/annoIncluso nelle spese di gestione
Totale stimatoca. 120.000 €/annoca. 42.000 €/anno

*for transferring data out of their cloud environments

I clienti con infrastrutture di AI privata, i quali utilizzano modelli open source e li gestiscono su proprie infrastrutture o su cloud public fidati, in cui dispongono di risorse pronte all’uso e al contempo dedicate, arrivano a risparmiare da 3 a 5 volte di più evitando costi mensili per token che spesso nella public Al sfuggono al controllo. A questi costi però si dovrebbero aggiungere i costi per la formazione interna (nel caso si utilizzasse personale non in outsourcing o in body rental) e per l’aggiornamento dell’architettura, considerando l’elevata obsolescenza di questi sistemi nel tempo.

Le soluzioni open source per l’AI

L’integrazione di soluzioni open source all’interno di un motore Al proprietario può essere una scelta strategica per molte aziende, poiché consente di accedere a un’ampia gamma di librerie e framework (TensorFlow, PyTorch e Hugging Face), senza dover investire enormi risorse nello sviluppo da zero

lnoltre, la natura “open source” favorisce una continua collaborazione con la Community globale di sviluppatori e ricercatori, che contribuiscono costantemente al miglioramento e all’innovazione delle soluzioni. Questo ambiente dinamico permette alle aziende di restare sempre all’avanguardia senza essere legate a vendor specifici. Un ulteriore vantaggio è poi la trasparenza del codice, che consente alle imprese di effettuare audit interni per garantire che non vi siano vulnerabilità o backdoor, aumentando così la sicurezza dei propri sistemi.

L’open source, infine, risponde anche a esigenze di conformità normativa, specialmente in ambito europeo, offrendo piena visibilità e tracciabilità del codice utilizzato. La sua flessibilità consente una personalizzazione totale delle soluzioni Al, permettendo alle aziende di adattare i modelli alle proprie necessità, riducendo al minimo il rischio di lock-in tecnologico con fornitori esterni e aumentando la loro competitività.

Le tipologie di modelli di AI open source disponibili oggi si potrebbero suddividere in tre possibili proposte di soluzioni.

  • La prima comprende framework open-source di machine learning e deep learning “specialistici” come TensorFlow, progettato per costruire e addestrare modelli di AI scalabili su CPU, GPU e TPU, o come PyTorch, che è un altro framework open-source di deep learning, sviluppato da Facebook AI (ora Meta AI) e rispetto a TensorFlow, è più flessibile e intuitivo per la ricerca e il prototyping rapido, oppure come JAX, che è un framework di machine learning di nuova generazione sviluppato da Google che consente di fare trasformazioni automatiche su funzioni Python (derivate, ottimizzazioni vettoriali e parallele).
  • La seconda riguarda Ollama che oggi è una delle soluzioni più interessanti per gestire modelli LLM privati on-prem o su edge in modo semplice e sicuro, perfetta per ambienti regolati come le banche o il fintech. Ollama funge da motore AI locale per LLM (come LLaMA, Mistral, Vicuna) che gira in locale o su cloud privato, con un’interfaccia API REST molto semplice da integrare.
  • La terza si riferisce ad Olmo by AI2 (Allen Institute for AI), citato in precedenza, che è uno dei più promettenti LLM open source sviluppati per ambienti controllati, progettato per essere trasparente, auditabile e utilizzabile in contesti regolati come finanza, sanità, e pubblica amministrazione.

Sistemi open source di Private AI, caratteristiche a confronto

Livello Infrastrutturale
STACK OPEN SOURCE – TensorFlow, PyTorch, Scikit-learn, JAXSTACK OPEN SOURCE – OllamaSTACK OPEN SOURCE – Olmo
ComponenteScopoFunzioneOpen Source ToolsOpen Source ToolsOpen Source Tools
Data Center on-premise o Cloud PrivatoHosting sicuro dei dati e dei modelli AIVirtualizzazione / ContainerKubernetes, OpenShift OKDserving containerizzato, API locale via REST su Docker/Kubernete, Podman, Kubernetes (K3s o full)Docker, Podman
Orchestrazione AI /LLM on-premEsecuzione efficiente di modelli AI, soprattutto deep learningCluster Orchestration/ AI Workflow OrchestrationKubeflow (AI/ML pipelines su Kubernetes)Ollama docker native, supporta orchestrazione via Docker Compose e KubernetesNativamente in Docker e Kubernetes, ottimizzato per private deployment (o K3s on-prem) / WF orchestration con Kuberflow
Network sicuro e segmentatoSeparazione tra ambienti di test, produzione e analyticsStorage distribuito e cifratoCeph, MinIO (object storage on-prem)Ceph, MinIOCeph, MinIO
Storage cifrato (v. sotto livello di sicurezza e compliance)Protezione dei dati a riposo con chiavi gestite internamenteGestione segreti / chiaviHashiCorp VaultHashiCorp VaultHashiCorp Vault
Chat InterfaceInterfaccia utentePython CLIGradio, Streamlit, React, LangChainJSStreamlit, React, LangChainJS con explainability viewer
Livello Dati
Data Lake / Data Warehouse privatoRaccolta centralizzata di dati strutturati e nonData LakeApache Hadoop, Apache Iceberg, Delta LakeApache Iceberg, Delta LakeApache Iceberg, Delta Lake
Data Ingestion LayerIntegrazione di dati da sistemi interni (core banking, CRM, ecc.)Data IngestionApache Nifi, Airbyte, Apache KafkaApache Nifi, KafkaApache Nifi, Kafka
Data Governance LayerPolicy di accesso, audit trail, classificazione dei datiData GovernanceApache AtlasApache AtlasApache Atlas
Data Anonymization / PseudonymizationPreprocessing dei dati per la tutela dei dati personaliData Anonymization / PseudonymizationARX, Amnesia, Diffprivlib (differential privacy su Python)ARX, DiffprivlibARX, Diffprivlib
Livello AI / ML
AI/ML Framework privatoAddestramento ed inferenza dei modelli AI in ambiente controllatoAI/MLTensorFlow, PyTorch, Scikit-learn, JAXOllama funge da motore AI locale per vari LLMOlmo
LLMmodello linguistico di grandi dimensioni LLMLLaMA, Mistral, Phi, Olmo e altri via containerModello LLM locale via Hugging Face Transformers
Fine tuning locale LLMPEFT (Hugging Face), LoRA, QLoRA su OllamaPEFT, LoRA, QLoRA (con Hugging Face PEFT)
Secure Federated Learning (opzionale)Addestramento distribuito senza trasferire dati sensibiliFederated LearningFlower, PySyft, FedMLFlower, FedMLFlower, FedML
Model RegistryRepository per la gestione di versioni e approvazioni dei modelliModel RegistryMLflowMLflowMLflow
Retrieval-Augmented Generation.motore di ricerca di documenti basato su vector databaseVector Database per RAGChromaDB, Weaviate, MilvusOttimizzato per RAG: gestisce retrieval embedding + explainability con attribution
Explainability LLMinterpreta, spiega e verifica come un LLM ha preso una decisione o generato una rispostaExplainability LLM & Bias DetectionSHAP, LIME, AI Fairness 360, Alibi ExplainNon nativa, va integrata a parte via LangChain o strumenti esterni (TruLens, LangChain Inspect)Parte integrante del modello: fornisce attribution ed evidenzia fonti ( Alibi Explain)
Feature StoreCatalogo centralizzato di variabili/feature calcolateFeature StoreFeast (su backend Redis o PostgreSQL)Integrabile via API (Richiesto codice custom)API-friendly, ma non nativo: da integrare con FastAPI adapter
CachingCaching dei documenti recuperati da RAG e delle domande frequentiSi integra facilmente con Redis via LangChain memory o custom Redis handlerSupporto pieno per Redis prompt/session caching, configurabile via API
Livello Decisionale
AI Decision EngineEsecuzione di decisioni automatizzate su base di policy approvateDecision Engine / Rule EngineDrools, Decision Manager (JBoss)Drools, JBoss Decision ManagerDrools, JBoss Decision Manager
Model MonitoringMonitoraggio continuo di bias, drift, performance e complianceModel MonitoringPrometheus + Grafana, Evidently AI, WhyLogsEvidently AI, Prometheus + GrafanaEvidently AI, WhyLogs, Prometheus + Grafana
Auditability LayerTracciabilità e audit sui risultati AIAudit & Logging AIELK Stack (Elasticsearch, Logstash, Kibana)ELK Stack (Elasticsearch, Logstash, Kibana)ELK Stack (Elasticsearch, Logstash, Kibana)
LLM Orchestration & AgentsLangChain, LlamaIndexLangChain, LlamaIndex
API Gateway & Access ControlKong, Envoy Proxy (API Gateway)Kong, Envoy Proxy
Livello Sicurezza e Compliance
Identity & Access Management (IAM)Controllo granulare sugli accessiIAM & Access ControlKeycloakKeycloakKeycloak
Secure Key ManagementGestione interna delle chiavi di cifraturaCifratura storage e reteOpenSSL, HashiCorp Vault, WireGuardOpenSSL, WireGuardOpenSSL, WireGuard
Compliance & Audit EngineLog, report e verifiche automatiche sui modelli AICompliance & Audit EngineAuditbeat, WazuhWazuh, AuditbeatWazuh, Auditbeat
AI Risk Management LayerValutazione del rischio AI in base ai KPI/KRI finanziari e regolamentariAI Risk ManagementWorkflow custom su Airflow + Evidently AI + ELK
Performance hardwaredipendono da vari fattori architetturali, generalmente con latenza più alta rispetto a modelli Ollama, ma con inferenza altamente ottimizzata su GPU NVIDIAGPU optional, buona su CPU, ottimo scaling su cluster containerOttimizzato per CPU-based private inference, adattabile su GPU
Vantaggi
100% controllabile in-house o in private cloudModelli LLM gestiti on-prem o cloud privatoModello open source, auditabile e adattabile
Elevata modularità e scalabilitàNessun dato sensibile esce dall’organizzazioneZero dipendenza da cloud pubblico
Soluzioni mature, enterprise-readyIntegrabile facilmente via API RESTPrivacy e sicurezza dei dati garantita
Community attive e aggiornamenti continuiModulare e scalabile con componenti open source maturiPossibilità di fine-tuning controllato
Conformabile a GDPR, DORA, AI Act, ISO 27001Compliance-ready per GDPR, DORA, AI ActCompliant a GDPR, AI Act, DORA
Possibilità di fine-tuning privato e Retrieval-Augmented Generation (RAG) con vector DBModulare, estendibile, interamente open source
generico e flessibile (multi-LLM)Specifico per AI explainable e RAG
Deployment container-based molto veloceOttimizzato per deployment AI bancari regolamentati
Richiede plug-in explainability esterniHa explainability integrata (attribution delle fonti)
Ottimo per ambienti AI sperimentali e multilinguaIdeale per AI regolamentata, AI ethics e risk control
Casi d’uso
Crédit Mutuel → Private AI con TensorFlow, MLflow, KubernetesPrivate AI assistant per clienti premium bancariChatbot per assistenza normativa e compliance su database normativo interno di policy
BBVA AI Factory → uso intensivo di Kubeflow, Feast, MLflow e PrometheusDocument search intelligente in ambito compliance e normativaMotore di ricerca intelligente di documenti regolamentari con RAG su vector DB, tipo Milvus, ChromaDb
Chatbot per helpdesk bancario con knowledge base internaAnalisi e reportistica AI-based su dati finanziari cifrati e anonimizzati

Le limitazioni e le aree di attenzione dei modelli open source

I modelli open source, nonostante i vantaggi immediatamente percepibili, potrebbero in genere presentare rischi e limitazioni, che però sono difficilmente applicabili in un contesto aziendale delimitato: 

  • l’utilizzo improprio: ovvero la realizzazione di attività illecite, come la diffusione di disinformazione o la creazione di contenuti deepfake, in un ambiente controllato come quello aziendale e con casi d’uso definiti, nonché accessi ed utilizzazione perimetrata è difficilmente attuabile;
  • la possibile disparità nell’accesso ai dati, non è applicabile quando i dati sono quelli volutamente raccolti ed utilizzati in ambito aziendale e messi a disposizione secondo le regole definite e condivise dall’organizzazione;
  • la mancanza di standardizzazione: è una problematica di fatto meno applicabile al modello Olmo che è compatibile secondo il processo di convalida OSAID agli standard OSI e ad Ollama, che permette di utilizzare una pletora di LLM. L’evoluzione dei modelli è estremamente dinamica e necessariamente confluiranno, per quelli non legacy e rivolti a soluzioni specialistiche, verso uno standard “de facto”.

Le fasi per l’implementazione di una soluzione di Private AI in azienda

Ma quali sono gli step da considerare per implementare una soluzione di Private AI nella propria organizzazione? Vediamo i principali

Definizione degli obiettivi di business

  • Che cosa deve fare la private AI (es: assistente per il customer care, generazione documenti compliance, risk analysis, analisi conversazioni, retrieval documentale).
  • Definizione KPI e KRI (es. tempo medio di risposta, % di explainability garantita, audit log coverage, tempo di deployment.)

Identificazione delle fonti dati e compliance

  • Classificazione dati: pubblici, aziendali interni, regolamentati (es. dati bancari)
  • Verifica GDPR/DORA/AI Act readiness
  • Definizione dataset di training/fine-tuning o retrieval (per RAG)
  • Eventuale pseudonimizzazione o anonimizzazione dei dati sensibili

Scelta e progettazione dell’architettura

  • Le opzioni principali sono il cloud privato, l’on-premise e l’hybrid cloud, ognuna con caratteristiche peculiari, da considerare in base alle esigenze/possibilità delle singole aziende.
  • Componenti tipici open source (vedi tabella sopra)

Integrazione con i processi aziendali esistenti per garantire l’efficacia operativa

  • L’integrazione con i processi aziendali richiede una mappatura approfondita delle operazioni correnti per identificare i punti in cui l’AI può avere l’impatto più significativo.
  • La formazione del personale è altrettanto importante

Deploy ambiente di sviluppo e test

  • Ambiente segregato per PoC e security test
  • Deploy modelli AI (LLM) privati
  • Vector DB con embedding propri o public
  • Integrazione Explainability, Audit logging e Redis caching
  • Test di inferenza e carico

(Se necessario) addestramento o fine-tuning modelli

  • Se si usa una soluzione RAG (Retrieval-Augmented Generation) con un LLM pre-addestrato (Ollama, Olmo) non è necessario fare training: si aggiornano solo i documenti nel Vector DB e il modello rimane invariato.
  • Se si vuole personalizzare il comportamento del modello o aggiungere competenze linguistiche/settoriali specifiche si può effettuare fine-tuning o full training su dati aziendali privati.
  • Raccolta e cleaning dati proprietari
  • Creazione dataset addestramento (prompt + completion)
  • Addestramento full o fine-tuning LLM privato
  • Valutazione metrica su dataset di validazione
  • Explainability e bias testing
  • Deploy modello fine-tunato in staging
  • Deploy Vector DB e cache Redis

Definizione policy di sicurezza e compliance

  • Access control e RBAC sui servizi AI
  • Logging centralizzato
  • Audit trail su tutte le richieste AI
  • Alerting e incident management AI (es. anomalie di comportamento modello)
  • Verifica Explainability per AI Act compliance
  • Policy di retention dati e inferenza anonimizzata

Deploy ambiente di produzione

  • Deploy virtualizzazione/container su infrastruttura privata o cloud privato
  • Monitoraggio carichi e inferenza
  • Deploy chat conversazionale (Gradio, Streamlit, React, …. )
  • Integrazione con sistemi legacy o CRM aziendali via API
  • Deploy Redis caching per prompt e session memory
  • Deploy AI Feature Store (se serve) → Feast

Monitoraggio, explainability e governance

  • Metriche di inferenza (tempo risposta, carico, fail rate)
  • Tracciamento audit su richieste AI
  • Verifica attributi explainability (ragionamento modello)
  • Logging vettoriale su Vector DB
  • Reportistica per audit e compliance

Manutenzione continua e retraining

  • Aggiornamento periodico embedding e knowledge base
  • Fine-tuning modelli su dati aziendali (se consentito)
  • Security patching container AI e librerie AI
  • Monitoraggio drift di performance e bias modello

Le piccole e medie imprese sono il cuore pulsante dell’economia italiana, ma spesso trovano difficoltà nell’accedere a tecnologie avanzate come l’intelligenza artificiale a causa dei costi e della complessità iniziale di implementazione.

A differenza dei servizi offerti dagli operatori globali, che comportano costi operativi continui e la dipendenza da terze parti, una soluzione di Private AI consente alle PMI di mantenere il controllo completo sui dati aziendali, tutelando la loro proprietà intellettuale e riducendo i costi su scala. In questo modo, anche le imprese più piccole possono accedere a strumenti personalizzati che migliorano efficienza e competitività.

Inoltre, l’evoluzione delle tecnologie AI e la maggiore disponibilità di strumenti open source o personalizzabili stanno gradualmente abbattendo le barriere d’ingresso, permettendo alle PMI di avviare progetti più accessibili. La Private AI democratizza l’accesso all’innovazione senza compromessi sul controllo dei dati, stimolando un ecosistema industriale più inclusivo, dove anche le aziende di dimensioni minori possono competere ad armi pari con le grandi multinazionali, preservando però il proprio carattere distintivo e la propria autonomia tecnologica.

Speciale Digital Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 5