Prospettive

Le sfide dell’AI nella pratica aziendale

L’applicazione concreta dell’Artificial Intelligence (AI), nelle imprese e nella PA, mette in luce una serie di problematiche (valorizzazione dati, privacy, explainability, sostenibilità sociale…) la cui soluzione è fondamentale per un approccio etico non astratto. Lo hanno evidenziato i protagonisti di una delle tavole rotonde organizzate dall’Osservatorio Artificial intelligence del Politecnico di Milano.

Pubblicato il 25 Ago 2022

sfide dell’AI

A volte nel mondo governato dall’AI possono accadere fatti inspiegabili, dovuti a bias (pregiudizi cognitivi introdotti spesso inconsapevolmente da chi ha progettato gli algoritmi) o causati da altri errori imprevisti. Così è stato nel caso accaduto a ottobre 2021, in Israele, quando il popolare sistema di navigazione Waze ha reagito in modo anomalo in alcune aree congestionate per il traffico. Il navigatore è apparentemente “impazzito” reindirizzando gli utenti verso città lontane dalla loro meta e causando disagi di vario tipo agli automobilisti. In questo caso l’azienda produttrice (acquisita da Google nel 2013) ha ammesso un problema dell’algoritmo, derivante dall’incapacità di gestire la differenza fra le strade, praticamente vuote, durante la pandemia e il grande traffico nella fase successiva.

Questo esempio evidenzia la necessità di lavorare sulla spiegazione e sull’interpretazione dei modelli AI, come sottolinea Alfredo Adamo, CEO di Alan Advantage: “L’interpretazione serve per capire la logica secondo la quale un certo input abbia prodotto un determinato output, mentre la spiegazione aiuta a conoscere i meccanismi del modello, al di là dei risultati prodotti”. Per farlo ci sono diversi metodi; uno dei più usati è il Layer-wise Relevance Propagation (LRP), una tecnica che supporta la explainability dei modelli deep learning. Sono utili anche tecniche progettuali per creare un modello semplificato capace di favorire la “spiegabilità”.

Per rendere efficaci questi strumenti, servono però persone esperte e competenti in grado di utilizzarli che al momento scarseggiano e la cui formazione richiede spesso anni. Investire nel campo della explainability è in ogni caso indispensabile non solo per la necessità imposte dalla regolamentazione legata al GDPR e a varie sentenze, ma anche perché porta un valore ai modelli AI a cui le organizzazioni utilizzatrici sono particolarmente sensibili.

Dati e AI, fra valorizzare ed etica

Un altro tema particolarmente delicato è la necessità di strutturazione della grande quantità di dati, disponibile nelle organizzazioni pubbliche e private, sia per trarne valore sia per alimentare i modelli di AI. A tal fine vengono in aiuto metodologie come le ontologie e i grafi di conoscenza, illustrati da Maurizio Zaggia, Solution Manager Customer Experience, Noovle.

Pur non essendo tecniche nuove nel mondo IT, oggi assumono nuovo valore in combinazione con l’AI. L’ontologia abilita un approccio strutturato e formale per rappresentare concetti e relazioni proprie di un certo dominio. “La parola calcio ha un significato ben diverso in ambito chimico-farmaceutico, rispetto a quello sportivo – esemplifica Zaggia – Oggi queste metodologie sono formalizzate in un modello e in un linguaggio, basato su logica descrittiva di tipo semantico”.

Esistono diversi sistemi in grado di creare automaticamente l’ontologia: alcuni si basano su una sorta di reverse engineering, a partire dal dato stesso, grazie all’aiuto dell’AI, altri si basano sul machine learning, altri ancora usano diverse tecniche. Utilizzando la logica descrittiva del linguaggio, è possibile creare una serie di formalismi che consentono di rappresentare l’ontologia come un grafo dove le entità rappresentano un nodo e gli archi le relazioni, per applicazioni in ambiti diversi. Noovle ha applicato con successo queste metodologie in diversi ambiti, come il manifatturiero, per la documentazione tecnica, e la PA, per l’organizzazione dei documenti pubblicati dai comuni.

L’approccio misto per la valorizzazione dei dati, che combina una logica descrittiva con il Machine Learning (ML), descritto da Zaggia, prevede la combinazione fra più tecnologie, approccio che anche Almawave segue come evidenzia il CTO, Raniero Romagnoli. “Mescoliamo tecnologie di riconoscimento vocale, di comprensione del linguaggio testuale e di ragionamento per creare soluzioni di augmented analytics sui dati e facilitare l’accesso ai contenuti”. L’idea è che un modello composto sia capace di sfruttare al meglio le diverse tecnologie sia di tipo learning sia simboliche, nate con l’AI. L’obiettivo finale è sfruttare al meglio i dati, più o meno strutturati, presenti in uno o in un insieme di data base federati.

L’uso dei dati richiede grande attenzione alla privacy e un approccio etico. Lo evidenzia Antonio Ballarin, Chief Artificial Intelligence Officer, Sogei le cui soluzioni, rivolte alla PA, utilizzano dati particolarmente sensibili. “Come Sogei interpretiamo l’AI come estensione della capacità cognitive umane, ossia nella sua versione debole che imita i comportamenti cognitivi umani. Se l’umano deve rispettare le leggi, le norme e le consuetudini, muovendosi in un ambito etico, lo stesso deve valere per l’AI”. Per garantire che l’AI si comporti come farebbe un uomo nelle stesse circostanze Sogei segue dunque due comportamenti:

  1. Adotta un sistema di etica formale che richiama il rispetto lungo tutta la catena produttiva dell’AI;
  2. Realizza test etici, sottoponendo le soluzioni create a casi limite per capire come si comporta il sistema.

Sostenibilità, ambientale e sociale

Oltre la sostenibilità ambientale, basata ad esempio su algoritmi appropriati per il risparmio energetico, si pone un tema di sostenibilità sociale, sollevato da Massimo Rosso, CIO Rai, a partire dall’esperienza nel mondo dei media. Qualunque sia il loro modello di business, generalmente basato su pubblicità e sottoscrizione, i media hanno, a suo parere, anche una responsabilità sulla diffusione dei contenuti che dovrebbero essere veri o verosimili.

Le piattaforme social tendono invece a confermare il sentiment degli utenti e a creare una polarizzazione che non aiuta il confronto, minando così la sostenibilità sociale. Oggi ha grande potere chi si situa sui connettori, chi può sviluppare intelligenza, prevedere, predire, condizionare i comportamenti dei singoli anche grazie alla disponibilità di strumenti come big data, analytics a AI.

Questo resta tema etico aperto che, come molti altri, non può essere risolto solo con il richiamo alla responsabilità individuale di coloro che svolgono il ruolo di calcolanti (come Rosso definisce chi vende e implementa tecnologie) ma al contempo appartiene, come tutti noi, al mondo dei calcolati. E infatti la Rai sta partecipando a un progetto per combattere la disinformazione, con approccio multidisciplinare che integra competenze tecnologiche e umanistiche.

Il tutto in attesa, con tempi purtroppo ancora tempi lunghi, della Machine ethics che renderebbe l’etica AI automatica, come prospettato da Adamo.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4