Come sviluppare un progetto di AI tra esperimenti e best practice

pittogramma Zerouno

Prospettive

Come sviluppare un progetto di AI tra esperimenti e best practice

Dalla competenza di dominio, portata da chi lavora sul campo, nella progettazione dei sistemi di intelligenza artificiale, alla cura del dato quanto più vicino alla sorgente; dall’importanza di padroneggiare, e talvolta internalizzare, la conoscenza delle tecnologie, alla governance nell’analisi degli algoritmi. Sono solo alcuni degli spunti emersi durante il panel “Come sviluppare un progetto di AI” che ha messo attorno a un tavolo 4 esperienze di aziende in occasione della presentazione dei risultati della terza edizione dell’Osservatorio Artificial Intelligence del Politecnico di Milano

15 Mag 2020

di Carmelo Greco

Sviluppare un progetto di AI intelligenza artificiale richiede una serie di attività che, a partire dalla seconda edizione dell’Osservatorio Artificial Intelligence del Politecnico di Milano, sono state sintetizzate in un framework denominato “AI Project Value Chain”.

Il modello, approfondito grazie al contributo di numerose organizzazioni che hanno partecipato a un’apposita survey in occasione della terza edizione, è stato la base di partenza per invitare 4 aziende a condividere la loro esperienza in veste di partner e system integrator o di imprese con competenze AI interne. Cosa che hanno fatto durante la tavola rotonda dal titolo Come sviluppare un progetto di AI, uno dei vari panel organizzati durante la giornata di presentazione dei risultati della terza edizione dell’Osservatorio.

Oltre PoC e data science, la competenza di dominio in un progetto di AI

Secondo Giulia Baccarin, Co-Founder di Mipu, il valore in un processo di creazione dell’intelligenza artificiale deve fondarsi su 3 caratteristiche riconducibili all’AI, che “va considerata buona se riesce a essere predittiva, cognitiva e interattiva”. Per spiegarlo, l’imprenditrice ha portato all’attenzione della platea il caso, seguito dalla sua società, di Edison: “Tradizionalmente, la previsione della produttività degli aerogeneratori è basata su modelli statistici geospaziali. Ma se in un progetto di AI voglio migliorare l’accuratezza della predizione, devo inserire anche le informazioni circa lo stato di saluto dell’aerogeneratore. Spesso sono informazioni insite in chi lavora sulla manutenzione, cioè l’operatore di campo. In altre parole, non è soltanto l’intelligenza artificiale che aiuta la manutenzione a essere più performante, ma siamo anche noi essere umani che con le nostre competenze possiamo arricchirla”. L’esperienza di queste persone, a detta di Giulia Baccarin, deve confluire negli algoritmi, perché “spesso, quando parliamo di intelligenza artificiale, parliamo di proof of concept, data science, IT. Parliamo ancora troppo poco di competenza di dominio”.

foto Giulia Baccarin
Giulia Baccarin, Co-Founder di Mipu

L’“infobesità” che non aiuta l’intelligenza artificiale

Portare sul campo algoritmi di machine learning, per quanto costruiti su dataset ben strutturati, è la vera sfida da affrontare, in particolare nel settore in cui opera una realtà come Mipu. “Noi lavoriamo soprattutto nel mondo della fabbrica: processi produttivi, manutenzione ed energia. In questo mondo – ha sottolineato Baccarin – ci sono tre ordini di problemi quando si parla di dati: il primo è la presunzione di sovrabbondanza del dato. A seguito della diffusione dell’IoT e forse del decreto legge 102 del 2014 sull’efficienza energetica, abbiamo sensorizzato tutto e ci troviamo in una sorta di ‘infobesità’. Abbiamo una marea di dati che non sono sempre così buoni come pensiamo”. A questo si aggiunge che “nel mondo della fabbrica i dati sono sporchi”. Il che rende necessario “curare il dato il più vicino possibile alla sorgente, prima di fare data versioning e di immetterlo nell’intelligenza”. Infine, è importante avere una chiara strategia per capire “che cosa lascio in edge e che cosa porto in cloud”.

BTicino e l’esigenza di internalizzare la conoscenza

Se Mipu non ha ancora compiuto 10 anni, quella della BTicino è una storia che risale al 1936, sebbene sul tema dell’AI la prima potrebbe risultare più “anziana” rispetto alla seconda. È lo stesso Lorenzo Pini, Innovation Manager della nota azienda produttrice di apparecchiature elettriche, ad anticipare nel suo intervento le possibili obiezioni sul legame tra placche, interruttori e intelligenza artificiale: “Abbiamo delle famiglie di prodotto che si sposano con la smart home e quindi con l’AI” ha esordito, per poi illustrare l’itinerario che ha spinto la BTicino ad avere una risorsa interna dedicata allo sviluppo di progetti di intelligenza artificiale. “Avevamo avviato un pilota che, usando tecniche di computer vision applicate al nostro citofono, lo rendesse ancora più smart”. L’esito non è stato positivo. “Il pilota in un certo senso si è arenato, perché l’azienda selezionata, veramente preparata, e noi, esperti in software, non comunicavamo bene, non parlavamo la stessa lingua. Questo piccolo fallimento ci ha riportato su uno dei mantra della nostra azienda: quando una tecnologia, per quanto emergente, viene ritenuta un asset per sviluppare nuovi prodotti, bisogna internalizzare la conoscenza”.

La variante della suocera, cioè la governance dell’algortimo

LIVE STREAMING 11 GIUGNO
Security Intelligence: investire in sicurezza per prevenire i rischi
Intelligenza Artificiale
Sicurezza

Dopo aver reclutato una figura che seguisse i progetti di AI in BTicino, Lorenzo Pini ha raccontato come si sono evolute alcune sperimentazioni, specialmente quelle riguardanti l’integrazione della domotica con assistenti vocali come Alexa: “Sfruttando gli algoritmi di pattern recognition presenti in letteratura, volevamo anche cercare di capire che cosa succedeva dentro una casa. Per ragioni di privacy, abbiamo analizzato casa mia così da conoscere il risultato dell’algoritmo e confrontarlo con le abitudini di chi ci viveva”. Ciò che è emerso, a parere dell’Innovation Manager, è che gli algoritmi “funzionano bene con un singolo, una coppia molto routinaria”, ma aprono per il resto un tema di “governance fra l’algoritmo e chi deve saperlo analizzare per renderlo efficiente.” La scoperta è arrivata proprio dall’analisi dell’esperto assunto in BTicino che aveva rilevato delle “perturbazioni” impreviste un paio di giorni a settimana. Poiché nelle giornate prese in esame non ci sarebbe dovuto essere nessuno in casa, il fatto che si trattasse della suocera, che veniva a fare i lavori domestici, era stato possibile appurarlo solo ricorrendo al fattore umano.

foto Lorenzo Pini alla tavola rotonda su come sviluppare un progetto di AI
Lorenzo Pini, Innovation Manager BTicino durante l’Osservatorio Artificial Intelligence, Milano 20 febbraio 2020

L’innovation cross, open e as a service nel progetto di AI di Acea

Il contributo di Luisa Marotta, Innovation Specialist di Acea, si è concentrato nel ripercorrere le tappe che hanno visto la multiutilty romana dare vita a diverse iniziative sull’AI dopo che, nel 2018, è stata istituita l’unità di Innovation “con lo scopo di fare innovazione cross e open, non solo verticale”. Seguendo il motto “Innovation as a service”, la Business Unit si è messa al servizio del gruppo e dei vari innovation need, in particolare facendo “scouting e attività di procurement per facilitare l’ingaggio di startup innovative”. Il primo progetto di open innovation promosso in ambito artificial intelligence è stato l’Acea challenge prize all’interno del quale sono state invitate 10 startup per supportare l’azienda nello sviluppo di dashboard predittive destinate al top management. L’attività non si limita al reperimento di competenze esterne, ma abbraccia anche il potenziamento di quelle interne. “Abbiamo creato una digital school – ha detto Luisa Marotta – per individuare in azienda persone che già lavorano come data analiyst nelle diverse anime del gruppo e, quindi, che si occupano di business intelligence tradizionale. La scuola serve a imparare skill tecniche che permettano di diventare data scientist e di programmare con linguaggi diversi”.

foto Luisa Marotta
Luisa Marotta, Innovation Specialist di Acea

L’importanza della cultura trasversale sul dato

Lo sforzo di Acea sul versante della cross e open innovation punta anche a diffondere una cultura trasversale a tutta la multiutility “per incominciare a parlare di questi temi in azienda in diverso modo”. Uno degli esempi a tal proposito è rappresentato dagli incontri informali a cui aderiscono circa 50 dipendenti che provengono da tutte le aree del gruppo: “Un anno fa abbiamo lanciato questa community interna che si ritrova mensilmente per dei meet up in pausa pranzo. Sono delle occasioni di confronto che ci permettono di raccogliere le best practice. Magari c’è un pilota di machine learning nell’elettrico che può tornare utile all’idrico o ai servizi ambientali”. Sulla cultura, e specialmente su quella del dato in ambito AI, secondo l’Innovation Specialist si gioca la vera difficoltà nei progetti. “Sviluppiamo algoritmi fantastici, poi però continuiamo ad alimentarli con i file Excel. Vuol dire che c’è ancora tanto lavoro da fare sulle persone e sulla cultura”.

Le fasi del processo di sviluppo di Data Reply

A chiudere il panel è stata invitata Antonella Crea, Manager di Data Reply, che ha parlato delle 4 fasi del processo di sviluppo di un progetto AI previste dalla sua azienda: “La prima fase è quella del riconoscimento dei bisogni e del valore che deve venire fuori”. Una fase cruciale, che richiede fin da subito il coinvolgimento degli utenti finali che andranno poi a utilizzare l’intelligenza artificiale, proprio perché permane una scarsa sicurezza nell’adozione di soluzioni AI. “Successivamente lavoriamo a stretto contatto con l’IT. Per fortuna, all’interno delle aziende sempre più spesso si vanno a creare dei gruppi di data scientist e data engineer che ci danno grande supporto soprattutto nella fase iniziale della preparazione del dato, quella dell’etichettamento che porta via più tempo nello sviluppo di questi progetti”. Tra le tecnologie oggi più diffuse rientra Python, uno dei linguaggi che va per la maggiore, insieme a R, utilizzato spesso per lo sviluppo di algoritmi che si riferiscono al mondo del machine learning.

foto Antonella Crea
Antonella Crea, Manager di Data Reply

Valore aggiunto e know-how: le 2 direzioni finali di un progetto di AI

“Dopo l’analisi del dato e la costruzione del data model – ha continuato Antonella Crea – passiamo all’insight per capire ciò che il nostro algoritmo sta producendo. La parte di insight ci è utile anche per lavorare nelle due direzioni dello step finale”. Così come quello iniziale, infatti, questa fase non è meno cruciale, perché determina “come mettere all’interno del business dell’azienda ciò che è stato effettivamente prodotto. Uno dei problemi che spesso incontriamo è che tutto nasce con una forma di prototipizzazione, ma la percentuale di quanto poi viene messo effettivamente in produzione è molto bassa”. Da qui la diramazione del progetto di AI su due fronti: “Lato business, portiamo in evidenza agli sponsor qual è effettivamente il valore aggiunto che viene fuori dall’applicazione; lato IT, andiamo a trasferire il know-how all’interno dell’azienda perché come consulenti, come system integrator ci viene richiesto di fare formazione e di rimettere in circolo il know-how che è stato generato”.

Carmelo Greco

Giornalista

Giornalista professionista, si occupa come freelance e formatore di temi connessi all'innovazione digitale e alle trasformazioni del mercato del lavoro. Collabora alla collana “La bellezza dell'impresa” edita da Rubbettino ed è autore di opere teatrali e di narrativa.

Argomenti trattati

Approfondimenti

I
Intelligenza Artificiale
Come sviluppare un progetto di AI tra esperimenti e best practice

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 3