intelligenza artificiale

Perché il futuro dell’AI è dialogo, processi e responsabilità umana



Indirizzo copiato

L’intelligenza artificiale non cambierà solo i processi operativi, ma il modo in cui i processi vengono pensati. Attenzione al “bias dell’automazione”. Le considerazioni emerse in un convegno degli Osservatori Digital Innovation del Polimi

Pubblicato il 5 feb 2026



etica dell’ai zerouno

Mentre il mondo continua a discutere della potenza dei modelli di intelligenza artificiale, gli esperti del settore segnalano un cambio di paradigma fondamentale: la corsa alle performance pure potrebbe aver raggiunto un punto di svolta. Durante una tavola rotonda, ospitata dal Center for Digital Envisioning (Osservatori Digital Innovation PoliMi), è emersa una visione pragmatica che sposta l’attenzione dalla “potenza” del motore alla capacità di guidarlo. Non si tratta più solo di avere l’algoritmo migliore, ma di capire come dialogarci e, soprattutto, come governarne gli impatti sociali ed etici.

La fine della corsa ai modelli: verso la tecnologia agentica

Michele Grazioli, CEO e Founder di Vedrai (azienda italiana specializzata in decision intelliegence), è stato netto nell’analizzare lo stato dell’arte tecnologico. Secondo la sua visione, la competizione sullo sviluppo di nuovi modelli fondamentali sta cambiando natura. «La partita non si gioca più lì», ha affermato Grazioli, spiegando che «i modelli sono arrivati sostanzialmente a plateau». Sviluppare un modello nuovo ha costi esponenziali e, dato che i dati di addestramento sono sostanzialmente gli stessi, «il guadagno marginale è irrilevante».

Il vero salto evolutivo non è nell’algoritmo in sé, ma in quello che Grazioli definisce uno «switch dall’algoritmo puro… alla tecnologia agentica». Se le prime versioni di ChatGPT dipendevano totalmente dalla domanda dell’utente, i nuovi sistemi avranno la capacità di fare «challenge rispetto alla domanda», ovvero di sfidare e interpretare meglio l’intento prima di rispondere. Il futuro vedrà quindi «modelli sempre più rapidi e sempre più semplici da interpretare», applicati a casi d’uso con un valore unitario sempre più alto, dove la differenza la farà la capacità di interazione.

Cambiare il modo di pensare ai processi

Questa evoluzione tecnologica impone un ripensamento profondo delle dinamiche aziendali. Grazioli ha sottolineato che l‘AI non cambierà solo i processi operativi, ma «il modo in cui noi pensiamo ai processi». L’errore da evitare è usare l’AI come un semplice correttore di bozze («scrivimi meglio questa mail» non è il modo giusto di approcciare la tecnologia).

La vera rivoluzione sta nel passare dati che prima non venivano raccolti o considerati, e nell’usare la tecnologia per chiedersi se un processo ha ancora senso di esistere, piuttosto che limitarsi ad automatizzarlo. «Il rapporto uomo-macchina non è mai uomo contro tecnologia, ma è sempre uomo con la tecnologia», ha concluso Grazioli, ribadendo la centralità del metodo e dei dati per l’AI.

Il paradosso del benessere e l’etica dell’AI

Se la tecnologia evolve verso sistemi agentici e autonomi, il rischio è perdere di vista l’impatto sulle persone. Diletta Huyskes, ricercatrice e Co-CEO di Immanence (società benefit che si occupa di valutare gli impatti etici e giuridici di algoritmi AI) ha portato al centro del dibattito il tema della responsabilità. Huyskes ha evidenziato un «enorme paradosso»: mentre aumenta la complessità tecnica, «non necessariamente aumenta il benessere sociale». C’è il rischio concreto che l’innovazione si distacchi dai bisogni empirici dell’esistenza umana.

Un punto critico riguarda l’opacità dei sistemi. Con l’AI generativa e i dataset pre-addestrati, «non abbiamo appunto spesso nessuna visibilità» su ciò che c’è dentro. Questo alimenta quello che Huyskes chiama «bias dell’automazione»: la tendenza umana a fidarsi ciecamente del dato o della macchina, ignorando che quei dati potrebbero non rappresentare fedelmente la realtà o contenere pregiudizi.

Riprendere il controllo sull’innovazione intelligente

La soluzione proposta non è fermare l’innovazione, ma governarla attivamente. Huyskes suggerisce di guardare a cinque fattori chiave: «dati, informazioni, persone, infrastrutture, tecnologie e processi» per evitare l’inevitabilismo, ovvero l’idea che la tecnologia viaggi da sola su binari prestabiliti.

Come ha sintetizzato Luca Gastaldi (Responsabile Scientifico del Center for Digital Envisioning) in chiusura del panel: «l’importante è non mettere il pilota automatico». Dobbiamo essere noi gli «agenti di questa trasformazione», assicurandoci che l’evoluzione digitale rimanga ancorata ai bisogni reali delle persone e non diventi un meccanismo ingovernabile.

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati