Recentemente, presso gli spazi di Superstudio Più a Milano, si è tenuto il panel «Shape Your Future. Stay Human» all’interno dell’evento Dedapulse. L’incontro ha riunito tre figure centrali del panorama tecnologico per discutere l’evoluzione del digitale e l’impatto dell’intelligenza artificiale sulla società e sul tessuto imprenditoriale.
Che cos’è l’intelligenza artificiale?
L’intelligenza artificiale è la disciplina che studia la progettazione, lo sviluppo e la realizzazione di sistemi hardware e software dotati di capacità caratteristiche dell’uomo, come ragionamento, apprendimento, pianificazione e adattamento. Si tratta di un ramo della computer science che studia lo sviluppo di sistemi in grado di emulare le capacità cognitive umane, permettendo alle macchine di apprendere dall’esperienza, adattarsi a nuovi input e svolgere compiti che tradizionalmente richiedono l’intelligenza umana. L’AI non ha una definizione univoca e condivisa, poiché comprende un ampio spettro di discipline, dalla neurologia all’informatica, dalla neurobiologia alla matematica.
Quali sono le principali tecniche di apprendimento nell’intelligenza artificiale?
Le principali tecniche di apprendimento nell’intelligenza artificiale si suddividono in tre approcci fondamentali: l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo. Nell’apprendimento supervisionato, l’algoritmo viene addestrato su un dataset etichettato per prevedere output corretti. L’apprendimento non supervisionato lavora su dati non etichettati per scoprire pattern o strutture intrinseche. L’apprendimento per rinforzo permette a un agente di imparare a prendere decisioni interagendo con un ambiente e ricevendo feedback sotto forma di ricompense o penalità. A questi si aggiunge il deep learning, una sottocategoria del machine learning che utilizza reti neurali artificiali con molti strati per modellare ed estrarre caratteristiche complesse dai dati.
Come è nata e si è evoluta l’intelligenza artificiale nel corso della storia?
L’intelligenza artificiale ha radici che risalgono al XVII secolo, quando furono costruite le prime macchine in grado di effettuare calcoli automatici da Blaise Pascal e Gottfried Wilhelm von Leibniz. Tuttavia, è nel 1943 che la gestazione dell’AI si avvicina al termine con il lavoro del neurofisiologo Warren Sturgis McCulloch e del matematico Walter Harry Pitts, che teorizzarono come semplici neuroni potessero essere combinati per calcolare operazioni logiche elementari. La locuzione “intelligenza artificiale” venne utilizzata per la prima volta nel 1955 dai matematici e informatici John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, in preparazione della conferenza di Dartmouth del 1956, considerata la vera “sala parto” dell’intelligenza artificiale. Dopo un periodo di grandi aspettative (1950-1965), l’AI attraversò una fase di difficoltà negli anni ’60, per poi rinascere negli anni ’80 grazie agli studi di Jay McClelland e David Rumelhart sul connessionismo e le reti neurali. Oggi, l’evoluzione delle nanotecnologie e lo sviluppo di algoritmi sempre più sofisticati hanno portato a una nuova generazione di AI capace di apprendimento autonomo e analisi complesse.
Qual è la differenza tra intelligenza artificiale debole e intelligenza artificiale forte?
La differenza tra intelligenza artificiale debole (weak AI) e forte (strong AI) rappresenta una distinzione fondamentale nel campo dell’AI. L’intelligenza artificiale debole agisce e pensa simulando di essere intelligente, ma non lo è realmente. Essa risponde a problemi sulla base di regole conosciute, confrontando casi simili ed elaborando soluzioni razionali senza una vera comprensione. Si occupa essenzialmente di problem solving, simulando il comportamento umano senza comprendere totalmente i processi cognitivi. L’intelligenza artificiale forte, invece, possiede capacità cognitive non distinguibili da quelle umane. Include i “sistemi esperti” che riproducono prestazioni e conoscenze di persone esperte in un determinato ambito, utilizzando un motore inferenziale che, come la mente umana, passa da una proposizione assunta come vera a una seconda proposizione con logiche deduttive o induttive. La caratteristica distintiva di questi sistemi è l’analisi del linguaggio per comprenderne il significato, elemento essenziale per una vera intelligenza.
Quali sono le applicazioni pratiche dell’intelligenza artificiale nel mondo aziendale?
L’intelligenza artificiale trova numerose applicazioni pratiche nel mondo aziendale, trasformando processi e strategie. Nel settore finanziario, l’AI viene utilizzata per personalizzare tassi di interesse, rilevare frodi e migliorare i servizi finanziari attraverso l’analisi dei dati sulle abitudini di rimborso e altri comportamenti dei clienti. Nel marketing e nelle vendite, le tecnologie cognitive aiutano a ottenere una comprensione a 360 gradi dei clienti, prevedendo le loro esigenze e migliorando la loro esperienza, portando a un migliore ingaggio e strategie più efficaci. Nell’industria manifatturiera, l’AI viene implementata per la manutenzione predittiva, consentendo di prevedere guasti e anomalie prima che si verifichino, riducendo i tempi di inattività e migliorando l’efficienza operativa. Altre applicazioni includono l’automazione di processi, l’ottimizzazione della supply chain, il supporto decisionale basato sui dati e il miglioramento della sicurezza informatica.
Come funziona il machine learning e quale relazione ha con l’intelligenza artificiale?
Il machine learning è un sottogruppo dell’intelligenza artificiale che conferisce alle macchine la capacità di ricevere dati e modificare gli algoritmi man mano che acquisiscono più informazioni su ciò che stanno elaborando. Si tratta di sistemi di apprendimento automatico che permettono alle macchine di adattarsi e migliorarsi senza necessità di riprogrammazione da parte dell’uomo. Il machine learning automatizza la costruzione di modelli analitici, utilizzando reti neurali, modelli statistici e ricerche operative per trovare informazioni nascoste nei dati e rispondere a nuovi input esterni. Può essere implementato attraverso diversi approcci, come l’apprendimento supervisionato, non supervisionato e per rinforzo. Un esempio classico di machine learning è un sistema di visione artificiale capace di riconoscere oggetti ripresi da una videocamera: l’algoritmo distingue tra animali, persone e cose, memorizzando nuove situazioni che arricchiscono la sua conoscenza. Il machine learning rappresenta il metodo che “allena” l’AI, consentendole di sviluppare capacità sempre più sofisticate di analisi e decisione.
Quali sono le tecnologie hardware che supportano lo sviluppo dell’intelligenza artificiale?
Lo sviluppo dell’intelligenza artificiale è supportato da diverse tecnologie hardware avanzate. Le GPU (Graphic Processing Unit), originariamente create per elaborare informazioni grafiche nei videogiochi, sono diventate fondamentali per l’AI grazie alla loro capacità di eseguire calcoli in parallelo, a differenza delle CPU che lavorano in modo seriale. Le TPU (Tensor Processing Unit), sviluppate da Google, sono circuiti specificamente progettati per operazioni di machine learning ad alto carico di lavoro, in particolare per ridurre il tempo dedicato alla fase inferenziale. Le ReRAM (memorie resistive ad accesso casuale) possono immagazzinare fino a 1 terabyte di dati in chip delle dimensioni di un francobollo, sono non volatili e consumano pochissima energia, rendendole ideali per costruire reti neurali. I computer quantistici rappresentano un’altra frontiera, operando secondo la logica quantistica che consente calcoli esponenzialmente più potenti rispetto ai computer tradizionali. Infine, i chip neuromorfici simulano il funzionamento del cervello umano, utilizzando una logica di funzionamento analogica che si attiva in maniera differente a seconda del gradiente di segnale scambiato tra le unità.
Quali sono i principali rischi e sfide etiche legati all’intelligenza artificiale?
L’intelligenza artificiale presenta numerosi rischi e sfide etiche che devono essere attentamente considerati. Tra questi, la sicurezza informatica è particolarmente critica: l’AI può essere utilizzata per creare attacchi più sofisticati, come il phishing personalizzato o la manipolazione di sistemi di sicurezza, e le stesse tecnologie AI possono essere vulnerabili ad attacchi che compromettono la loro integrità. Un altro rischio significativo è rappresentato dalle allucinazioni, ovvero la generazione di risposte false o imprecise presentate come fatti plausibili, che possono avere conseguenze gravi in settori come la sanità o la finanza. Vi sono poi preoccupazioni riguardo alla privacy dei dati, alla possibilità di bias e discriminazione nei sistemi AI, e all’impatto sull’occupazione. Questioni etiche emergono anche nel contesto delle auto autonome, come evidenziato dall’esperimento “The Moral Machine” che ha esplorato le scelte morali che un’auto a guida autonoma dovrebbe compiere in situazioni di emergenza, rivelando differenze culturali significative nelle preferenze etiche.
Come sta cambiando il ruolo del CIO con l’avvento dell’intelligenza artificiale?
Il ruolo del Chief Information Officer (CIO) sta subendo una profonda trasformazione con l’avvento dell’intelligenza artificiale. I CIO sono passati da gestori di sistemi IT a leader strategici che guidano l’innovazione e la trasformazione digitale all’interno delle loro organizzazioni. Sono ora responsabili di sviluppare strategie per integrare efficacemente l’AI nei processi aziendali, ottimizzando operazioni e riducendo costi attraverso l’automazione e l’analisi dei dati. I CIO devono garantire che i dati aziendali siano gestiti in modo sicuro e conforme alle normative sulla privacy, mentre implementano soluzioni AI che possono aiutare a identificare e mitigare le minacce alla sicurezza informatica. Devono anche pianificare e facilitare la formazione e lo sviluppo delle competenze necessarie per preparare il personale a lavorare con le tecnologie AI. La loro responsabilità si estende alla valutazione e alla scelta delle giuste piattaforme e infrastrutture per supportare soluzioni AI, considerando aspetti come scalabilità, interoperabilità e costi. Il CIO moderno deve gestire il cambiamento organizzativo che l’introduzione dell’AI comporta, affrontando le preoccupazioni dei dipendenti e promuovendo una cultura aziendale orientata all’innovazione.
Qual è la differenza tra intelligenza artificiale e intelligenza umana?
La differenza fondamentale tra intelligenza artificiale e intelligenza umana risiede nella capacità di creare valore in un sistema aperto e infinito. Mentre l’intelligenza artificiale opera in un sistema chiuso di valori già definiti, l’intelligenza umana si confronta con l’esperienza e con l’infinita variabilità del mondo. L’AI utilizza algoritmi basati sulle probabilità che possono intercettare il rapporto causa/effetto senza realmente comprenderlo, trasformando l’informazione in conoscenza attraverso modelli matematici. Al contrario, l’intelligenza umana è in grado di utilizzare l’invenzione e la fantasia per osservare il mondo in modi nuovi e inaspettati, esplorando possibilità che le macchine, con i loro algoritmi predefiniti, non possono concepire. Il linguaggio naturale utilizzato dalle macchine è efficiente nel trattare grandi volumi di dati, ma manca della profondità semantica e della capacità di innovare che caratterizza il linguaggio umano. Mentre l’AI può facilitare e ottimizzare molti aspetti della nostra vita, è l’intelligenza umana che mantiene la chiave dell’innovazione dirompente, capace di vedere oltre l’ovvio e di creare valore in modi che sfidano le convenzioni.













