Durante un recente evento organizzato a Milano da Dedapulse, Davide Dattoli, Founder ed Executive Chairman di Talent Garden, ha esplorato l’impatto reale dell’AI nel mondo del lavoro.
L’analisi del manager parte da una secca smentita di quella che è una paura diffusa: l’idea che la tecnologia sia destinata esclusivamente a sostituire l’uomo. Secondo Dattoli, la definizione più corretta per descrivere questo momento storico è quella di esoscheletro.
Come spiegato dal fondatore di Talent Garden, l’esoscheletro è uno strumento che permette di sollevare pesi fisici decuplicando la forza umana o di correre con una velocità superiore al normale.
Nel contesto cognitivo, l’intelligenza artificiale agisce nello stesso modo. «L’immagine dell’AI, secondo me, è esattamente la stessa, ovvero la possibilità di fare 10 volte di più, 20 volte di più» afferma Dattoli.
Sebbene le stime americane possano apparire talvolta enfatizzate, la realtà è che la capacità di efficientamento individuale è diventata enorme.
Tuttavia, questa accelerazione porta con sé anche un rischio di omologazione. Se ogni professionista e ogni azienda hanno accesso alla medesima potenza di calcolo e alla stessa mole di dati, la differenza competitiva rischia di livellarsi. Il valore aggiunto, quindi, non risiede più nel possesso dello strumento, ma nella capacità di indirizzarlo.
Indice degli argomenti
Il primato della domanda sulla risposta
In un’epoca in cui le macchine sono in grado di fornire risposte a quasi ogni quesito in pochi secondi, il fulcro delle competenze si sposta verso la formulazione dei problemi. Dattoli sottolinea che saper porre le giuste domande è ciò che storicamente ha determinato il successo dei grandi innovatori, da Newton a Carlo Magno.
Questa capacità di interrogare la realtà è alimentata dalla curiosità, un elemento che prescinde dalla tecnologia ma che agisce come il vero acceleratore delle prestazioni umane. Paradossalmente, nonostante l’accesso senza precedenti ai contenuti, la società odierna rischia un rallentamento nell’apprendimento reale a causa del bombardamento informativo dei social media e dell’advertising, che tendono ad annichilire la profondità del ragionamento individuale.
La sfida nel binomio tra AI e lavoro consiste, quindi, nel recuperare una dimensione di pensiero profondo. «Che cos’è che fa davvero la differenza? Il riuscire a chiedere le cose giuste, l’impostare le cose giuste, il riuscire a fare un ragionamento profondo a livello individuale e personale per fa sì che poi lo strumento che abilita e accelera riesca ad accelerare quello stesso processo» spiega Dattoli.
La fine del modello formativo lineare e il reskilling degli over 50
Il mercato occupazionale sta affrontando una trasformazione strutturale che rende obsoleto il tradizionale modello educativo “ottocentesco”, basato su una fase di studio intensivo fino ai 25 anni seguita da una carriera di pura gestione. I dati del World Economic Forum, citati dalla moderatrice, la giornalista Eleonora Chioda, indicano che entro cinque anni il 39% delle competenze attuali sarà considerato obsoleto.
Questa accelerazione colpisce trasversalmente tutte le generazioni. Se da un lato si registra una contrazione nelle assunzioni dei giovanissimi a livello globale a causa dell’impatto dell’AI, dall’altro emerge la necessità impellente di reinserire i profili senior.
Un esperimento sociale e di business condotto da Talent Garden ha dimostrato che è possibile formare persone over 50, rimaste fuori dal mercato per anni e provenienti da settori non tecnologici come il retail o il bancario, trasformandole in esperti di data science in soli quattro mesi.
Il successo di questa iniziativa, che ha visto il 70% dei partecipanti trovare una nuova occupazione , conferma che il digitale non ha età. La chiave del reinserimento è stata la capacità di queste persone di unire la profonda conoscenza dei processi aziendali alle nuove competenze tecniche.
Come osserva Dattoli, la sfida più grande dei prossimi tre-cinque anni sarà proprio costruire un’inclusione sociale che impedisca la creazione di un problema occupazionale di massa.
L’evoluzione delle competenze aziendali
I dati sulla trasformazione del lavoro evidenziano alcune urgenze per le organizzazioni:
- L’obsolescenza del 39% delle skill professionali entro un quinquennio.
- La necessità di percorsi di upskilling e reskilling che non siano episodici ma continui.
- La transizione da un modello di leadership basato sulla sola gestione a uno basato sul “maker”, dove il leader deve saper anche “fare” e mettere a terra le idee.
La convergenza tra HR e IT nelle organizzazioni moderne
Un cambiamento radicale sta interessando la struttura stessa delle aziende. Per decenni la formazione è stata considerata un’attività marginale, spesso legata a residui di budget. Oggi, invece, sta diventando il motore principale della trasformazione industriale. Alcune aziende stanno iniziando a unificare le direzioni delle risorse umane (HR) e dell‘IT sotto un’unica guida.
Questa fusione nasce dalla consapevolezza che l’organigramma del futuro non sarà composto solo da esseri umani, ma da un ecosistema integrato. «La verità è che l’organigramma del futuro avrà persone e agenti AI tutti in una stessa dimensione, dove tu vedrai che gestisci 10 persone e 4 agenti, o 40 agenti» prevede Dattoli. L’innovazione non può più essere delegata a un singolo ufficio isolato, ma deve diventare un processo diffuso che unisce apprendimento e sviluppo.
Verso un’integrazione tra uomo e robotica
Il rapporto tra AI e lavoro si sta spostando anche sul piano fisico. Mentre l’ecosistema americano guida lo sviluppo dei modelli linguistici (LLM), la Cina, in particolare a Shenzhen, sta accelerando sull’applicazione dell’intelligenza artificiale alla robotica antropomorfa. Dattoli riporta l’esempio di robot capaci di analizzare la porosità e la durezza di un fiammifero tramite l’AI e di accenderlo senza romperlo.
Questa rivoluzione rappresenta un’opportunità strategica per l’Italia, un Paese a forte trazione manifatturiera. Se le aziende italiane riusciranno a integrare l’intelligenza artificiale nei processi produttivi concreti, potranno innovare profondamente il loro modo di lavorare. Al contrario, ignorare questa ondata significherebbe limitarsi a subirne passivamente le conseguenze economiche.
Il cambiamento culturale come prerequisito tecnologico
In ultima analisi, la transizione verso una società aumentata dall’intelligenza artificiale non è un problema puramente tecnico. La tecnologia muta con una frequenza settimanale, rendendo impossibile una rincorsa basata solo sulle nozioni.
La vera variabile critica rimane l’essere umano e la sua predisposizione al cambiamento culturale. Per evitare che l’AI rimanga uno strumento d’élite relegato a pochi esperti, è necessario diffondere una cultura della curiosità all’interno di ogni livello dell’organizzazione.
Questo richiede un investimento diretto sulle persone e la capacità di offrire loro non solo gli strumenti, ma la consapevolezza necessaria per modificare i propri flussi di lavoro, come il passaggio dalla scrittura manuale alla dettatura tramite interfacce vocali avanzate. «La sfida è sempre nelle persone, nella loro capacità di riuscire a implementare il cambiamento» conclude Dattoli, ribadendo che la formazione è l’unico strumento per costruire un futuro in cui l’uomo resti al centro del progresso tecnologico.
Che cos’è l’intelligenza artificiale?
L’intelligenza artificiale è la disciplina che studia la progettazione, lo sviluppo e la realizzazione di sistemi hardware e software dotati di capacità caratteristiche dell’uomo, come ragionamento, apprendimento, pianificazione e adattamento. Si tratta di un ramo della computer science che studia lo sviluppo di sistemi in grado di emulare le capacità cognitive umane, permettendo alle macchine di apprendere dall’esperienza, adattarsi a nuovi input e svolgere compiti che tradizionalmente richiedono l’intelligenza umana. L’AI non ha una definizione univoca e condivisa, poiché comprende un ampio spettro di discipline, dalla neurologia all’informatica, dalla neurobiologia alla matematica.
Quali sono le principali tecniche di apprendimento nell’intelligenza artificiale?
Le principali tecniche di apprendimento nell’intelligenza artificiale si suddividono in tre approcci fondamentali: l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo. Nell’apprendimento supervisionato, l’algoritmo viene addestrato su un dataset etichettato per prevedere output corretti. L’apprendimento non supervisionato lavora su dati non etichettati per scoprire pattern o strutture intrinseche. L’apprendimento per rinforzo permette a un agente di imparare a prendere decisioni interagendo con un ambiente e ricevendo feedback sotto forma di ricompense o penalità. A questi si aggiunge il deep learning, una sottocategoria del machine learning che utilizza reti neurali artificiali con molti strati per modellare ed estrarre caratteristiche complesse dai dati.
Come è nata e si è evoluta l’intelligenza artificiale nel corso della storia?
L’intelligenza artificiale ha radici che risalgono al XVII secolo, quando furono costruite le prime macchine in grado di effettuare calcoli automatici da Blaise Pascal e Gottfried Wilhelm von Leibniz. Tuttavia, è nel 1943 che la gestazione dell’AI si avvicina al termine con il lavoro del neurofisiologo Warren Sturgis McCulloch e del matematico Walter Harry Pitts, che teorizzarono come semplici neuroni potessero essere combinati per calcolare operazioni logiche elementari. La locuzione “intelligenza artificiale” venne utilizzata per la prima volta nel 1955 dai matematici e informatici John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, in preparazione della conferenza di Dartmouth del 1956, considerata la vera “sala parto” dell’intelligenza artificiale. Dopo un periodo di grandi aspettative (1950-1965), l’AI attraversò una fase di difficoltà negli anni ’60, per poi rinascere negli anni ’80 grazie agli studi di Jay McClelland e David Rumelhart sul connessionismo e le reti neurali. Oggi, l’evoluzione delle nanotecnologie e lo sviluppo di algoritmi sempre più sofisticati hanno portato a una nuova generazione di AI capace di apprendimento autonomo e analisi complesse.
Qual è la differenza tra intelligenza artificiale debole e intelligenza artificiale forte?
La differenza tra intelligenza artificiale debole (weak AI) e forte (strong AI) rappresenta una distinzione fondamentale nel campo dell’AI. L’intelligenza artificiale debole agisce e pensa simulando di essere intelligente, ma non lo è realmente. Essa risponde a problemi sulla base di regole conosciute, confrontando casi simili ed elaborando soluzioni razionali senza una vera comprensione. Si occupa essenzialmente di problem solving, simulando il comportamento umano senza comprendere totalmente i processi cognitivi. L’intelligenza artificiale forte, invece, possiede capacità cognitive non distinguibili da quelle umane. Include i “sistemi esperti” che riproducono prestazioni e conoscenze di persone esperte in un determinato ambito, utilizzando un motore inferenziale che, come la mente umana, passa da una proposizione assunta come vera a una seconda proposizione con logiche deduttive o induttive. La caratteristica distintiva di questi sistemi è l’analisi del linguaggio per comprenderne il significato, elemento essenziale per una vera intelligenza.
Quali sono le applicazioni pratiche dell’intelligenza artificiale nel mondo aziendale?
L’intelligenza artificiale trova numerose applicazioni pratiche nel mondo aziendale, trasformando processi e strategie. Nel settore finanziario, l’AI viene utilizzata per personalizzare tassi di interesse, rilevare frodi e migliorare i servizi finanziari attraverso l’analisi dei dati sulle abitudini di rimborso e altri comportamenti dei clienti. Nel marketing e nelle vendite, le tecnologie cognitive aiutano a ottenere una comprensione a 360 gradi dei clienti, prevedendo le loro esigenze e migliorando la loro esperienza, portando a un migliore ingaggio e strategie più efficaci. Nell’industria manifatturiera, l’AI viene implementata per la manutenzione predittiva, consentendo di prevedere guasti e anomalie prima che si verifichino, riducendo i tempi di inattività e migliorando l’efficienza operativa. Altre applicazioni includono l’automazione di processi, l’ottimizzazione della supply chain, il supporto decisionale basato sui dati e il miglioramento della sicurezza informatica.
Come funziona il machine learning e quale relazione ha con l’intelligenza artificiale?
Il machine learning è un sottogruppo dell’intelligenza artificiale che conferisce alle macchine la capacità di ricevere dati e modificare gli algoritmi man mano che acquisiscono più informazioni su ciò che stanno elaborando. Si tratta di sistemi di apprendimento automatico che permettono alle macchine di adattarsi e migliorarsi senza necessità di riprogrammazione da parte dell’uomo. Il machine learning automatizza la costruzione di modelli analitici, utilizzando reti neurali, modelli statistici e ricerche operative per trovare informazioni nascoste nei dati e rispondere a nuovi input esterni. Può essere implementato attraverso diversi approcci, come l’apprendimento supervisionato, non supervisionato e per rinforzo. Un esempio classico di machine learning è un sistema di visione artificiale capace di riconoscere oggetti ripresi da una videocamera: l’algoritmo distingue tra animali, persone e cose, memorizzando nuove situazioni che arricchiscono la sua conoscenza. Il machine learning rappresenta il metodo che “allena” l’AI, consentendole di sviluppare capacità sempre più sofisticate di analisi e decisione.
Quali sono le tecnologie hardware che supportano lo sviluppo dell’intelligenza artificiale?
Lo sviluppo dell’intelligenza artificiale è supportato da diverse tecnologie hardware avanzate. Le GPU (Graphic Processing Unit), originariamente create per elaborare informazioni grafiche nei videogiochi, sono diventate fondamentali per l’AI grazie alla loro capacità di eseguire calcoli in parallelo, a differenza delle CPU che lavorano in modo seriale. Le TPU (Tensor Processing Unit), sviluppate da Google, sono circuiti specificamente progettati per operazioni di machine learning ad alto carico di lavoro, in particolare per ridurre il tempo dedicato alla fase inferenziale. Le ReRAM (memorie resistive ad accesso casuale) possono immagazzinare fino a 1 terabyte di dati in chip delle dimensioni di un francobollo, sono non volatili e consumano pochissima energia, rendendole ideali per costruire reti neurali. I computer quantistici rappresentano un’altra frontiera, operando secondo la logica quantistica che consente calcoli esponenzialmente più potenti rispetto ai computer tradizionali. Infine, i chip neuromorfici simulano il funzionamento del cervello umano, utilizzando una logica di funzionamento analogica che si attiva in maniera differente a seconda del gradiente di segnale scambiato tra le unità.
Quali sono i principali rischi e sfide etiche legati all’intelligenza artificiale?
L’intelligenza artificiale presenta numerosi rischi e sfide etiche che devono essere attentamente considerati. Tra questi, la sicurezza informatica è particolarmente critica: l’AI può essere utilizzata per creare attacchi più sofisticati, come il phishing personalizzato o la manipolazione di sistemi di sicurezza, e le stesse tecnologie AI possono essere vulnerabili ad attacchi che compromettono la loro integrità. Un altro rischio significativo è rappresentato dalle allucinazioni, ovvero la generazione di risposte false o imprecise presentate come fatti plausibili, che possono avere conseguenze gravi in settori come la sanità o la finanza. Vi sono poi preoccupazioni riguardo alla privacy dei dati, alla possibilità di bias e discriminazione nei sistemi AI, e all’impatto sull’occupazione. Questioni etiche emergono anche nel contesto delle auto autonome, come evidenziato dall’esperimento “The Moral Machine” che ha esplorato le scelte morali che un’auto a guida autonoma dovrebbe compiere in situazioni di emergenza, rivelando differenze culturali significative nelle preferenze etiche.
Come sta cambiando il ruolo del CIO con l’avvento dell’intelligenza artificiale?
Il ruolo del Chief Information Officer (CIO) sta subendo una profonda trasformazione con l’avvento dell’intelligenza artificiale. I CIO sono passati da gestori di sistemi IT a leader strategici che guidano l’innovazione e la trasformazione digitale all’interno delle loro organizzazioni. Sono ora responsabili di sviluppare strategie per integrare efficacemente l’AI nei processi aziendali, ottimizzando operazioni e riducendo costi attraverso l’automazione e l’analisi dei dati. I CIO devono garantire che i dati aziendali siano gestiti in modo sicuro e conforme alle normative sulla privacy, mentre implementano soluzioni AI che possono aiutare a identificare e mitigare le minacce alla sicurezza informatica. Devono anche pianificare e facilitare la formazione e lo sviluppo delle competenze necessarie per preparare il personale a lavorare con le tecnologie AI. La loro responsabilità si estende alla valutazione e alla scelta delle giuste piattaforme e infrastrutture per supportare soluzioni AI, considerando aspetti come scalabilità, interoperabilità e costi. Il CIO moderno deve gestire il cambiamento organizzativo che l’introduzione dell’AI comporta, affrontando le preoccupazioni dei dipendenti e promuovendo una cultura aziendale orientata all’innovazione.
Qual è la differenza tra intelligenza artificiale e intelligenza umana?
La differenza fondamentale tra intelligenza artificiale e intelligenza umana risiede nella capacità di creare valore in un sistema aperto e infinito. Mentre l’intelligenza artificiale opera in un sistema chiuso di valori già definiti, l’intelligenza umana si confronta con l’esperienza e con l’infinita variabilità del mondo. L’AI utilizza algoritmi basati sulle probabilità che possono intercettare il rapporto causa/effetto senza realmente comprenderlo, trasformando l’informazione in conoscenza attraverso modelli matematici. Al contrario, l’intelligenza umana è in grado di utilizzare l’invenzione e la fantasia per osservare il mondo in modi nuovi e inaspettati, esplorando possibilità che le macchine, con i loro algoritmi predefiniti, non possono concepire. Il linguaggio naturale utilizzato dalle macchine è efficiente nel trattare grandi volumi di dati, ma manca della profondità semantica e della capacità di innovare che caratterizza il linguaggio umano. Mentre l’AI può facilitare e ottimizzare molti aspetti della nostra vita, è l’intelligenza umana che mantiene la chiave dell’innovazione dirompente, capace di vedere oltre l’ovvio e di creare valore in modi che sfidano le convenzioni.














