INTELLIGENZA ARTIFICIALE

Coding con l’AI: quale futuro per lo sviluppo software secondo i CIO



Indirizzo copiato

La GenAI farà sparire il lavoro dei programmatori? Per direttori IT ed esperti siamo lontani da questo rischio e la visione comune è che occorra garantire il controllo umano. Vince il modello ibrido ma cambiano i ruoli professionali

Pubblicato il 20 mar 2026



coding con ai simbolo

Negli ultimi due anni l’intelligenza artificiale generativa ha introdotto profonde trasformazioni anche nel modo in cui viene sviluppato il software. Molti CIO stanno usando la GenAI per il coding e il risultato è, spesso, soddisfacente. È la fine dei team di sviluppo e delle software house?

Sono gli stessi CIO a rispondere “assolutamente no”. Come ci ha detto Massimo Carboni, Vicedirettore e Chief Technical Officer, Head Infrastructure Department del GARR, la rete nazionale per istruzione, ricerca e cultura.

«Se si vuole usare l’AI per specifiche funzioni dei sistemi e ridurre così i tempi di rilascio dei prototipi e della validazione, nessun problema. Anzi, ben venga. Già da tempo lo sviluppo del codice si è alleggerito in ragione dell’adozione del modello a microservizi supportato da un approccio low-code no-code e di una forte logica di disaccoppiamento tra le parti. Questa evoluzione ha permesso anche a realtà come GARR di modernizzare l’infrastruttura tecnologica rendendola avanzata, con servizi innovativi e su larga scala, pur con un numero ridotto di risorse nell’IT. Tuttavia, l’idea che si possa arrivare a superare la questione stessa dello sviluppo software rischia di illudere i decisori aziendali, che si ritroveranno ad avere tecnologie che non conoscono veramente e di cui non comprendono i rischi di sicurezza e i livelli di sostenibilità nel lungo periodo».

E, come puntualizza Alessandro Franchi, IT Manager di La Maddalena, realtà che produce strumenti di misura dell’acqua e dell’energia termica, «l’intelligenza artificiale sta cambiando rapidamente anche il modo di sviluppare software, ma credo sia importante partire da una premessa chiara, ovvero che l’AI è prima di tutto uno strumento».

Infatti, uno dei punti cruciali nel dibattito sull’intelligenza artificiale riguarda il significato stesso di coding. Che non coincide con lo sviluppo software: una ricerca del MIT Computer Science and Artificial Intelligence Laboratory conferma che la generazione automatica del codice rappresenta solo una parte limitata del lavoro degli sviluppatori. Soprattutto, la programmazione non è solo digitare istruzioni: è risolvere problemi complessi.

AI per il coding: il rischio (concreto) di disintermediare l’IT

La questione dello sviluppo è stata di recente sottolineata da Alfonso Fuggetta, Professore Ordinario di Informatica al Politecnico di Milano, in un articolo che riflette sul rapporto tra coding, ingegneria del software e AI.

La distinzione è chiara: «Coding non è ingegneria del software – afferma Fuggetta -. Scrivere codice è solo una fase del processo di sviluppo software. L’ingegneria del software comprende anche analisi dei requisiti, progettazione dell’architettura, test e collaudo, gestione dei dati e manutenzione del sistema. L’AI può automatizzare parte della scrittura del codice, ma non sostituisce l’intero processo ingegneristico».

Gli strumenti di AI generativa consentono di produrre codice rapidamente e sperimentare più soluzioni. Tuttavia, il ruolo umano resta necessario per definire il problema,progettare sistemi complessieverificare e correggere il codice generato.

Inoltre, si pone un problema di responsabilità. Quando l’AI genera codice o prende decisioni operative, a chi è ascrivibile l’eventuale errore? Il problema della responsabilità emerge con forza e diventa ancora più critico nei sistemi automatizzati o “agentici”.

«C’è un rischio di disintermediazione dell’IT – osserva Fuggetta -. L’AI potrebbe dare l’illusione che chiunque possa sviluppare software. Ma bypassare le competenze ingegneristiche può generare vulnerabilità, errori sistemici e costi futuri più elevati».

Come spesso accade, la soluzione è nella via di mezzo: ben venga il supporto dell’AI per il coding, perché questa tecnologia si è rivelata molto efficace nel fornire competenze e aumentare la produttività, ma non senza il controllo umano. Il futuro è un sistema di collaborazione tra persone e strumenti intelligenti. Gli sviluppatori restano, ma il loro lavoro sarà profondamente modificato.

Gli aspetti critici dell’uso della GenAI nel coding

Come spiega Franchi, l’AI per il coding può diventare un acceleratore straordinario di produttività, se viene utilizzata da sviluppatori esperti. «Permette di generare rapidamente porzioni di codice, esplorare soluzioni alternative, automatizzare attività ripetitive, supportare il debugging o la scrittura della documentazione, rispetto alla scrittura mera del codice. In questo senso, può migliorare sensibilmente l’efficienza dei team, liberare tempo per attività a maggior valore e garantire meglio sicurezza e documentazione», dichiara l’IT Manager.

Il punto critico, però, nasce quando si pensa che l’AI possa sostituire completamente le competenze.

«Il software non è semplicemente scrivere codice, significa progettare architetture, comprendere requisiti spesso complessi o incompleti, gestire sicurezza, qualità, manutenibilità e integrazione con sistemi esistenti – evidenzia Franchi -. Tutti questi aspetti richiedono esperienza, metodo e capacità di valutazione critica. Per questo non credo che assisteremo alla scomparsa dei team di sviluppo o delle software house».

Cambierà, invece, ribadisce Franchi, il lavoro degli sviluppatori, con meno attività puramente esecutive e più ruolo nella progettazione, nella supervisione e nella validazione del codice generato dagli strumenti di AI.

Il ruolo dei CIO nel governare il cambiamento

«Trasformazione fa rima con evoluzione – conferma Damiano Roberti, Group ICT Manager presso La Termoplastic F.B.M., realtà attiva nella progettazione, design e produzione di manici, maniglie, pomoli e accessori per pentolame -. Inutile opporsi al cambiamento. Occorre, invece, gestirlo e governarlo. L’attività di sviluppo software, interna o esterna alle aziende, continuerà ad essere necessaria, almeno nel futuro prossimo. Ma cambierà volto».

Roberti lavora per un’azienda di dimensioni medio-piccole, che non può permettersi attività interne strutturate di ricerca e sviluppo. Per questo si appoggia in larga misura ai fornitori esterni, anche per quanto riguarda l’attività di sviluppo software. Qualcosa, però, viene tenuto all’interno. In particolare, il team IT de La Termoplastic realizza piccoli programmi proprietari che permettono di risparmiare su alcune licenze e di disporre di personalizzazioni molto puntuali.

«Si tratta di applicazioni molto semplici, ad esempio soluzioni per cercare prodotti nel magazzino o per gestire processi operativi per noi molto utili. Non certo di sistemi complessi come un ERP», spiega Roberti.

PMI e AI: sperimentare senza rinunciare ai partner

L’azienda ha iniziato a utilizzare anche strumenti di intelligenza artificiale. Questo, però, non ha ridotto il ricorso alle software house partner.

«Come PMI, il nostro approccio all’AI è iniziato come esplorazione delle sue potenzialità con test e generazione di codice. Per gli utenti non IT, invece, abbiamo sperimentato dei software autonomi, come gli strumenti che registrano e trascrivono le conversazioni e che, tramite modelli di prompt, producono automaticamente le minute dei meeting. Questo nuovo sistema, che ho introdotto personalmente, ha sostituito in parte il lavoro umano, ma allo stesso tempo permette di svolgere attività che prima non venivano fatte e questo rappresenta un grande vantaggio. Si tratta di una soluzione pronta all’uso fornita da un partner esterno, a dimostrazione che l’AI non solo non elimina la necessità del fornitore, ma crea una nuova domanda di servizi».

Per quanto riguarda la specifica attività di coding tramite l’AI Generativa, anche in questo caso La Termopastic ha proceduto in modo graduale, testando e validando, ma oggi è arrivata a realizzare interventi anche sul gestionale. Questo significa, precisa il manager, che l’AI sta creando efficienza: ad esempio nella velocità di chiusura dei ticket. Ma non ha cambiato il tipo o la quantità di attività svolte internamente rispetto a quelle affidate all’esterno, soprattutto quando servono competenze più specialistiche. Piuttosto, permette di fare le stesse cose più rapidamente.

In aggiunta, conferma, l’AI non copre tutto il ciclo di vita dell’ingegneria del software, ma si occupa principalmente della scrittura del codice. Le altre fasi del processo (controllo, test, collaudo, gestione dei dati e gestione operativa del software) restano agli sviluppatori umani e, quindi, come è consuetudine per l’IT di Termoplastic, in gran parte alle software house.

La questione della responsabilità resta centrale

Roberti conferma il nodo della responsabilità. «Anche nell’attività di sviluppo software con il supporto dell’AI la questione centrale è questa, e non può essere demandata alla macchina», dichiara il manager. «Si parla molto di AI agentica, cioè sistemi in grado teoricamente di fare tutto in autonomia. Ma la responsabilità non può essere solo dell’AI».

Roberti fa l’esempio di un sistema di AI integrato nell’ERP che non solo rileva che cosa manca in magazzino, ma modifica automaticamente le soglie minime e massime e avvia l’ordine al fornitore. Ma che cosa succede se l’ordine non è corretto? Se il fornitore risponde con un’email che sposta la data di consegna o è irreperibile, magari perché non è più operativo? Per Roberti, la supervisione umana non può venir meno.

«L’AI può capire molte cose, ma non è detto che capisca correttamente il contesto o che la risposta generata sia effettivamente quella giusta per l’azienda. Per ottenere risultati affidabili servirebbero prompt lunghissimi e molto complessi – evidenzia il CIO -. E se l’AI sbaglia, chi è responsabile? Un’autonomia totale e affidabile è ancora lontana».

I rischi all’orizzonte: la perdita di competenze

Un aspetto su cui Franchi crede sia importante riflettere riguarda le competenze e le figure junior. Storicamente, molti sviluppatori hanno costruito la propria esperienza partendo da attività relativamente semplici come piccole modifiche al codice, debugging, componenti circoscritti, manutenzione evolutiva. Si tratta proprio di quelle attività che oggi gli strumenti di AI riescono a automatizzare con facilità. «Questo potrebbe generare, nel tempo, un effetto collaterale non banale, ovvero la riduzione delle opportunità di apprendimento per chi entra nella professione», osserva Franchi.

«Se le attività “di ingresso” vengono progressivamente assorbite dagli strumenti automatici, il rischio è quello di comprimere la base della piramide delle competenze e rendere più difficile il percorso di crescita dei futuri sviluppatori. In altre parole, potremmo trovarci, tra qualche anno, in una situazione paradossale con strumenti sempre più potenti, ma meno persone realmente in grado di comprenderne a fondo il funzionamento, i limiti e le implicazioni. L’AI può certamente aumentare la produttività dei team, ma non può sostituire l’esperienza, il pensiero critico e la responsabilità progettuale che stanno alla base di qualsiasi sistema software solido e sicuro. In questo senso, più che alla fine dello sviluppo software, credo che stiamo assistendo alla fine di un certo modo superficiale di fare sviluppo. L’AI amplifica le capacità di chi ha competenze solide, ma amplifica anche gli errori di chi non le possiede».

I rischi all’orizzonte: la perdita di controllo sulla tecnologia

Un altro rischio, messo in luce da Roberti, è che con l’AI «potrebbe esserci la tentazione, da parte delle risorse umane o del top management di alcune aziende, di aggirare il dipartimento IT. L’IT viene spesso percepito come costoso, lento o troppo legato alle regole. Ma un risparmio immediato potrebbe tradursi in costi più elevati in futuro».

Anche in questo caso, infatti, sostituire tutto con l’AI minaccia di far sparire alcune conoscenze umane. «Potremmo arrivare a una situazione in cui solo pochi possiedono determinate competenze e tutti gli altri ne sono privi. Chi le possiede avrebbe un vantaggio enorme. Non possiamo permettere questo impoverimento generale, che equivarrebbe alperdere il governo della tecnologia».

Anche per Carboni esiste un rischio di controllo sulla tecnologia e il suo prezzo: «La GenAI rischia di rappresentare quello che gli OGM o i diserbanti sono in agricoltura: la “cessione” della filiera del valore ad un soggetto terzo che può decidere per noi il costo dei beni. L’idea che tutto sia un servizio, inclusa la nostra cosiddetta sovranità digitale, è una contradizione in termini».

I limiti del coding con l’AI e il futuro dello sviluppo software

Anche gli studi più recenti descrivono un quadro complesso sottolineando i limiti del coding con l’AI e tracciando un futuro di collaborazione uomo-macchina con l’esaltazione di precise competenze. Piuttosto che eliminare il lavoro degli sviluppatori, infatti, l’AI sta ridefinendo le attività centrali dell’ingegneria del software, spostando il valore dal semplice atto di scrivere codice verso la progettazione dei sistemi, la supervisione dei processi automatizzati e l’integrazione tra componenti software.

Alcuni studi hanno anche evidenziato che l’impatto dell’AI sulla produttività del lavoro non è lineare. Secondo un’analisi del MIT Sloan, strumenti di generazione automatica del codice possono accelerare alcune attività di programmazione, ma non sempre riducono il tempo complessivo necessario per completare un compito. Gli sviluppatori devono, infatti, dedicare tempo alla formulazione dei prompt, alla verifica del codice generato e alla correzione degli errori, attività che possono compensare o addirittura superare i benefici iniziali dell’automazione.

Gli strumenti di coding basati su AI hanno anche, almeno per ora, difficoltà nel gestire il contesto dei progetti software reali. Il codice prodotto dai modelli linguistici appare spesso corretto a livello sintattico, ma può risultare inutilizzabile quando deve essere integrato in un sistema esistente. Queste difficoltà diventano più evidenti nei sistemi di “autonomous software engineering”, cioè agenti capaci di progettare e sviluppare software in modo completamente autonomo: uno studio del MIT ha indicato che imodelli non riescono a comprendere codebase di grandi dimensioni.

Per questo la maggior parte delle aziende tende ad adottare modelli ibridi in cui sistemi di AI e sviluppatori umani lavorano insieme e la responsabilità è supervisionata.

L’affidabilità delle soluzioni generate resta cruciale: i modelli linguistici possono produrre codice plausibile ma contenente bug, errori logici o riferimenti a funzioni inesistenti, rendendo necessaria una revisione umana approfondita prima dell’utilizzo in ambienti di produzione.

Secondo questa prospettiva, l’evoluzione degli strumenti di AI non solo richiederà ancora la presenza umana, ma esigerà nuovi ruoli professionali, come specialisti nella progettazione di workflow basati su AI o esperti nella revisione e validazione del codice generato automaticamente. Il lavoro degli sviluppatori dovrà spostarsi su attività come la progettazione dei sistemi, l’integrazione tra componenti, la supervisione degli strumenti automatici e la gestione della qualità del software.

La programmazione sta evolvendo verso una forma di ingegneria in cui gli sviluppatori lavorano sempre più come architetti e supervisori di sistemi intelligenti.

Come sottolinea Roberti: «Il futuro sarà una collaborazione uomo–macchina, in cui hardware, software e persone lavorano insieme. L’intelligenza artificiale non sostituisce il cervello umano».

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati