A volte gli eventi mettono in discussione alcune certezze che sembravano come inconfutabili verità dimostrate e quella dell’attuale “paradosso digitale” ne è una degli esempi più evidenti.
Fino ad oggi l’impiego del fattore digitale poteva essere considerato come un’azione tesa ad allontanare la soggettività umana nella valutazione dei “fatti” e condurre sempre di più verso la capacità di oggettivazione della realtà.
Inteso in questo senso, rispetto ai fenomeni che vengono sottoposti alla finitezza dei numeri discreti, il digitale può condurre al vantaggio della loro completa e trasparente identificazione, gestione e controllo, ovvero ad un aumento generale della garanzia del risultato del loro funzionamento.
Solo per fare un esempio, basta considerare come la diffusione sempre più massiccia di dispositivi digitali che rilevano parametri fisici di diversa natura sta modificando completamente il modo con il quale siamo in grado di certificare il funzionamento di molti sistemi che governano gli ambienti nei quali trascorriamo gran parte della nostra esistenza.
Secondo lo studio “A resource for assessing exposure to environmental pollutants“ del The National Human Activity Pattern Survey (NHAPS) gli americani trascorrono l’87% del tempo al chiuso, il 5,5% all’interno di un veicolo e solo il 7,6% all’esterno di un involucro o di una costruzione. Considerando questa condizione è evidente quanto sia importante che i parametri generali di sicurezza e salute degli edifici, dagli appartamenti passando per gli uffici fino alle fabbriche, siano sempre più controllati da dispositivi digitali che garantiscono la qualità degli ambienti interni.
Indice degli argomenti
Il vero obiettivo dell’automazione
Nonostante l’evoluzione che il digitale ha compiuto in termini di utilizzo finalizzato alla garanzia di oggettivazione del valore dei parametri di funzionamento dei sistemi, appare evidente come tale significato sia molte volte sempre più sottovalutato rispetto ad un altro interesse che c’è nell’impiegare il fattore digitale: quello dell’incremento della produttività delle attività.
È noto, infatti, che con il termine automazione si intenda la delega alle “macchine” di funzioni che precedentemente dipendevano dall’uomo con lo scopo principale di alleviare gli agenti umani dalla ripetizione delle attività.
Ebbene, tale obiettivo prescinde completamente da quel ruolo che il digitale avrebbe quale garante del funzionamento dell’agire. Il lavoro viene osservato e scomposto fino al livello di singole azioni (task) e successivamente delegato così alla macchina affinché questa possa eseguirlo senza sforzo.
Ovviamente ciò può valere nella fabbrica dove l’impiego degli automi certamente solleva le persone da incarichi ripetitivi di fatica spesse volte disumana, se considerata nei tempi correnti, o da molte attività pericolose per l’incolumità stessa delle persone.
In questo senso certamente si può definire positiva l’adozione di strategie di automazione: delegare alle “macchine” le attività che, per la loro natura ripetitiva o pericolosa, possono essere realizzate anche da computer, robot con una efficienza molte volte maggiore con un vero vantaggio in termini di produttività, sicurezza e di margine sul costo del lavoro.
Oltre che nella fabbrica, anche nell’organizzazione si sono fatti enormi progressi nell’automazione dei processi organizzativi ma, in tal caso, gran parte di quello che comunemente definiamo progresso tecnologico sta proprio in quell’anche di cui sopra.
L’osservazione deriva dal mutato contesto di riferimento.
Quello che generalmente viene associato al periodo dell’eccezionale crescita economica degli anni ‘90 determinata da una serie di eventi come l’esplosione di internet e l’effetto della sua forza rivoluzionaria nei più diversi settori del mercato, si è completamente esaurito con la crisi finanziaria del 2008 a seguito della bancarotta della Lehman Brothers.
Già allora era evidente come la speculazione finanziaria porta gli investimenti al di fuori di ogni concezione reale dell’economia ed è veramente incredibile dover assistere oggi ad un progressivo e sempre più intensivo utilizzo di algoritmi per l’operare squisitamente speculativo sui titoli delle borse mondiali.
E così dal 2008 in poi il generale contesto socioeconomico, nel quale si trovano ad operare tutte le organizzazioni, è sempre più caratterizzato da fenomeni imponenti, repentini e frequenti (pandemie, guerre, conflitti di competizione, etc.) che portano ad una crescente incertezza al punto che, oggi, non sappiamo dire più nemmeno con convinzione se il riferimento è ancora quello della complessità e non quello del caos.
L’automazione dei processi organizzativi non è di certo una novità, anche se bisognerebbe verificare attentamente quali sono gli strumenti che effettivamente l’hanno implementata e a quali risultati abbia condotto fino ad ora.
Considerando che il “ciclo operativo aziendale”, la maggior durata tra le fasi del ciclo economico e quelle del ciclo finanziario, è espressione della dimensione temporale dell’esecuzione del business, l’automazione di processo è implementata sostanzialmente al fine di ridurre il ritardo nell’esecuzione delle attività. Tale riduzione, infatti, risulta fondamentalmente positiva rispetto al ciclo di realizzazione del valore dell’azienda: quanto più questo è veloce e meglio è.
In definitiva la riduzione del tempo di esecuzione delle attività è il vero obiettivo dell’automazione.
L’hyperautomation e la differenza con l’automazione
Come spesso accade, sono gli analisti di Gartner a coniare nuovi termini per indicare aspetti emergenti della tecnologia. Nel contesto in cui siamo è il caso del termine hyperautomation con il quale si intende descrivere l’orientamento verso l’automazione del maggior numero possibile dei processi aziendali.
Con iperautomazione, pertanto, si intende l’impiego del maggior numero possibile di tecniche e tecnologie diverse (attualmente, tra le altre, in particolare quella della cosiddetta intelligenza artificiale) tutte finalizzate ad un incremento della produttività ed alla riduzione dei costi che, come appare sempre più evidente, risulta essere il binomio sul quale si basa l’unico modello esistente di governo delle organizzazioni.
Tuttavia, dato che oramai è da diverso tempo che si parla di iperautomazione è necessario ricercare una reale definizione distintiva del fenomeno, rispetto a quanto si affermava utilizzando il termine, ben più chiaro, semplicemente di automazione.
Ora la vera differenza tra i due termini è data dalla spiccata necessità nel caso dell’iperautomazione del coordinamento tra le attività dei diversi agenti tecnologici. In riferimento all’utilizzo delle macchine, ogni implementazione rappresenta inevitabilmente un passo verso l’automazione. Tuttavia, quando tali utilizzi diventano molteplici e complessi, è necessaria l’iperautomazione, ovvero un sistema integrato di automazione. Ebbene è proprio questa capacità di coordinamento che sembra divenire la vera esigenza del futuro.
In altre parole, quanto più questa tendenza ad automatizzare viene implementata con tecnologie diverse e quanto più ci si avvicina ad una nuova necessità quella della orchestrazione di tutte queste diversità in un unico ambiente di monitoraggio e controllo.
In definitiva, se da un lato si prevede che in futuro, sempre di più, molti passaggi di stato dei processi saranno completamente automatizzati, allo stesso tempo dall’altro appare una crescente necessità di uno strumento di raccordo di tutta la tecnologia digitale implementata. Questo si rivela necessario per il corretto equilibrio del coordinamento delle azioni eseguite dai diversi agenti digitali – quelli all’interno dei calcolatori ma sempre di più anche quelli al di fuori di questi come nei dispositivi IoT e nei robot.
A ben guardare, pertanto, il tentativo di incrementare all’estremo la produttività con l’iperautomazione si dovrebbe scontrare con un costo crescente dei sistemi di coordinamento. E già questo rappresenta un primo paradosso se si considera che la maggior parte dell’efficienza dell’automazione viene proprio dalla riduzione dell’onere del controllo.
I tool a disposizione
Esistono tuttavia diverse piattaforme per la gestione dell’orchestrazione dei servizi web. Tra queste alcune anche decisamente flessibili e potenti come Workato, Zapier, Make, Ifttt oltre altre, ma esistono anche e forse e il caso di dire soprattutto progetti come n8n o Activepieces che, sotto forma di applicazioni di tipo open source, possono essere integrati nei datacenter aziendali.
Questa seconda possibilità apre la strada a iniziative diverse come quella che stiamo conducendo con uno sviluppo interno nella società e-Metodi e che ha come obiettivo quello di generare un engine per il BPMN (Business Process Model and Notation (BPMN) basato sull’integrazione di un orchestratore di servizi che elaborano direttamente il data layer del framework XCASE.
Il motivo di questi progetti di ricerca applicata indipendente è quello di predisporsi al futuro con consapevolezza. Infatti, è già evidente una deriva crescente verso una totale perdita di controllo umano dei sistemi automatizzati, insieme ad una progressiva delega generale agli algoritmi delle decisioni di funzionamento dei sistemi stessi.
L’intervento dell’intelligenza artificiale e la “qualità” dei dati
Sta di fatto che in questo momento sembrerebbe che il futuro dell’iperautomazione sia uno scenario di possibilità ampiamente variegato, mentre di certo c’è soltanto che tutte le nuove implementazioni sono orientate alla introduzione dell’intelligenza artificiale come forma tecnologica primaria degli algoritmi di elaborazione.
Immaginiamo per un attimo lo schema sottostante realizzato in notazione standard BPMN. Nel diagramma sono presenti due simboli task di tipo service evidenziati con un’icona a forma di ingranaggio. Nel caso del diagramma i due momenti rappresentano attività eseguite automaticamente dal sistema digitale a seguito di un input umano il simbolo con l’icona a forma di persona che li precede.

È ipotizzabile che presto la decisione del sottoscrittore (underwriter) sarà completamente demandata ad un algoritmo di intelligenza artificiale il quale in base ad una enorme quantità di dati, che per semplificare potremo definire statistici, approverà (Set “Approved”) o fermerà (Set “Declined”) la prosecuzione del processo. Nel diagramma scomparirebbe il task user che provvede all’approvazione (Approval) perché completamente sostituito da un ulteriore task service come rappresentazione di un automa.
Qui si vuole tralasciare la questione dell’opportunità di demandare completamente ad una tecnologia ogni forma di scelta confidando solamente sull’enorme incremento di efficienza che il suo utilizzo determina.
Si vuole invece osservare che più che di intelligenza in realtà si tratta di conoscenza artificiale e che per questo dovrà sempre di più porsi attenzione al tipo di qualità di quella conoscenza alla quale si consente di compiere la scelta.
Dato che la quantità di algoritmi contemporaneamente in funzione sarà in progressivo aumento e che la gran parte di questi funzioneranno attingendo a dati comuni e condivisi è facile così intuire che quanto più ci avvicineremo a questa condizione e quanto più risulterà di primaria importanza la qualità dei dati sui quali agiscono le elaborazioni algoritmiche.
Certamente quindi possiamo ipotizzare che la decisione di accettare o respingere l’stanza del processo dell’esempio precedente ha un senso se tale questione viene risolta da un sistema capace di analizzare in frazioni di secondo una enorme quantità di casi similari e realmente rappresentativi di quello del processo in questione.
È facile intuire per quanto spiegato in premessa che la qualità del dato è direttamente proporzionale alla sua capacità di certificare la realtà fisica. E certamente una crescente disponibilità di dati elaborata in tempi rapidissimi può considerarsi come condizione di affidabilità del risultato della scelta.
L’era dei dati sintetici
Eppure, è proprio in questo senso che sta avvenendo qualcosa la cui ragione veramente non si riesce a comprendere.
Conosciamo bene tutte le attenzioni che si stanno generando rispetto alle questioni etiche dell’utilizzo dell’intelligenza artificiale, ma qui si vuole andare ben oltre e, considerando l’attuale “fame” di dati degli algoritmi, si vuole trattare di un aspetto che non sembra ancora compreso come sarebbe necessario.
Si tratta della allarmante diffusione dell’utilizzo di dati artificiali per alimentare i cosiddetti algoritmi.
In una recente intervista, infatti, Elon Musk ha affermato che l’intelligenza artificiale ha esaurito i dati disponibili al suo addestramento e conseguentemente ha ipotizzato la necessità di generare dati artificiali definiti “sintetici” come l’unica strada possibile per il progresso degli algoritmi.
La cosa incredibile di questa affermazione è scoprire che in realtà la produzione di dati “sintetici” già avviene e anche in modo decisamente massiccio. Gli analisti di Gartner lo avevano predetto già nell’agosto del 2023 nel report intitolato “Top Trends Impacting the Future of Data Science and Machine Learning“, affermando che entro il 2024 il 60% dei dati che verranno utilizzati per l’addestramento di algoritmi di intelligenza artificiale sarebbero stati sintetici.
Questo significa che l’enorme patrimonio di conoscenza umana che è stato per decine di anni memorizzato all’interno di miliardi di calcolatori che costituiscono la rete Internet è stato già completamente assorbito dagli algoritmi artificiali in risposta alle richieste degli umani e delle macchine.
È noto, infatti, che una delle cause del ritardo nel lancio della versione GPT-5 di OpenAI sia dovuto proprio alla mancanza di dati di training di alta qualità.
Ovviamente è facile immaginare cosa può significare tutto questo.
Esistono ambiti nei quali la generazione di dati artificiali è un’attività normale nel mondo dei sistemi digitali. Ma questi dati sono generati con il preciso scopo di addestrare gli algoritmi affinché siano capaci di fornire specifiche informazioni proprio quando il loro funzionamento avviene per il controllo o il monitoraggio di dati reali. Questa pratica è molto diffusa nel settore IT già da molti anni, un ulteriore motivo che suggerisce di stare bene attenti quando si parla di intelligenza artificiale come se fosse una cosa del tutto nuova.
Ma è chiaro però che, dalle affermazioni di Musk e dalle previsioni degli analisti di Gartner, è evidente che sono, e saranno sempre di più, generati sistemi capaci di azioni e comportamenti basati su dati completamente autogenerati.
Ma chi sta garantendo la qualità dei dati sintetici? E come possiamo assicurarci che questi siano rappresentativi della realtà e non distorti per generare una nuova autoreferente soggettività digitale?
Di fronte a questa possibilità, come si può immaginare, si sta procedendo con un veloce pericoloso allontanamento dell’umanità dalla capacità di comprensione dei fenomeni che proprio il digitale avrebbe dovuto invece contribuire a spiegare, controllare e certificare.
Per anni abbiamo compreso come la maggior parte dei sistemi sono diventati delle vere black box le scatole nere impenetrabili che gestiscono processi dei quali comprendiamo solo l’input e l’output.
L’unica cosa conosciuta nell’utilizzo di questi sistemi era proprio l’input e l’output tanto da far teorizzare ad alcuni, me compreso, che la soluzione alla misura del valore prodotto dal sistema poteva essere data come differenza proprio tra input e output.

Sembrava aperta una nuova strada orientata all’impiego degli strumenti digitali al fine di generare una capacità che nessun’altra tecnologia è mai riuscita ad eguagliare: la possibilità di gestire finalità diverse tutte riferite alla necessità di governo e controllo dei sistemi.
E proprio quando abbiamo deciso di voler trovare la strada per il superamento di quella misera condizione dei sistemi ridotti a vere e proprie scatole nere, ora il nuovo idolo della ricchezza si impone con l’artificialità non solo del pensiero ma anche degli stessi fatti (i dati di input) che lo suscitano e lo compongono.
Ebbene di fronte a questo scenario diventa assolutamente necessario comprendere quale necessità abbiamo di riportare il controllo della complessità sotto la supervisione esclusivamente umana.
Ecco come in definitiva possiamo affermare che l’obiettivo del digitale di generare la garanzia del risultato del funzionamento dei fenomeni ci sta sfuggendo completamente di mano e che appare con crescente evidenza come tale garanzia dipenderà sempre di più da uno scollamento progressivo dalla realtà fisica e dalla capacità di controllo umana.
Ho avuto occasione recentemente di scrivere in merito alla urgenza di trovare il modo per generare un sistema di controllo dell’implementazione degli algoritmi e dei loro dati. Il tono è pesante ma l’evidente allontanamento da ogni forma di etica e morale lo è altrettanto: “Quindi il demonio ha fame e non c’è più niente da fargli mangiare? Ma se la conoscenza artificiale (non di intelligenza si può trattare) che ha generato con il suo lauto pasto era appunto artificiale, che verità ci potrà mai essere quando gli stessi dati saranno artificiali? Come sempre, la superbia e l’avidità dell’uomo sanno generare solo enormi problemi. Il vero dramma è: fino a quando saremo ancora in grado di sopravvivere a noi stessi? Il mio animo si riempie di preoccupazione pensando ai miei figli, ai giovani e alle future generazioni.”