Prospettive

Un mondo governato dagli algoritmi: urgono regole!

Le tecnologie di intelligenza artificiale e gli algoritmi possono salvare vite, ottimizzare processi burocratici e rendere più efficienti i modelli organizzativi, dare vita anche a nuovi modelli di business. Ma possono anche influenzare (direttamente o meno) la vita delle persone
e il loro lavoro, fino addirittura a manipolare l’economia, la società o la politica. Tra algocrazia e capitalismo di sorveglianza, gli algoritmi stanno avendo un peso sempre più rilevante, concentrando il potere globale nelle mani di pochissime multinazionali. È arrivato il momento di ‘darsi delle regole’

Pubblicato il 04 Lug 2017

Algoritmi

Istruzioni per risolvere un problema ed effettuare delle attività. Ecco cosa sono gli algoritmi. Il codice di un computer, un’applicazione, Internet, il percorso di un tragitto via Gps, i consigli di acquisto di un viaggio o di un libro… tutto oggi è basato su algoritmi, persino una ricetta culinaria. Sono strumenti per lo più invisibili, ma in grado di aiutare e ‘aumentare’ le nostre vite supportandoci nella quotidianità, nel lavoro, nel business. Il rovescio della medaglia è che in quella che già oggi molti chiamano l’età degli algoritmi, il mondo potrebbe essere non poco condizionato dall’Intelligenza Artificiale (IA) concentrando ‘il potere’ (sociale, economico e politico) nelle mani di coloro che sono in grado di modellare e controllare gli algoritmi.

Abbiamo voluto analizzare questi aspetti insieme a tre grandi esperti internazionali: Aneesh Aneesh, Senior Director, International Affairs and Outreach, Professor of Sociology and Global Studies dell’Università di Wisconsin-Milwaukee (ex professore anche della prestigiosa Stanford University), teorizzatore della cosiddetta algocrazia; Shoshana Zuboff, Charles Edward Wilson Professor of Business Administration, Emerita alla Harvard Business School, ricercatrice e studiosa che ha formulato il concetto di capitalismo di sorveglianza; Alessandro Curioni, Vice President Europe e Direttore dell’IBM Research Zurich Lab che da anni segue gli sviluppi tecnologici e le potenzialità della ricerca teorica e sperimentale nel campo dell’Intelligenza Artificiale.

“È un dato di fatto che dal punto di vista delle tecnologie e delle capacità computazionali l’uomo è oggi in grado di ‘realizzare imprese’ un tempo impensabili. Basta pensare, a semplice titolo di esempio, alla lettura e analisi del DNA attraverso il quale è attualmente possibile prevenire determinate malattie o capire come curare alcune malattie rare”, esordisce Curioni. “Risultati che sono stati raggiunti per mezzo delle tecnologie, ma che sono sempre stati guidati dall’uomo il quale, probabilmente, avrebbe potuto comunque raggiungere certi successi ma in tempi molto più lunghi”.

Il potere degli algoritmi “sta nella loro capacità di aiutare l’uomo a risolvere problemi (quello della ricerca medico-scientifica è solo uno degli innumerevoli esempi pratici) perché permettono di arrivare a soluzioni più oggettive e più efficienti in tempi minori”, spiega Curioni. “Non utilizzare gli algoritmi e le tecnologie cognitive e di intelligenza artificiale per vari timori (disoccupazione di massa, cybercrime, influenze economiche e sociali, ecc., che vanno innegabilmente presi in considerazione) sarebbe un grave errore”.

Ma quali sono gli impatti sociali, economici e politici ai quali dobbiamo andare incontro?

Cos’è la teoria dell’algocrazia, quanto potere politico hanno gli algoritmi

Aneesh Aneesh, come accennato, è il professore/ricercatore che ha teorizzato il concetto di algocrazia (un modello di organizzazione senza controlli burocratici classici, ma guidata da codici e algoritmi) dopo aver svolto numerosi studi e analisi etnografiche ‘sul campo’, principalmente tra India e Stati Uniti, esplorando come gli sviluppi tecnologici abbiano cambiato il modo in cui un lavoro può essere svolto e organizzato.

Secondo Aneesh, il linguaggio di programmazione (il codice) è di per sé “una struttura organizzativa”, considerazione alla quale è giunto già alla fine degli anni ’90 quando, seduto accanto a un programmatore e guardando lo schermo sul quale stava lavorando, ha avuto un’intuizione: “È il software stesso a fare da direttore dei lavori!”. Aneesh aveva notato così tanti controlli di accesso integrati nella piattaforma software su cui stava lavorando il programmatore “che non c’era alcun bisogno di un manager umano a dirigere i lavori”, aveva pensato. Da qui è poi giunto alla teorizzazione del concetto di algocrazia “per identificare ‘le regole del codice’ (o di un algoritmo) quale modello di organizzazione che può sostituire le ‘regole di un ufficio’ (la burocrazia di un’azienda o di un sistema economico)”, descrive Aneesh. “L’algocrazia tende ad appiattire tutte le gerarchie burocratiche perché non necessita di alcun livello di gestione intermedio o centralizzato che sia”.

La società burocratica, la visione panottica e quella algocratica

Per spiegare cosa significhi concretamente, Aneesh ci porta un esempio molto semplice riguardante la gestione del traffico e delle violazioni degli automobilisti. “Il controllo mediante l’utilizzo dei semafori implica per gli automobilisti il rispetto di alcune regole (per esempio, fermarsi in presenza del rosso) le cui violazioni possono essere rilevate direttamente dalla polizia stradale”, spiega Aneesh. “Questo modello organizzativo/comportamentale funziona per due motivi: l’interiorizzazione delle regole da parte degli automobilisti, che orientano le loro azioni, e la minaccia della pena come conseguenza di un’azione errata”.

Questo primo modello rappresenta un’organizzazione burocratica (seguire il rosso, arancione o verde equivale a seguire le regole di un’azienda o di una società civile) ma, fa presente Aneesh, “quanti automobilisti ci sono che non rispettano lo stop o il rosso senza essere ‘beccati’ dalla polizia?”.

C’è poi un secondo metodo di controllo, basato sull’utilizzo delle videocamere che riprendono il traffico e potenzialmente catturano tutte le violazioni degli automobilisti. “Le regole sono ovviamente le medesime del modello precedente ma, con questo tipo di organizzazione, a ogni violazione rilevata viene emessa una multa recapitata al trasgressore con una fotografia come prova dell’illecito”, spiega Aneesh. “Un sistema tecnologico di questo tipo, impiegato nella sua massima capacità è in grado di rilevare tutte le violazioni e la notifica diventa la conseguenza dell’azione ‘fuori regola’ di una persona”. In questo caso, il modello organizzativo viene identificato come panottico (termine che deriva dal carcere “ideale” progettato nel 1791 dal giurista Jeremy Bentham per permettere a un unico sorvegliante di osservare tutti i soggetti di una istituzione carceraria senza che questi capiscano se siano in quel momento controllati o meno. L’idea di panottico è stata poi ripresa da filosofi e pensatori contemporanei come metafora di un potere invisibile).

Infine, c’è il modello algocratico che, nell’esempio di Aneesh, diventa un sistema di auto-controllo del traffico basato non su delle regole, ma su come vengono costruite le strade: “Pensiamo a una infrastruttura stradale che, per via di come sono state asfaltate le corsie, impedisca agli automobilisti di svoltare a destra o a sinistra o di sostare in un punto se non ‘progettato’ dagli ingegneri della strada. In questo modello non ho bisogno di essere inseguito dalla polizia o di ricevere una multa via posta: se ‘violo’ il modello mi schianto e distruggo l’auto”.

Il capitalismo di sorveglianza, il valore economico dei dati

Shoshana Zuboff è l’autrice del celebre libro In the Age of the Smart Machine: The Future of Work and Power attraverso il quale ha introdotto, nel 1988, il concetto di ‘Informating’ ossia il processo di digitalizzazione che traduce attività, eventi, cambiamenti ed obiettivi sociali in informazioni.

La ricerca condotta da Zuboff si è concentrata sullo studio approfondito dei cambiamenti di professioni e professionisti, nonché dei modelli organizzativi di uffici, aziende, fabbriche, negli ambienti dove – dalla fine degli anni ’80 in poi – si sono introdotti computer e via via macchine e sistemi IT. La sua ricerca, nel tempo, ha dimostrato che la relazione tra l’IT e l’uomo (ed il lavoro) è basata su tre direttrici:

  1. la tecnologia non è neutrale: include caratteristiche intrinseche che abilitano determinate esperienze umane, ma ne preclude altre;
  2. i nuovi orizzonti possibili cambiano gli scenari: attraverso la tecnologia individui e gruppi di persone ‘costruiscono’ nuovi ‘orizzonti’ e prendono decisioni differenti rispetto al passato influenzando così gli scenari futuri e possibili;
  3. possibili influenze e limitazioni su società, economia e politica: le scelte umane sono influenzate da interessi sociali, politici ed economici che incidono sia sulle opportunità sia sulle possibili limitazioni dell’uomo, del lavoro e della tecnologia stessa. Al tempo stesso, la tecnologia, ancor di più gli algoritmi, possono oggi far sentire il loro ‘peso’ su società, economia e politica.

Proprio su quest’ultimo aspetto la ricercatrice americana ha concentrato negli ultimi anni i suoi studi, parlando in particolare del nuovo modello di ‘capitalismo della sorveglianza’ di cui Google è il pioniere e il cui modello sociale, secondo alcune indagini dell’Economist, è oggi guidato da sole cinque multinazionali: Alphabet/Google, Apple, Facebook, Amazon e Microsoft.

“Google è la ‘ground zero’ di una nuova specie di capitalismo i cui profitti derivano dalla sorveglianza (unilaterale) e dall’influenza e modifica del comportamento umano – ha scritto in un suo recente articolo Zuboff -. Il capitalismo è stato ‘tradito’ da un progetto lucrativo di sorveglianza che sovverte i normali meccanismi evolutivi della società e dell’economia cambiando completamente le ‘regole del gioco’ e le dinamiche di domanda ed offerta che per anni hanno assicurato la democrazia di mercato”.   Ciò a cui si riferisce la professoressa americana è la modalità attraverso la quale opera Google “monetizzando i dati dagli utenti”: moltissime persone utilizzano i servizi e le applicazioni di Google in modo gratuito, non rendendosi probabilmente nemmeno conto di come in realtà “paghino” tali servizi alla multinazionale (con i propri dati attraverso i quali si deducono comportamenti, abitudini, attitudini, preferenze e addirittura opinioni e ‘sentiment’). Informazioni che la multinazionale rivende agli investitori e utilizza per creare nuovi servizi. Non solo, essendo la stessa Google la proprietaria degli algoritmi che “decidono” che tipo di contenuti far vedere, a chi e come (attraverso news feed, banner pubblicitarie, campagne adv, ecc.), ecco che la proposta di contenuti e la raccolta di dati diventano un tutt’uno gestito unilateralmente. Sono considerazioni molto critiche quelle di Zuboff che, nelle sue pubblicazioni, si spinge a sostenere come il capitalismo di sorveglianza sia “una nuova mutazione economica, una forma di mercato senza precedenti che fiorisce in uno spazio senza legge”.

Tecnologie di intelligenza artificiale, è ora di darsi delle regole!

“È innegabile che lo sfruttamento delle tecnologie di IA e degli algoritmi possa avvenire anche a opera di chi ha tutt’altri scopi rispetto al benessere delle persone o la migliore efficienza organizzativa – ammette Curioni – così come per altro già avvenuto nella storia (la scoperta della scissione nucleare ha portato con sé l’opportunità di produrre energia con maggiore efficienza ma anche aperto le porte a nuove e terribili armi militari). Ecco perché è necessario intervenire quanto prima con delle regole in grado di definire i confini non solo tecnologici ma anche ‘culturali’ ed etici di questa grande innovazione”. Partendo da quelle che IBM ha già imposto come vero e proprio manifesto etico, Curioni suggerisce le tre aree e modalità di intervento possibile:

  1. Chiarire lo scopo finale: aumentare la capacità umana, non sostituirla – “È una regola chiara e, nella sua semplicità, molto forte – spiega Curioni -; là dove c’è del valore umano è necessario intervenire per amplificarlo non per sostituirlo”.
  2. Rendere gli algoritmi ‘trasparenti’ – “Quando si crea un modello di intelligenza artificiale si sviluppa una sorta di ‘black box’ che, in base a determinati dati e modelli di analisi, esegue attività o risolve problemi – dettaglia Curioni -; affinché si evitino utilizzi scorretti, poco etici o addirittura dannosi di questi codici è fondamentale che i modelli matematici (gli algoritmi) e le basi dati siano visibili e riconoscibili in modo trasparente (in modo che si possa comprendere chiaramente quali dati vengono utilizzati, come, attraverso quali modelli e a che scopo)”.
  3. Dialogare con il mondo sociale ed economico – “Questo tipo di tecnologie avrà impatti importanti sul mondo del lavoro e sulle professioni; negare la questione significa non affrontare un cambiamento che comunque avverrà, con gravi conseguenze sull’uomo e sulla società se lo si ignorerà – invita a riflettere Curioni in chiusura -; è necessario creare tavoli di lavoro internazionali in cui tutte le forze sociali, economiche e politiche collaborino per ridisegnare sistemi e regole a sostegno di una società e di una cultura nuove, completamente diverse da quelle che abbiamo conosciuto fino ad oggi”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4