Tutti gli algoritmi dovrebbero essere trasparenti, ma così non è. Secondo gli studiosi la linea di demarcazione tra intelligenza artificiale spiegabile e interpretabile è rappresentata dalla user interface. Indipendentemente dal livello di esperienza degli utenti e dalla loro professione (data science, sviluppatori, business line), l’interpretabilità permette di comprendere i modelli di intelligenza artificiale in modo semplice e facendo questo aiuta a ridurre la diffidenza nei confronti dell’automazione…
360ON Podcast
AI spiegabile versus AI interpretabile: che cosa sono, come funzionano, casi d’uso e strumenti
Pubblicato il 08 Apr 2021

Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti
Argomenti
Canali
VITA DA CIO
-

Il CIO come “veicolatore di conoscenza”: il modello Danone tra AI, dati e governance globale
01 Apr 2026 -

L’ ICT in Unieuro, la vision del CIO Luigi Pontillo
30 Mar 2026 -

Dentro l’IT di WPP Media: così si governa la complessità di un network globale
23 Mar 2026 -

«Il coraggio della leadership»: la visione di Giovanni Cauteruccio, CIO di Prysmian
13 Mar 2026 -

In A2A, IT e business si muovono a ritmo di jazz
12 Feb 2026









