produttività

Slackbot: la nuova versione potenziata dall’AI trasforma la collaborazione aziendale



Indirizzo copiato

Slackbot evolve in un compagno di squadra proattivo capace di gestire dati CRM e note in tempo reale. L’integrazione tra Salesforce e Anthropic ridefinisce la produttività aziendale eliminando le barriere tra applicazioni e conversazioni

Pubblicato il 2 apr 2026



slackbot zerouno
Foto: Shutterstock
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Nel corso dell’evento “Meet the new Slack: Where AI works”, organizzato da Salesforce, i vertici dell’azienda hanno delineato una trasformazione profonda del modo in cui le organizzazioni interagiscono con la tecnologia. Attraverso gli interventi del CEO Marc Benioff, del co-fondatore Parker Harris e dei responsabili di prodotto Rob Seaman e Maryann Patel, è emerso come il futuro della produttività non risieda più nella semplice gestione di software isolati, ma in un ecosistema integrato dove il groupware Slack, e più precisamente lo Slackbot, assume il ruolo di coordinatore centrale dell’intelligenza artificiale. La discussione ha messo in luce come l’integrazione tra sistemi di comunicazione e agenti IA stia ridefinendo i processi di vendita, assistenza e collaborazione interna.

Il superamento del divario agentico attraverso Slackbot

Marc Benioff ha aperto l’incontro sottolineando il traguardo dei 27 anni di Salesforce, un percorso che ha portato l’azienda a generare oltre 46 miliardi di dollari di fatturato annuo e un flusso di cassa di oltre 16 miliardi. In questa fase di maturità, Benioff ha identificato una nuova sfida per il mercato: il passaggio dal vecchio digital divide a quello che definisce il «divario agentico». Si tratta della distanza tra le aziende che hanno già adottato esperienze avanzate con i propri clienti e quelle che non hanno ancora attraversato questo “baratro” tecnologico.

Secondo Benioff, Slack rappresenta lo strumento chiave per colmare questa lacuna, fungendo da ponte verso l’integrazione dell’IA nel flusso di lavoro quotidiano. Parker Harris ha confermato questa visione, evidenziando che dalla sua acquisizione Slack ha registrato una crescita dei ricavi di due volte e mezzo, con circa un milione di aziende che attualmente utilizzano la piattaforma. Il dato più rilevante riguarda però l’adozione dell’intelligenza artificiale: si è registrata una crescita del 300% nell’uso di agenti IA personalizzati a partire dal febbraio precedente, segno di una domanda esplosiva per soluzioni capaci di automatizzare compiti complessi.

I numeri della crescita e la visione di Marc Benioff

Il successo di questa strategia è testimoniato dai risultati di Agentforce, descritto da Benioff come il prodotto con la crescita più rapida nella storia dell’azienda, con oltre 800 milioni di dollari di ARR (Annual Recurring Revenue) registrati nel quarto trimestre e una crescita anno su anno del 169%. Benioff ha citato esempi concreti di aziende come Pandora, Lennar e Southwest Airlines che stanno già utilizzando questi agenti per rivoluzionare l’esperienza dei clienti, dalla gestione delle vendite alla programmazione di migliaia di tour immobiliari. L’obiettivo dichiarato è rendere il lavoro più umano eliminando il peso della burocrazia digitale attraverso l’automazione intelligente.

Slackbot come compagno di squadra: memoria, contesto e proattività

Il fulcro tecnologico di questa evoluzione è la nuova versione di Slackbot, che Parker Harris ha definito senza esitazioni come «la funzionalità a crescita più rapida che io abbia mai visto in Salesforce, forse nell’intero settore». Non si tratta più di un semplice bot per le risposte automatiche, ma di un vero e proprio collaboratore dotato di consapevolezza situazionale.

Rob Seaman, GM di Slack, ha spiegato che lo strumento è ora in grado di comprendere il contesto dei canali e dei documenti aperti dall’utente, offrendo un supporto proattivo basato sulle priorità aziendali e personali.

Le nuove capacità di Slackbot includono una memoria persistente che gli permette di apprendere le preferenze individuali. Seaman ha illustrato come il sistema sappia, ad esempio, se un utente preferisce creare presentazioni su Google Drive piuttosto che su OneDrive, o quali emoji utilizza abitualmente con determinati colleghi.

Una delle innovazioni più significative è la possibilità di estrarre Slackbot dall’interfaccia dell’applicazione per posizionarlo direttamente sul desktop. In questa modalità, l’AI può monitorare l’audio delle riunioni su piattaforme come Google Meet, prendere appunti in modo intelligente, identificare azioni da compiere e persino analizzare fogli di calcolo aperti sullo schermo per generare dashboard dinamiche in tempo reale.

L’integrazione tecnica e la partnership con Anthropic

Per garantire queste prestazioni, Salesforce ha collaborato strettamente con Anthropic, integrando i modelli Claude all’interno dell’architettura di Slack. Rob Seaman ha descritto il processo tecnico, basato sulla context engineering e sulla tecnologia RAG (Retrieval-Augmented Generation), che consente a Slackbot di attingere informazioni non solo da Slack, ma anche da sistemi connessi come Google Drive o Atlassian. Ami Vora, Chief Product Officer di Anthropic, ha sottolineato come la combinazione tra l’intelligenza di frontiera di Claude e i dati contestuali di Slack permetta agli utenti di agire con «superpoteri», concentrandosi sulle attività che richiedono giudizio umano invece di perdersi in compiti ripetitivi.

La rivoluzione del CRM e delle applicazioni aziendali

Un altro annuncio riguarda la trasformazione di Slack nel nuovo «livello di engagement» per il CRM di Salesforce. Maryann Patel ha presentato l’integrazione nativa delle funzioni di vendita e assistenza direttamente all’interno della chat, affermando che «per i passati 27 anni, quando pensavi al CRM, aprivi Salesforce. Bene, oggi questo cambia». L’obiettivo è eliminare la necessità per i dipendenti di passare continuamente da una scheda all’altra del browser, portando il lavoro dove avvengono le conversazioni.

Le nuove funzionalità di Slackbot permettono di gestire l’intero ciclo di vendita in modo agentico. Con l’introduzione di Agentic Prospecting, disponibile da aprile 2026, l’AI è in grado di effettuare ricerche web, analizzare registrazioni di chiamate passate e consegnare ai venditori lead qualificati su quello che Patel ha definito un «vassoio d’argento». L’automazione si estende anche alla fase post-vendita: l’agente di gestione della pipeline è in grado di aggiornare automaticamente i dati in Salesforce basandosi sulle conversazioni avvenute in Slack, un’innovazione che, secondo i dati presentati, ha già permesso di risparmiare 125.000 ore di lavoro amministrativo in un solo progetto pilota.

Automazione delle vendite e gestione della pipeline

L’impatto di queste soluzioni è stato verificato direttamente da Anthropic, il cui team ha riscontrato un incremento del 60% nella velocità dei cicli di vendita grazie all’uso combinato di Slack e Agentforce. Sateja Parulekar, VP Product Marketing per Slack, ha ulteriormente approfondito come l’ecosistema di Slack, che conta oltre 2.600 applicazioni, sia ora interamente accessibile tramite Slackbot. Attraverso l’uso delle “Skills”, l’utente può chiedere all’intelligenza artificiale di coordinare app esterne come DocuSign o Linear. In una dimostrazione pratica, è stato mostrato come Slackbot possa identificare un contratto mancante in DocuSign o un bug in Linear, creare un canale dedicato invitando le persone giuste e suggerire una soluzione tecnica lavorando fianco a fianco con l’agente Cursor per il codice.

La roadmap annunciata da Parker Harris prevede una distribuzione graduale di queste nuove funzionalità. A partire da aprile 2026, Slackbot con le nuove capacità AI sarà disponibile in prova per i piani Free e Pro, mentre il rilascio completo di tutte le funzionalità presentate è previsto per il mese di giugno dello stesso anno.

FAQ: Agenti AI

Gli agenti AI sono sistemi autonomi intelligenti alimentati dall’intelligenza artificiale e progettati per eseguire compiti specifici in modo indipendente, senza necessità di intervento umano. Questi sistemi intelligenti utilizzano tipicamente il machine learning (ML) e l’elaborazione del linguaggio naturale (NLP) per gestire conversazioni, prendere decisioni informate e intraprendere azioni mirate per raggiungere obiettivi specifici. Il loro funzionamento segue un ciclo generale di percezione, ragionamento e azione. Il flusso di lavoro definisce l’obiettivo basato sull’input dell’utente, lo suddivide in sottocompiti più piccoli e li esegue utilizzando la base di conoscenze e gli strumenti disponibili. A differenza dell’AI tradizionale, gli agenti AI possono autoapprendere e migliorare continuamente le loro prestazioni.

Gli agenti AI, i chatbot tradizionali e l’AI generativa sono tutte forme di intelligenza artificiale progettate per assistere gli utenti, ma differiscono significativamente nelle loro capacità e applicazioni. Gli agenti AI sono sistemi autonomi in grado di prendere decisioni, eseguire azioni complesse e apprendere dalle esperienze passate. Possono orchestrare processi end-to-end e utilizzare diversi strumenti per raggiungere obiettivi. I chatbot tradizionali sono più limitati, progettati principalmente per rispondere a domande predefinite senza vera comprensione o capacità di apprendimento autonomo. L’AI generativa, invece, si concentra sulla creazione di contenuti (testo, immagini, audio) basandosi su pattern appresi, ma tipicamente non ha la capacità di eseguire azioni nel mondo reale o di orchestrare processi complessi come fanno gli agenti AI.

Gli agenti AI vengono utilizzati in vari settori per migliorare i processi e automatizzare i compiti. Tra i principali casi d’uso troviamo: nel customer service, dove possono gestire richieste di supporto e risolvere problemi in modo autonomo; nelle vendite e marketing, per l’orchestrazione di campagne, la generazione di lead e la personalizzazione delle esperienze cliente; nella gestione delle operazioni IT, automatizzando il monitoraggio dei sistemi e la risoluzione di problemi tecnici; nello sviluppo software, dove gli sviluppatori li utilizzano per automatizzare attività ripetitive come codifica e debug, concentrandosi su compiti più strategici. Inoltre, vengono impiegati nell’analisi dei dati per estrarre insight da grandi volumi di informazioni e nella gestione delle risorse umane per ottimizzare i processi di reclutamento e formazione.

Gli agenti AI offrono numerosi vantaggi tra cui l’automazione di compiti ripetitivi, liberando risorse umane per attività più complesse e strategiche; l’aumento della produttività grazie alla capacità di operare 24/7 senza interruzioni; la riduzione degli errori umani; e la capacità di processare grandi volumi di dati per generare insight significativi. Tuttavia, presentano anche alcune limitazioni: possono incontrare difficoltà con situazioni ambigue o nuove non presenti nei loro dati di addestramento; la qualità del loro funzionamento dipende fortemente dalla qualità dei dati su cui sono stati addestrati; richiedono una governance attenta per evitare bias o decisioni eticamente problematiche; e necessitano di un’infrastruttura tecnologica adeguata per funzionare efficacemente. Bilanciare questi vantaggi e svantaggi è essenziale per le organizzazioni che cercano di utilizzarli in modo efficace.

Gli agenti AI possono essere classificati in vari tipi basati sulle loro caratteristiche, funzionalità e la complessità dei compiti che possono gestire. I principali tipi includono: agenti reattivi, che rispondono a stimoli immediati senza memoria del passato; agenti basati su modello, che mantengono una rappresentazione interna del mondo; agenti basati su obiettivi, che prendono decisioni per raggiungere specifici traguardi; agenti basati sull’utilità, che valutano le azioni in base al loro valore atteso; e agenti di apprendimento, che migliorano le loro prestazioni attraverso l’esperienza. Esistono anche classificazioni basate sul dominio applicativo, come agenti per il servizio clienti, agenti per l’analisi dei dati, agenti per marketing e vendite, e agenti per lo sviluppo software.

Implementare efficacemente gli agenti AI richiede un approccio strategico che consideri vari fattori. È fondamentale iniziare con una chiara definizione degli obiettivi di business e identificare i processi che potrebbero beneficiare maggiormente dell’automazione. La qualità dei dati è cruciale: occorre assicurarsi che i dati siano puliti, strutturati e rappresentativi. È importante scegliere la tecnologia giusta in base alle esigenze specifiche, considerando fattori come il costo, la specializzazione del modello e la compatibilità con l’infrastruttura esistente. L’implementazione dovrebbe seguire un approccio incrementale, partendo con progetti pilota circoscritti e ad alto potenziale di impatto. Fondamentale è anche stabilire una governance chiara con ruoli e responsabilità ben definiti, e investire nella formazione del personale per sviluppare le competenze necessarie. Infine, è essenziale misurare i risultati attraverso KPI chiari che permettano di valutare l’efficacia dell’implementazione.

Numerose piattaforme e strumenti sono disponibili per costruire agenti AI. Tra questi troviamo framework come LangChain, LlamaIndex e BeeAI, che offrono componenti modulari per la creazione di agenti. Le principali aziende tecnologiche forniscono soluzioni complete: Oracle AI Agent Studio for Fusion Applications consente di creare, testare e distribuire agenti AI personalizzati su scala aziendale; IBM ha integrato il Model Context Protocol nel suo ambiente watsonx.ai, con policy di sicurezza che isolano i tool e ne monitorano l’uso; Exprivia ha sviluppato Stratega, una piattaforma agentica dotata di un orchestratore centrale che coordina team di agenti specializzati. Per chi desidera creare un agente AI personalizzato, è possibile utilizzare le API di LLM esistenti come ChatGPT, Claude o Gemini, addestrandoli con i propri dati aziendali.

Gli agenti AI stanno rivoluzionando il modo di lavorare degli sviluppatori, rendendo lo sviluppo del software più veloce ed efficiente. Secondo un recente report di Salesforce, oltre il 90% degli sviluppatori è positivo riguardo all’impatto dell’AI sul proprio lavoro, e il 96% prevede un miglioramento nell’esperienza di sviluppo grazie all’AI. Più di quattro sviluppatori su cinque ritengono che gli agenti AI diventeranno strumenti essenziali quanto le tradizionali applicazioni software. Gli sviluppatori vedono negli agenti AI un’opportunità per focalizzarsi meno su attività ripetitive come codifica e debug, e più su compiti strategici e di maggior valore. Piattaforme agentiche specializzate stanno emergendo per orchestrare progetti complessi e ridurre il time-to-market, consentendo di gestire l’intero ciclo di vita del software, dalla definizione dei requisiti alla generazione del codice fino al testing.

Il Model Context Protocol (MCP) è un protocollo open source introdotto da Anthropic nel 2024, progettato per standardizzare la comunicazione tra modelli AI e strumenti esterni. MCP consente agli agenti AI di accedere a funzionalità aziendali – come database, API REST, ambienti di sviluppo, sistemi legacy – senza dover scrivere codice personalizzato per ogni integrazione. La sua forza risiede nella modularità e nella riutilizzabilità: un server MCP può essere configurato una sola volta e poi utilizzato da diversi modelli e agenti AI, riducendo drasticamente i costi di sviluppo e manutenzione. MCP introduce un linguaggio comune tra modelli AI e strumenti aziendali, evitando soluzioni ad hoc e facilitando l’integrazione tra sistemi eterogenei. Questo approccio favorisce la creazione di librerie di strumenti aziendali condivisi tra team e consente di implementare controlli granulari su ogni tool per facilitare la compliance con policy aziendali e normative.

Per creare un ecosistema di agenti AI nei processi aziendali, è fondamentale considerare tre fattori ispirati alla mente umana: reasoning, skillset e memoria. Il reasoning rappresenta la capacità dell’agente di elaborare informazioni e prendere decisioni logiche basate su dati e contesto. Lo skillset definisce le competenze specifiche che l’agente può utilizzare per eseguire compiti, come l’accesso a sistemi esterni, l’elaborazione di documenti o l’interazione con altri software aziendali. La memoria consente all’agente di mantenere il contesto delle interazioni passate e di apprendere dalle esperienze precedenti, migliorando progressivamente le sue prestazioni. L’elemento cruciale non è più solo la capacità di costruire sistemi avanzati, ma soprattutto la possibilità di integrare le soluzioni di Agentic AI nei processi aziendali in modo scalabile, governato e conforme alle normative emergenti.

La qualità del dato è un prerequisito tecnologico fondamentale per il successo degli agenti AI. Il vecchio mantra informatico “garbage in – garbage out” è oggi più attuale che mai: non importa quanto sia sofisticato l’algoritmo, tutto dipende dalla qualità e dalla sicurezza scientifica dei dati di ingresso. Dati scorretti producono risultati di nessun valore, a volte perfino pericolosi se portano a processi decisionali errati. La preparazione dei dati può richiedere fino all’80% del tempo in un progetto di data science, includendo attività come correzione di errori, gestione dei valori mancanti, rimozione di duplicati e armonizzazione dei formati. Per supportare efficacemente l’intelligenza artificiale, è necessario abbattere i silos di dati che impediscono di avere una visione d’insieme e limitano il potenziale dell’AI. Un’architettura dati abilitante per l’AI deve essere progettata per democratizzare l’accesso ai dati, facilitare la sperimentazione rapida e supportare il ciclo di vita completo dei modelli di machine learning.

Per creare un motore di ricerca basato su agenti AI per i dati aziendali, è necessario seguire alcuni passaggi fondamentali. Innanzitutto, occorre registrarsi alle API di un Large Language Model (LLM) esistente come ChatGPT, Claude o Gemini, ottenendo il token di autenticazione necessario per accedere alle funzionalità. La scelta del LLM deve considerare fattori come il costo, le differenze di pricing tra diverse versioni e la specializzazione del modello in base alle esigenze specifiche. Successivamente, si procede con l’addestramento del modello sui dati aziendali, inventariando il materiale digitale (documentazione, immagini, file di progetti) e definendo una pipeline di training che normalizzi i dati e li etichetti con label appropriate. Particolare attenzione va dedicata alla procedura di validazione per evitare over fitting. Infine, si sviluppa l’interfaccia utente del prompt, gestendo la logica per scomporre le richieste in token significativi e valutando la qualità del feedback da restituire all’utente, considerando sempre i costi dell’impiego di ulteriori chiamate alle API.

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati