Attualità

AI generativa e aziende: serve un intermediatore fidato, agnostico e plurale

Sembra di chattare con un amico che non dice sempre la verità. Le soluzioni di AI generativa possono trarre in inganno ma non chi riesce ad approcciarle in modo pragmatico e prudente, con quella giusta dose di entusiasmo che non sfocia in incoscienza. È sempre la solita sfida legata a ogni innovazione: cogliere le opportunità, minimizzando i rischi. Questa volta, però, ci è richiesto di metterci in gioco e imparare a “parlare” con una tecnologia che ha già pervaso la quotidianità, se non aziendale, privata

Pubblicato il 21 Apr 2023

Intelligenza artificiale IoT virtual reality

Essere lucidi e concreti è quanto di più difficile, di questi tempi, di fronte all’intelligenza artificiale generativa. Soprattutto di fronte agli annunci e alle dichiarazioni che accompagnano l’emergere di questa tecnologia. Che sia la voglia di difendersi o la foga di non perdere l’opportunità e comparire tra gli early adopter, in entrambi i casi si tratta di reazioni “di pancia”. Atteggiamenti incompatibili con una robusta strategia di digital innovation continua che, con passi regolari e ben studiati, assicuri anche la business continuity. 

Oracolo e ambiente protetto: le illusioni pericolose

Al di là di come la si pensi, siamo tutti obbligati a fare i conti con l’AI generativa, anche e soprattutto come aziende, oltre che come privati cittadini. È necessario prendere una posizione in merito, ma prima di farlo, è bene conoscere i rischi che ciò comporta.

Prima di tutto bisogna imparare a non lasciarsi ingannare dalla sensazione di trovarsi in un ambiente protetto. “Strumenti come chatGPT, propongono la stessa UX di una chat tra amici. Ci inducono quindi a un approccio lasco, facendoci dimenticare che i dati che condividiamo con questi chatbot saranno utilizzati per affinare questi modelli AI. Il rischio è che ciò che viene inserito in un prompt venga ‘digerito’ in modo poco controllabile e poi riutilizzato in un modo altrettanto incontrollabile. I provider stanno cercando di evitare che accada ma, per ora, abbiamo a che fare con delle black box” spiega Andrea Cappelletti, Business Unit Director Digital Transformation & Hyperautomation di S2E.

Ciò significa, per esempio, che se si condividono con il chatbot i costi aziendali di un prodotto, per farsi aiutare in un business plan, gli stessi dati in futuro potrebbero venire condivisi con chi chiede informazioni sull’azienda, senza alcuna richiesta di consenso. Ciò significa anche che, se uno studio legale si fa aiutare regolarmente dall’AI generativa nel compilare pareri per i clienti, la tecnologia imparerà il suo stile e la sua strategia e sarà in grado di replicarla, anche in altri ambienti. 

Fuga di informazioni e “plagio”, quindi, a cui aggiungere anche le allucinazioni. “Per tutti i modelli finora sviluppati, c’è una certa percentuale di rischio che diano risposte scorrette, ma sintatticamente e grammaticalmente perfette. Se imboccano una strada basata su presupposti errati, a causa del rinforzo statistico, persistono nel proporla, soprattutto durante interazioni continue. Questo significa che non si ha mai la certezza di quello che l’AI generativa afferma. Non c’è mai la garanzia assoluta della sua veridicità” aggiunge Cappelletti.

Ambienti controllati e diffidenza, senza chiudere le porte all’innovazione

“Si consiglia di rileggere, evitando copia e incolla a cuor leggero”. Suona come un disclaimer, ma non è l’unica best practice che oggigiorno le aziende dovrebbero tenere presente. Ci sono accorgimenti importanti sia lato data protection che cybersecurity, fondamentali se si vuole “giocare col fuoco”, cercando di non bruciarsi. 

“In termini di protezione dei dati, sarebbe meglio puntare su soluzioni di AI generativa sviluppate per essere utilizzate in ambienti protetti e controllati come quelli proprietari dell’azienda stessa. Quelle che offrono API pubbliche, portano i dati fuori dal perimetro aziendale e viene a mancare la certezza della compliance sia al GDPR sia alle policy di data protection interne” spiega Cappelletti.

Molti provider stanno puntando proprio su questa strada, in modo che gli utenti B2B possano mantenere il controllo sui propri dati, evitando di affidarsi a soluzioni pubbliche. 

Per quanto riguarda la sicurezza delle soluzioni di AI generativa, invece, il consiglio di Cappelletti è di non farsi prendere dalla foga di adottare soluzioni pronte all’uso. “Su temi di cybersecurity meglio non bruciare le tappe. Senza farsi influenzare da dichiarazioni ‘rassicuranti’, è necessario badare che i dati non escano dal territorio italiano o europeo. Non si deve dimenticare che in USA e altrove, le regolamentazioni non sono compliance al GDPR” aggiunge Cappelletti, raccomandando pragmatismo e sostenibilità. Ciò significa anche non considerare l’AI generativa la nuova immancabile soluzione per ogni problema. Per molti task, i buoni “vecchi” modelli di machine learning, ben allenati, continuano a essere la via migliore per ottenere risultati soddisfacenti, con meno rischi. 

Intermediazione, per minimizzare rischi e complessità

Tolti i diffidenti a priori e gli entusiasti a ogni costo, la maggior parte delle persone si barcamena tra il desiderio di sperimentare e quello di non restare scottati. Proponendosi come “intermediatrice”, S2E mira a intercettare la spinta in avanti di questi potenziali utenti B2B, minimizzandone i rischi al contorno.

Nella pratica, tra le aziende e le soluzioni di AI generativa, inserisce uno “scudo”: la Generative Shield. “Si tratta di una piattaforma Saas con due mission: mitigare i rischi e le complessità legate a questa inesorabile ondata di innovazione” spiega Cappelletti. 

I contenuti scritti da chiunque all’interno dei prompt, per chi sceglie questa soluzione, vengono filtrati da un sistema che li categorizza. Una volta individuate le tipologie di informazioni presenti, all’azienda viene chiesto il consenso di condivisione, segnalando gli elementi potenzialmente più rischiosi e le frasi da sistemare. “È un modo anche per educare i singoli utenti a una maggiore consapevolezza dello strumento che stanno utilizzando. Man mano, possono imparare il migliore approccio a questa tecnologia, intanto l’azienda minimizza i rischi da subito” precisa Cappelletti. 

Generative Shield mira a supportare le aziende anche nella scelta tra le tante soluzioni proposte. Soprattutto non le obbliga a scegliere. Ciò significa che la piattaforma SaaS di S2E “si integra con i maggiori provider mondiali e si occupa di comprendere di volta in volta come fare prompt engineering, in base a vari intenti. E lo fa specificatamente per vari modelli. Ci occupiamo noi della parte di prompt engineering tecnica, manipoliamo ogni singolo prompt inserito dall’utente per ottimizzare i risultati” spiega Cappelletti.

L’atteggiamento scelto da S2E è agnostico, l’obiettivo è permettere alle aziende di poter usufruire di più modelli, di poter e saper scegliere il migliore per ogni intento. Dosando lucidità e concretezza, per permettere alle aziende un approccio ragionevole all’AI generativa, S2E sogna di sviluppare una propria proposta di modello. Sempre per aziende, sempre “educativo”. Ci sta già lavorando il suo team R&D: “l’idea è quella di riuscire ad analizzare i prompt inseriti, per riconoscere se sono presenti i punti chiave. Attraverso un meccanismo di scoring, vogliamo suggerire le migliorie, riducendo i tempi e velocizzando il ciclo di interazioni. Vogliamo insegnare all’utente a scrivere prompt in modo corretto e consapevole, sempre garantendo un approccio sicuro e plurale”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4