È sotto gli occhi di tutti il fatto che le performance delle soluzioni di AI e AI generativa migliorano con un ritmo repentino. Anche il mondo dell’innovazione, come quello frequentato dai CIO e già abituato a ritmi di evoluzione accelerati, sgrana gli occhi di fronte ai passi avanti che queste tecnologie sono in grado di compiere, software dopo software, rilascio dopo rilascio.
Non c’è alcun trucco o effetto mediatico, è una realtà con cui fare i conti da tanti punti di vista. Anche tenendo conto che questo stupefacente progredire pesa sui costi che i modelli utilizzati comportano ogni volta che imparano e diventano sempre più bravi.
Ospite dei Digital360 Awards tenutisi in concomitanza con il CIOSumm.it, Claudia Angelelli, Senior Manager Solution Engineering di VMWARE, sceglie di soffermarsi su questo aspetto dell’AI per mettere in luce le sfide che le aziende si trovano ad affrontare.
“L’aumento della precisione delle risposte che sistemi come ChatGPT riescono a fornire col passare dei mesi è fortemente legato al numero di parametri di training utilizzati. Va quindi considerato un costo di elaborazione sempre più elevato. Per ChatGPT 3 si trattava di 4,6 milioni dollari, per ChatGPT 4 si parla di 20 dollari al mese – spiega dal palco di Lazise – sono costi da gestire, se si vogliono utilizzare questi modelli e beneficiare delle loro performance”.
Di fronte a questo dato di fatto, chi “importa” innovazione all’interno delle aziende si può e si deve porre il problema. Come assorbire nelle proprie infrastrutture questi costi da big tech? Una criticità per cui non esiste una risposta univoca e che si unisce a quelle legate alla privacy e alla riservatezza dei dati: da dove arrivano e dove finiscono quelli con cui si effettua il training?
Distribuite su tre livelli – compliance, sicurezza e performance – le sfide dell’AI richiedono il coraggio di soluzioni innovative e “di parte”, come quella scelta da VMWARE per continuare a supportare le aziende. “Grazie a un accordo con Nvidia, abbiamo previsto una soluzione di private AI, per offrire la possibilità di inserire nella propria infrastruttura, privata o ibrida, modelli pre-trained. È il modo per accedere ai vantaggi competitivi dell’AI, rispettando le esigenze interne di security, compliance e costi” spiega Angelelli. Si tratta di una architettura basata su un approccio open source che permette di inserire modelli pre-addetsrati per poi effettuare in azienda “l’ultimo miglio di fine tuning, fondamentale per evitare errori”. Una scelta che vuole tenere conto sia delle ambizioni che dei timori di CIO e aziende, soddisfacendo anche il desiderio di VMWARE stessa di “cavalcare le opportunità offerte dall’AI” racconta Angelillo, indicando l’AI privata come la strada più adatta, sicura e responsabile. Pochi sono coloro che non annuiscono di fronte a questo messaggio future ready ma anche future-proof.