- Nile unwraps NaaS security features for enterprise customers
- Even Nvidia's CEO is obsessed with Google's NotebookLM AI tool
- Get these premium Sony Bravia home theater speakers for $500 off during Black Friday
- The best Black Friday soundbar and speaker deals: Save on Bose, Sonos, Beats, and more
- One of the best pool-cleaning robots I've tested is $450 off for Prime Day
Intelligenza artificiale e gen AI: i quattro elementi per passare al “next level”
Intelligenza artificiale in azienda: il primo punto è il trust
Diversi CIO sottolineano, infatti, che l’IA fornisce un suggerimento finale come esito di un “ragionamento” della rete neurale e, per il supervisore umano, non è sempre facile capire perché sia stato dato più peso a un fattore o a un altro. Ed è anche per questo che le aziende, anche grandi, spesso restano nella fase sperimentazione e prevedono l’affiancamento dell’essere umano al software.
“Mentre nella business intelligence la persona decide prima quale sarà la relazione causa-effetto tra i dati e la decisione finale, quindi, la si può considerare al cento per cento spiegabile, nell’IA la decisione è solo parzialmente informata, perché non si riesce a controllare del tutto la relazione causa-effetto. Di fatto si perde un po’ il controllo”, osserva Alessandro Di Maio, CIO di Farvima Medicinali, GDO del settore farmaceutico. “Per questo noi procediamo per gradi, con piccole implementazioni in cui verifichiamo l’affidabilità del sistema. Tuttavia, in generale, se l’IA ha lavorato sui big data è difficile che il risultato non sia affidabile”.
Il nodo è nella grande quantità di dati costantemente aggiornati, perché così il sistema si auto-alimenta, si corregge e si consolida.
Che cosa posso fare con l’IA? Molto più che analytics e business intelligence
Istat rileva che gli ambiti aziendali in cui vengono più spesso adottati sistemi di intelligenza artificiale sono relativi a processi di produzione, per esempio nel caso della manutenzione predittiva o del controllo qualità nella produzione (39,0%, fino al 52,5% nel settore manifatturiero), alla funzione di marketing o vendite, per esempio nelle funzioni di assistenza ai clienti o campagne promozionali personalizzate (33,1%, al 41,3% nel settore dei servizi), alla sicurezza informatica (23,7%, al 50,6% nel settore dell’energia) e alle attività di ricerca e sviluppo o innovazione per analizzare dati, sviluppare un prodotto o un servizio nuovo o significativamente migliorato (21,1%).
Molte imprese stanno sperimentando in questa direzione, riferisce Girardi. “L’IA si può usare nel sistema di controllo dei costi per l’acquisto delle materie prime, oppure per ottimizzare domanda e acquisti migliorando la gestione finanziaria e la cassa o, ancora, per la manutenzione predittiva degli impianti per evitare guasti e fermi, e per il controllo di qualità con la computer vision. Molte imprese la stanno applicando al servizio clienti con i chatbot o con la GenAI per il marketing”, evidenzia l’esperta.
Passare dalle sperimentazioni ai progetti concreti con l’IA implica, però, il fatto di avere “enormi competenze, non solo informatiche ma anche matematico-statistiche, e team dedicati”, secondo il CIO Di Maio.
Infatti, Farvima Medicinali già dall’anno scorso ha iniziato a lavorare su soluzioni di intelligenza artificiale insieme a un partner, un gruppo che ha, tra le sue affiliate, una società con competenze IT e IA.
Un primo sistema basato sull’IA sviluppato da Farvima (attualmente in fase di sperimentazione) suggerisce il pricing corretto per raggiungere l’obiettivo di margine sulle vendite sia in assoluto che in percentuale, complessivamente o per singola linea di prodotto. Questo sistema mette insieme e valuta i dati storici dell’andamento dei prodotti sul mercato e delle variazioni di prezzo e come risultato fornisce, per ogni articolo, un suggerimento di prezzo per la messa in vendita in un dato momento, in modo che il totale delle vendite permetta di raggiungere il margine indicato nell’obiettivo.
“Prima avevamo un sistema che usava tecniche di analytics, ma il sistema IA è molto più evoluto, perché si basa su molti più dati ottenuti con l’analisi”, evidenzia Di Maio. “Ogni dato va gestito con funzioni matematiche diverse e le variabili considerate sono più numerose, anche perché ogni articolo ha una gestione complessiva che costa e non dipende solo dai volumi”.
Come cambiano i chatbot
Un secondo prodotto IA di Farvima sviluppato col partner viene applicatoall’ottimizzazione del magazzino per evitare la rottura di stock. “L’ottimizzazione di un processo è una tipica area che trae vantaggio dall’intelligenza artificiale”, evidenzia Di Maio. “Il nostroobiettivo è provare a prevedere quanto venderemo usando un set di dati sia storici sia di contesto. Per esempio, date le condizioni meteo e la diffusione di una certa patologia in una precisa regione, l’IA ci aiuta a prevedere che tra un certo numero di giorni dovremo distribuire un certo numero di un preciso medicinale e ci indica quando e dove fare distribuzione. Oppure, ci evita di saturare il mercato nel momento in cui non è prevista una forte domanda”.
L’area della customer experience è un’altra applicazione naturale dell’intelligenza artificiale. Qui Farvima – sempre con un partner – sta integrando un chatbot rivolto al suo utente finale (il farmacista o il medico) per guidarlo in modo automatizzato verso operazioni quali il recupero di una fattura o di un foglietto illustrativo. Il chatbot capisce che l’utente ha chiesto un documento, lo cerca, lo collega al suo profilo e glielo manda via email o con messaggio sul dispositivo mobile. La prossima evoluzione sarà il riconoscimento vocale: l’utente chiamerà un numero al quale risponderà un bot in grado di capire ed evadere la richiesta.
“Il riconoscimento vocale di per sé è una tecnologia consolidata, ma qui occorre un passo in avanti: l’IA deve collegare la conversazione col cliente ad un’azione e il compito è tecnicamente diverso dal programmare l’intelligenza artificiale a compiere un’azione (come il download e l’invio di un documento)”, spiega Di Maio.
La base imprescindibile restano i big data, perché il machine learning ha bisogno di dataset molto estesi. Di Maio di Farvima procede svolgendo internamente le operazioni di data mining e normalizzazione dei flussi – ovvero, l’attività ETL (Extract-Transform-Load) – dal proprio database, mentre la parte vera e propria di IA, che usa il machine learning, il deep learning e le reti neurali per arrivare dai dati alla risposta, viene affidata al fornitore esterno.
Questa modalità che fa leva sulle partnership sta diventando comune nelle imprese italiane.
Le partnership e l’open innovation
Nel settore finanziario e assicurativo, per esempio, i modelli di ML, addestrati sui dati interni (e, spesso, anche su dataset forniti dai partner tecnologici), generano suggerimenti per le attività di vendita e consulenza tramite la product recommendation. Change Capital, che è un aggregatore digitale di soluzioni finanziarie per le Pmi, ha implementato un modello di apprendimento automatico per migliorare, in particolare, la gestione di due aree del suo business: la selezione dei prodotti e l’identificazione dei clienti. Il modello ML è stato creato dal suo partner tecnologico MetriksAI sui dati delle pratiche storiche di Change Capital e ha permesso un incremento del 27% del conversion rate sulle pratiche lavorate dagli account manager della fintech grazie alle raccomandazioni automatizzate sulle next best action, come spiega il CTO di Change Capital, Alessio Donati. A loro volta, questi prodotti per i suggerimenti alle attività di cross-selling e up-selling degli advisor hanno attratto l’interesse di istituti bancari tradizionali, come Banca Popolare di Cortona e Banca Valsabbina, che hanno delle partnership industriali con Change Capital, ne possiedono, rispettivamente, il 9,9% e il 9%, e ne implementano i prodotti tecnologici.
“I sistemi di raccomandazione, che automatizzano processi in molti casi ancora svolti manualmente, non rappresentano un semplice trend, bensì un cambio strategico nell’interazione con i clienti”, dichiara Donati. “Il ML ci ha portato risultati significativi in termini di business, perché gli algoritmi suggeriscono ai nostri advisor i prodotti da vendere alle aziende in base all’analisi dei dati. Un altro campo di applicazione, ovviamente, è quello della gestione del credit risk, sempre basato sull’analisi di dati storici”.
Perché l’IA Generativa è così “importante”?
I prodotti di GenAI rappresentano un ulteriore cambiamento nel panorama dell’intelligenza artificiale, sia dal punto di vista tecnologico che della cultura aziendale e della formazione professionale. Non dimentichiamo quel dato riportato all’inizio: ChatGPT ha conquistato 100 milioni di utenti in due mesi dal lancio e ciò è stato possibile grazie all’entusiasmo dell’adozione consumer, proprio come ha fatto il telefono cellulare, ma impiegandoci 16 anni (il telefono fisso 75 anni). Si tratta di un fenomeno spesso definito come democratizzazione dell’IT, per cui una tecnologia diventa strumento comune non solo sul lavoro, ma nella vita personale. Lo stesso telefono cellulare è stato, anni fa, protagonista di un trend simile ribattezzato Byod (Bring-your-own-device): le persone usavano il dispositivo personale (smartphone, tablet o laptop) pure in ufficio, con grande produttività e flessibilità, ma anche diversi grattacapi per l’IT (di sicurezza dei dati e gestione degli accessi).
Da questo punto di vista, la GenAI ha enormi potenzialità, evidenzia Girardi: le persone la usano già a livello consumer e molti progetti “sono facilmente integrabili in azienda e hanno un ritorno importante”.
Secondo Girardi, nell’intelligenza artificiale generativa un buon modo di procedere per i CIO è partire con un piccolo progetto (per esempio, come assistente nella scrittura dei contratti,nei messaggi dimarketing personalizzati, nel customer service o nella generazione di nuove idee di prodotto e design), dimostrare i benefici concreti che si ottengono e poi, eventualmente, estendere la sperimentazione.
“L’IA generativa è importante perché permette di sviluppare piccoli progetti con impatto in una/due funzioni e, da lì, crescere, diffondendo intanto la cultura dell’IA, mostrandone i rischi e i benefici”, sottolinea l’esperta.
Secondo Laveglia, “Quello che può accadere con la democratizzazione dell’IT è che, con i prodotti basati sui Large Language Model (LLM) scaricabili da Internet, questi modelli saranno usati facilmente dalle persone in azienda anche per singoli compiti del loro lavoro”.
Si tratta di task – come la generazione di testi e immagini – piccoli e insignificanti, se rapportati alle enormi capacità di questi modelli, ma che danno un significativo supporto al lavoro quotidiano, in modo accessibile e veloce anche se, non privo di rischi e costi.
L’explainability e gli altri rischi
Nella GenAI il rischio è noto a tutti: le hallucination, allucinazioni. I risultati completamente sbagliati sono possibili anche quando per l’addestramento si usano i dati interni.Al momento, il margine di inaffidabilità va dal 3% all’8% a seconda dei modelli utilizzati (ma dipende da chi effettua i test: alcune imprese riferiscono un range dal 5% al 27%). Per questo va usata in un dominio in cui la persona è competente: occorre sempre la verifica umana dell’output.
“L’IA non è una tecnologia completamente matura. Ci sono aspetti non ancora risolti e che, probabilmente, resterà difficile risolvere. Tra questi, il maggiore è l’explainability”, evidenzia Laveglia. “Per questo oggi è necessario porre dei vincoli agli impieghi di questi sistemi”.
“Gli elementi oscuri ci sono”, anche per Girardi, “e, infatti, l’AI Act europeo prevede, per i sistemi ad alto rischio, una certificazione basata su standard che l’Ue sta mettendo a punto e che definiranno la trustworthy AI (l’affidabilità dell’IA). Questi controlli aiuteranno a ridurre i rischi. Intanto la ricerca continua a investire per risolvere il nodo della spiegabilità e diverse startup stanno sviluppando dei framework per l’explainable AI”.
Anche le questioni di privacy e sicurezza sono aspetti che i CIO dovranno valutare per gli impatti sulla compliance e le attività di risk management. Come ogni tecnologia, anche i sistemi IA hanno delle falle e, teoricamente (ma non impossibile), un hacker potrebbe manomettere il modello e mandare in tilt la rete neurale, che a quel punto darebbe dei risultati incoerenti, se non tossici.
Tuttavia, non è qui che il CIO deve fissare lo sguardo. “Trattandosi di strumenti molto complessi occorre una policy per gestirli. Ma l’attenzione tende a rivolgersi più verso i timori che in direzione delle grandi applicazioni industriali”, osserva Girardi. Invece, prosegue l’esperta, “La paura non è giustificata: l’IA è un insieme di strumenti sviluppati dall’essere umano e tali restano. Sì, prendono le decisioni in modo autonomo, ma è l’essere umano ad addestrare i modelli e a decidere le finalità. I rischi sono nella catena del valore: se l’addestramento dell’intelligenza artificiale usa dati non corretti o discriminatori, se i test sono condotti in modo inadeguato o se gli utilizzi delle persone hanno finalità malevole, allora l’IA è nociva. Ma lo è per responsabilità dell’uomo”.
Come procedere? I quattro passi fondamentali
In un progetto di intelligenza artificiale ci sono vari elementi coinvolti: per questo le imprese sono caute e prevedono tanti test di validazione. Il primissimo punto di partenza, però, secondo Laveglia, è “ontologico”: capire il problema e se è risolvibile.
“Se non può risolverlo l’essere umano, difficilmente potrà risolverlo la macchina: il modello non fa magie, ma automatizza dei compiti”, afferma il ricercatore.
Poi ci vogliono i dati rilevanti per l’attività che si intende svolgere, e ciò si ottiene con il feature engineering, o estrazione del contenuto informativo dai dati grezzi per supportare l’addestramento. Dai dati dipende l’addestramento che possiamo fare e il modello che useremo. Ovviamente, più il problema è complesso più servono dati.
Infine, va sviluppata l’architettura di ML, per esempio il tipo di rete (o reti) neurale e quindi definirne la struttura (numero di strati, funzioni di attivazione eccetera).
Non c’è una formula uguale per tutti, ma, in linea generale, Laveglia suggerisce quattro passi fondamentali: analizzare il problema, raccogliere i dati, sviluppare il Proof of Concept (PoC) e, se questo è valido, procedere con la messa in opera, ovvero estendere il dataset, creare il modello più grande e perfezionarlo.
E ora la grande domanda: quanto mi costa l’IA?
Ed eccoci ora alla domanda che il finance e l’AD chiederanno sempre al CIO: mitigati i rischi e individuate le aree di applicazione più vantaggiose, quanto costa addestrare e implementare i modelli IA? Ci sono i costi dell’energia, ma c’è un altro costo che spesso viene dimenticato: i dati.
“Non è la tecnologia di per sé a costare”, evidenzia Laveglia. “I modelli più piccoli sono accessibili anche alle piccole imprese, mentre quelli molto grandi, ovviamente, richiedono investimenti importanti. Ma non è il lavoro ingegneristico di sviluppo del modello a pesare sulle finanze, bensì l’attività di raccolta, preparazione ed etichettatura dei dati. La fase di addestramento del modello è onerosa e questo aspetto non va sottovalutato, anche se, per abbattere i costi, si può fare il training con un partner e sul cloud; poi, una volta addestrato il modello, questo si può anche spostare su un server proprietario”.
Ma, anche qui ci sono delle distinzioni da fare: i prodotti off-the-shelf e as-a-service rendono le innovazioni più accessibili, ma a scapito delle personalizzazioni. Se un’azienda ha bisogno di portare l’IA su compiti specifici, occorrerà o lo sviluppo interno del modello o un’attività di fine-tuning su un modello di mercato.
“Anche sulla preparazione dei dati si può usare qualche scorciatoia, per esempio accedendo ai dataset online che, per tanti compiti, rappresentano un buon punto di partenza”, continua Laveglia. “Ma, se l’impresa ha delle necessità specifiche, occorre un dataset proprietario unito al fine-tuning su modelli grandi, con tanti Giga di Ram e schede grafiche. E questo significa che le necessità computazionali saranno molto maggiori”.
Insomma, si usa tantissima energia elettrica, anche con i modelli pre-addestrati e i LLM scaricati da Internet.
Il next level della competitività è nei dati e nelle persone
In definitiva, se un’azienda vuole essere davvero competitiva, non può trarre vantaggio dai dataset che si trovano sul mercato: “la differenza è nel dataset supervisionato, in-house, ovvero con dati privati e non aperti a tutti”, dice Laveglia.
“La base dei sistemi ML sono i big data e i data lake”, evidenzia anche Donati di Change Capital: “la capacità di apprendimento automatico si nutre di volumi molto grandi di dati non strutturati e di natura disparata da cui l’algoritmo ricava analisi e raccomandazioni”.
Lo stesso discorso vale per le competenze: se si usano modelli pre-addestrati e as-a-service non è necessario possedere figure specialistiche. Ma, per un’azienda che si basa sull’IT per generare valore, le competenze interne sull’IA sono un must.
Per questo è importante anche far passare un chiaro messaggio in azienda: l’intelligenza artificiale non sostituisce le persone e il loro lavoro, ma ne aumenta le capacità e le possibilità.