- Trump taps Sriram Krishnan for AI advisor role amid strategic shift in tech policy
- Interpol Identifies Over 140 Human Traffickers in New Initiative
- 5 network automation startups to watch
- 4 Security Controls Keeping Up with the Evolution of IT Environments
- ICO Warns of Festive Mobile Phone Privacy Snafu
6 difficili questioni sull’intelligenza artificiale che ogni leader IT deve affrontare
A tal fine, Perez valuta i progetti di IA come farebbe con altri progetti realizzati con tecnologie meno pubblicizzate, collaborando con i team per valutare il caso d’uso, le esigenze di governance, i benefici aziendali previsti e i ritorni attesi.
“Non si può diluire l’impegno su progetti che non forniranno alcun valore”, aggiunge Perez. “Quindi scegliete quelle poche aree chiave in cui potete vedere il valore e il grande valore aggiunto che l’intelligenza artificiale può fornire all’azienda e puntate su quelle, concentratevi su quelle, imparate da quelle ed espandetevi in altre aree via via che imparate”.
3. Che cosa possiamo, ragionevolmente, ottenere con risorse limitate?
Dopo l’esplosione dell’IA generativa, Nicholas Colisto, vice president senior e CIO della multinazionale Avery Dennison, si è impegnato per far sì che la sua azienda ne abbracciasse il potenziale.
“L’IA esiste da molto tempo”, spiega, “ma quando il suo sottoinsieme generativo è esploso, all’inizio del 2023, molte aziende, compresa la nostra, i nostri dirigenti hanno detto di no perché volevano essere certi che ci fossero delle linee guida per proteggere lei, i suoi dati e il suo personale”.
Per superare questi ostacoli, Colisto ha lavorato per educare i leader sulle capacità e sui rischi dell’IA, cercando di portare l’azienda dal “no al sapere”. I suoi sforzi sono stati ripagati e, da allora, Avery Dennison è passata all’ideazione, alla sperimentazione e alla produzione di intelligenza artificiale.
Tuttavia, riconosce di aver dovuto mitigare lo slancio in avanti con una serie di controlli sulle risorse.
“Ho dovuto ricordare alle persone che con l’IA non c’era una nuova disponibilità di denaro”, dice Colisto, aggiungendo che alcuni pensavano erroneamente che le pratiche di finanziamento di lunga data dell’azienda non si applicassero alle iniziative legate all’intelligenza artificiale. “La gente pensava che l’IA fosse diversa in termini di investimenti da parte delle imprese; pensava che le aziende avessero tutti questi fondi per l’IA. Ma non ne sento molte dire che rinunceranno ai loro cicli di investimento per dedicarsi all’IA”.
Altri CIO affermano che anche loro stanno avviando conversazioni sui limiti di denaro, talento e tempo.
“Il talento è un problema, in questo momento”, dichiara Sreekanth Menon, vice president e responsabile dei servizi globali di IA/ML presso la società di servizi di trasformazione aziendale Genpact. “Le aziende hanno bisogno di un tipo di talento diverso per lavorare con l’IA. Hanno bisogno di una massiccia riqualificazione o di nuovi talenti. E tutti stanno cercando di lavorare con i loro partner per costruire un ecosistema [di talenti IA]. Ma tutto questo richiede tempo”.
Molte imprese risentono della carenza dei talenti giusti. Lo studio Microsoft/IDC ha rilevato che il 52% degli intervistati ha indicato la mancanza di lavoratori qualificati come il principale ostacolo all’implementazione e alla scalabilità dell’intelligenza artificiale.
I CIO ricordano ai colleghi che i loro team IT hanno anche altro da fare. “Abbiamo cicli di progetto normali. Abbiamo progetti regolari in cantiere. Non avremmo abbandonato tutto per l’IA”, precisa Colisto.
Piuttosto che discutere su questi punti, i Chief Information Officer dicono di ricondurre le conversazioni alle priorità aziendali.
“Chiediamo alle nostre unità di business di identificare le idee che si allineano con gli obiettivi strategici e di parlare dei costi di tali idee, dell’efficienza dei costi o dell’impatto di generazione dei ricavi di tali idee, e della fattibilità del raggiungimento di tali traguardi”, evidenzia Colisto. “Con l’intelligenza artificiale, abbiamo ancora bisogno delle unità aziendali per identificare i programmi più validi. Abbiamo centinaia di casi d’uso in tutte le funzioni principali e stiamo finanziando quelli che hanno una priorità elevata”.
4. Lo stato attuale delle nostre operation sui dati può fornire i risultati che cerchiamo?
Un altro argomento spinoso che i CIO devono affrontare con i loro colleghi: i problemi di qualità dei dati aziendali che ostacolano le loro ambizioni di IA.
Un sondaggio, condotto nel 2003 su oltre 1.500 professionisti e decisori in materia di intelligenza artificiale [in inglese] da S&P Global Market Intelligence per il produttore di piattaforme dati WEKA, ha rilevato che la gestione dei dati è l’ostacolo tecnologico più frequentemente citato per le implementazioni di IA e ML. Analogamente, il rapporto 2023 US AI Risk Survey Report della società di servizi professionali KPMG [in inglese], ha rilevato che l’integrità dei dati è al primo posto tra i tre principali rischi, seguita dalla validità statistica e dall’accuratezza del modello.
La questione dei dati è molto attuale e, spesso, sono gli stessi CIO a dire: “Se non la risolvete, non otterrete i risultati che desiderate”, racconta Krishna Prasad, Chief Strategy Officer e CIO di UST, una società di soluzioni per la trasformazione digitale.
Prasad dice di aver sentito questa conversazione nella propria impresa e nelle aziende clienti della società.
I Chief Information Officer sostengono che si tratta di una discussione particolarmente difficile perché in genere non sono responsabili dello stato dei dati aziendali; tutto ciò che possono fare è condividere le loro osservazioni e contribuire a elaborare i rimedi.
D’altro canto, affermano anche che i loro appelli ad agire di più sulla qualità dei dati, oggi stanno ottenendo una maggiore attenzione, proprio grazie all’IA. “L’intelligenza artificiale sta elevando la questione sui dati, perché questi ultimi, per l’azienda, sono ora più critici che mai”, sottolinea Perez di Salesforce.
5. Qual è la nostra propensione al rischio e come la affrontiamo?
I rischi e i problemi di sicurezza legati alle iniziative di IA dominano anche molte delle conversazioni che i CIO hanno con i loro colleghi e con i team esecutivi. Ed è per una buona ragione: le aziende hanno visto i loro dati proprietari e protetti dalle normative confluire in strumenti di IA aperti, come ChatGPT. Hanno visto l’IA fornire risposte distorte e risultati completamente falsificati (noti come AI hallucination). E hanno ottenuto risultati che non sono in grado di autenticare o convalidare, a causa della mancanza di spiegazioni.
“Ci sono esempi a destra e a manca di persone che utilizzano questa tecnologia in modi che mettono a rischio se stessi e la propria azienda senza rendersi conto di farlo”, spiega Crawford.
I CIO sottolineano che bloccare l’uso dell’IA non è la soluzione. Vietarne l’uso non la fermerà, perché è probabile che alcuni dipendenti continuino a sperimentarla [in inglese]. Inoltre, i produttori di software aziendali stanno incorporando l’IA [in inglese] nei prodotti e nei servizi che vendono, quindi l’intelligenza artificiale sta entrando comunque in azienda. Inoltre, vietarne o limitarne l’uso per paura dei rischi svantaggia l’azienda rispetto ai concorrenti che stanno portando avanti iniziative di intelligenza artificiale.
Crawford e altri sostengono che i Chief Information Officer devono portare questi punti sul tavolo. I CIO devono anche seguire le discussioni legislative sulle possibili regolamentazioni e capire in che modo avrebbero un impatto sull’agenda dell’IA della loro impresa.
“È una conversazione difficile da affrontare per i CIO, i quali incoraggiano l’innovazione ma allo stesso tempo cercano di proteggere i dati dei clienti e la proprietà intellettuale, perché se non stanno attenti a ciò che dicono, possono apparire come persone contrarie o non favorevoli a questa nuova tecnologia e alle persone che lavorano intorno a loro”, aggiunge Crawford.
6. In che modo la nostra strategia IA affronta i problemi etici?
Amanda Crawford, executive director del Texas Department of Information Resources e CIO dello Stato del Texas, afferma di parlare dei parametri etici e accettabili sull’uso dell’IA nell’ambito delle sue conversazioni sulla presenza della tecnologia all’interno dell’amministrazione statale.
“Non vogliamo essere all’avanguardia; non è qualcosa che aspiriamo a fare, a causa degli obblighi e delle responsabilità che derivano dall’essere il governo. Questo si verifica con altre tecnologie emergenti, e questo è certamente vero per una tecnologia dirompente come l’IA”, dichiara l’esperta. “Quindi il ritmo con cui ci muoviamo nel governo è un po’ più lento, è un po’ più ponderato, intenzionale e deliberato perché deve esserlo, data la natura di ciò che facciamo. Dobbiamo mantenere la fiducia”.
Questo non significa che lo Stato del Texas non utilizzi l’IA, dice Crawford. Infatti, come molti enti privati, l’amministrazione statale del Texas ha implementato chatbot, automazione e sistemi intelligenti in tutte le sue operation, e sta studiando dove l’IA generativa e altre tecnologie IA più recenti potrebbero essere utilizzate.
“Ma le riflessioni che stiamo facendo riguardano, soprattutto, le problematiche di carattere etico e relative alla privacy, e gli obblighi che abbiamo nel governo per i diritti costituzionali e i diritti di privacy dei nostri elettori. Questi aspetti devono essere presi in considerazione nelle nostre decisioni”, spiega Crawford.
Per esempio, potrebbero essere incentrate sul fatto che alcuni compiti devono essere svolti dagli esseri umani piuttosto che da sistemi intelligenti a causa della legge, delle politiche pubbliche, delle best practice o delle aspettative dei cittadini.
“Spesso mi accorgo che, in qualità di CIO, è mio compito porre queste domande”, aggiunge Crawford, aggiungendo che lei e molti altri leader IT dello Stato del Texas stanno cercando “una leadership a livello esecutivo e legislativo che ci aiuti durante l’implementazione”.
Crawford e gli enti governativi non sono gli unici a interrogarsi sui parametri etici dell’IA.
I Chief Information Officer stanno parlando con i colleghi dirigenti delle loro responsabilità nel caso in cui i loro sistemi di intelligenza artificiale producano bias o hallucination, precisa Prasad dell’UST. Parlano di come poter tracciare e spiegare i risultati dell’IA e di cosa dovrebbe accadere se non ci riuscissero.
“L’IA consente di fare ogni genere di cose, ma la domanda è se si vuole davvero farlo. È un argomento che richiede una discussione con il team esecutivo e persino con il consiglio di amministrazione”.