- How to detect this infamous NSO spyware on your phone for just $1
- I let my 8-year-old test this Android phone for kids. Here's what you should know before buying
- 3 lucrative side hustles you can start right now with OpenAI's Sora video generator
- How to use Microsoft's Copilot AI on Linux
- Protect 3 Devices With This Maximum Security Software
AI Act, via libera dall’Europarlamento: tutto quello che i CIO devono sapere
Tuttavia, anche i dati sintetici possono avere dei bias o altre distorsioni e resta essenziale che vi sia sempre un’adeguata supervisione umana e una governance dietro la raccolta e l’uso dei dati, di qualunque tipo e fonte.
C’è un ulteriore aspetto da considerare nell’addestramento dei modelli: l’aggiornamento dei dati, perché le informazioni cambiano e un dato può essere corretto oggi ma non domani.
Nell’AI Act, si parla anche di modelli GPAI (General Purpose AI, su cui si basa l’IA generativa) open-source. Questi sono stati esentati da alcuni requisiti di trasparenza, a condizione che rendano pubblici i loro parametri e le loro informazioni. Va detto, però, che questa esenzione non si applica ai modelli che presentano un rischio sistemico, e tutti devono comunque soddisfare gli obblighi relativi ai riassunti del contenuto utilizzato per l’addestramento e al rispetto delle leggi sul diritto d’autore.
Le competenze e la governance
Alcuni dei punti presenti nell’AI Act sono stati evidenziati anche dall’AI Manifesto pubblicato da Anitec-Assinform, associazione di Confindustria che rappresenta le imprese dell’ICT. Al governo italiano, per esempio, si chiede di spingere sui programmi di sperimentazione controllati, e di istituire sandbox regolamentari (lo prevede anche l’UE), a garanzia del fatto che le soluzioni siano sicure e all’avanguardia, e agevolino l’accesso delle PMI alle nuove tecnologie. Il Manifesto afferma anche che l’intelligenza artificiale non sostituirà le persone sul lavoro, ma le farà lavorare in modo diverso, mettendo anche l’accento sulla necessità di svolgere attività di formazione. Ma quali competenze servono, e chi se ne deve occupare?
“Le competenze sull’IA vanno trattate come soft skill e come un insieme di conoscenze trasversali”, afferma Alessandro De Nisco, professore ordinario di management e marketing presso l’Università degli Studi Internazionali di Roma (UNINT) e direttore del Dipartimento di Scienze umanistiche e sociali internazionali dello stesso ateneo. “Guardando la questione dal punto di osservazione universitario, le competenze dell’intelligenza artificiale dovrebbero entrare nei programmi di formazione di tutti gli indirizzi di studio e includere l’aggiornamento dei docenti. Questo implica che avremo una forza lavoro preparata a usare l’IA come strumento di lavoro in tempi non velocissimi, per cui, nel breve termine, sono le imprese a dover intervenire con i loro programmi di formazione”.
La vera sfida dell’intelligenza artificiale, infatti, osserva De Nisco, “non è lo sviluppo di applicativi, ma la riformulazione della propria organizzazione interna per inserire progressivamente questa tecnologia nell’architettura aziendale nel suo complesso, sapendo come si usa, e con quali limiti e rischi. La prima competenza oggi è saper verificare i dati e le informazioni generate dall’IA per qualunque processo aziendale, perché i rischi di output errati, datati o non etici potrebbero minare i suoi grandi vantaggi”.
Governance, linee guida e collaborazione inter-dipartimentale sono il must dell’IA in azienda e, se i CIO temono di non trovare sufficienti talenti IT, possono tenere presente che le competenze richieste sono così trasversali da poter attingere anche ai percorsi di studio adiacenti (da economia a fisica), fino a quelli (apparentemente) più distanti, come quelli umanistici e delle scienze sociali.
Le scadenze per la compliance
In base al testo finale dell’AI Act, i divieti su pratiche specifiche di intelligenza artificiale (come il social scoring) saranno applicati entro 6 mesi, le regole sui modelli GPAI entro 12 mesi (con 12 mesi aggiuntivi per i modelli preesistenti) e le normative per i sistemi IA utilizzati come componenti di sicurezza o che sono ad alto rischio entro 36 mesi mentre questi ultimi esistenti prima dell’applicazione dell’atto devono conformarsi solo se subiscono cambiamenti significativi nel design, mentre quelli utilizzati dalle autorità pubbliche hanno una finestra di conformità di 4 anni.