AI ed etica: la priorità è mitigare i rischi e assicurare la compliance

Era il novembre del 2021 quando l’Unesco annunciava l’adozione del primo testo mondiale sull’etica dell’intelligenza artificiale, ratificato dai 193 Paesi membri dell’organizzazione delle Nazioni Unite. Le tecnologie dell’AI “possono rendere grandi servizi all’umanità” e “tutti i Paesi possono beneficiarne”, ma “sollevano anche preoccupazioni etiche di fondo”, recitava il testo, raccomandando uno sviluppo e un uso dell’AI fondato sui valori di “rispetto, protezione e promozione dei diritti dell’Uomo, diversità ed inclusione, promozione delle società pacifiche e dell’ambiente”. A tre anni di distanza, nella piena esplosione delle tecnologie di intelligenza artificiale, inclusa quella generativa, le questioni dell’etica restano centrali per un’adozione dell’intelligenza artificiale sostenibile.

Infatti, a settembre di quest’anno, la Commissione europea ha firmato la convenzione quadro del Consiglio d’Europa sull’AI e i diritti umani, la democrazia e lo Stato di diritto, primo strumento internazionale giuridicamente vincolante sull’intelligenza artificiale, pienamente compatibile con il diritto dell’Unione e, in particolare, con l’AI Act. La convenzione include una serie di concetti chiave già presenti nella legge dell’UE sull’argomento, tra cui l’AI antropocentrica, l’approccio basato sul rischio, i principi per un’intelligenza artificiale affidabile (trasparenza, solidità, sicurezza, governance e protezione dei dati), la trasparenza per i contenuti generati dall’AI e nelle sue interazioni con i sistemi e la supervisione umana. La convenzione sarà attuata nell’UE mediante l’AI Act, rafforzandone l’attenzione ai rischi.

Le imprese italiane sono consapevoli degli impatti a tutto campo dell’intelligenza artificiale e della necessità di attuare metodologie e processi per garantire il rispetto dei principi etici nell’AI, anche se la maturità delle strategie non è elevata. La Trustworthy AI Survey 2023 realizzata da Deloitte Italia, in collaborazione con ABI Lab e la Società Italiana per l’Etica dell’Intelligenza Artificiale SIpEIA, rivela che le aziende hanno investito soprattutto nel garantire la privacy (58%) e la sicurezza (52%) e molto meno nella trasparenza, nella spiegabilità (19%) e nella fairness (13%) dei sistemi AI. Tuttavia, nel 2024, l’avvento della GenAI e l’entrata in vigore dell’AI Act hanno contribuito a creare un approccio più strutturato, soprattutto nelle grandi aziende.



Source link

Leave a Comment