- How to use ChatGPT to summarize a book, article, or research paper
- Gemini Advanced users can now access Google's most experimental model
- You can turn your Instagram profile into a digital business card - here's how
- I test wearable tech for a living. These are my favorite products of 2024
- 自社のIT文化を破壊してしまう10の方法
Ecco come i CIO possono proteggere le informazioni di identificazione personale
Dati sintetici
I dati sintetici sono dati generati dal computer imitando quelli del mondo reale. Vengono spesso utilizzati per addestrare i modelli di machine learning e per proteggere i dati sensibili nel settore sanitario e finanziario. Possono generare rapidamente grandi quantità di dati e aggirare i rischi per la privacy.
Limitazioni: sebbene i dati sintetici possano aiutare ad addestrare un modello predittivo, coprono adeguatamente solo alcune possibili sotto-aree di dati del mondo reale. Ciò può comportare una perdita di precisione e compromettere le capacità del modello nella fase di inferenza. Inoltre, durante quest’ultima è necessario proteggere i dati reali, un aspetto del quale i dati sintetici non possono occuparsi.
Confidential computing
Il confidential computing è un approccio alla sicurezza che protegge i dati durante il loro utilizzo. Importanti aziende, tra le quali Google, Intel, Meta e Microsoft, si sono unite al Confidential Computing Consortium per promuovere i Trusted Execution Environments (TEEs), ambienti di esecuzione affidabili basati su hardware. La soluzione isola i calcoli in questi TEE per salvaguardare i dati.
Limitazioni: Il confidential computing richiede alle aziende di sostenere costi aggiuntivi per spostare i loro servizi basati sul ML su piattaforme che richiedono hardware specializzato. La soluzione, inoltre, è solo parzialmente esente da rischi. Un attacco del maggio 2021 [in inglese] ha raccolto e corrotto dati da TEEs basati sulla tecnologia Intel SGX [in inglese].
Sebbene queste soluzioni siano utili, i loro limiti diventano evidenti durante l’addestramento e l’implementazione dei modelli di intelligenza artificiale. La prossima fase della privacy delle PII dovrà essere leggera e integrare le misure e i processi di privacy esistenti, fornendo al contempo l’accesso a set di dati contenenti informazioni sensibili.
L’equilibrio tra la riservatezza delle PII e l’IA: una nuova classe di protezione
Quelli che abbiamo esaminato finora sono soltanto alcuni approcci recenti per salvaguardare le PII e per affrontare le sfide della nuova classe di consumatori di dati. Si tratta di un equilibrio in cui le PII non possono essere esposte all’IA, ma i consumatori di dati devono utilizzare quanti più dati possibile per generare nuovi casi d’uso e di generazione di valore. Inoltre, la maggior parte di queste soluzioni si occupa della protezione dei dati durante la fase di addestramento dell’intelligenza artificiale, senza offrire una risposta valida per la salvaguardia dei dati del mondo reale durante l’implementazione dell’IA.
In questo caso, abbiamo bisogno di una soluzione specifica per gestire questo equilibrio. Una di quelle che abbiamo utilizzato è Stained Glass Transform [in inglese], che consente alle aziende di estrarre istruzioni di ML dai dati proteggendoli, al contempo, dalla fuga di informazioni sensibili. La tecnologia sviluppata da Protopia AI è in grado di trasformare qualsiasi tipo di dato identificando ciò che i modelli di AI richiedono, eliminando le informazioni non necessarie e trasformando i dati il più possibile, pur mantenendo una loro quasi perfetta accuratezza. Per salvaguardare i dati degli utenti mentre lavorano sui modelli di IA, le aziende possono scegliere l’applicazione per migliorare l’addestramento e l’implementazione, ottenendo così previsioni e risultati migliori, e preoccupandosi meno dell’esposizione dei dati.
Inoltre, questa tecnologia aggiunge un nuovo livello di protezione per tutto il ciclo di vita del ML, sia per la formazione che per l’implementazione. In questo modo, si risolve una lacuna significativa, in cui la gestione della privacy rimaneva irrisolta durante la fase di inferenza ML per la maggior parte delle soluzioni, anche di ultima generazione.
L’ultima Gartner AI TriSM guide [in inglese] sull’implementazione e sulla gestione del Trust, dei Rischi e della Sicurezza nell’IA ha evidenziato lo stesso problema e la medesima soluzione. TRiSM guida le figure leader nel campo dell’analisi e i data scientist per aiutarli a garantire l’affidabilità, l’attendibilità e la sicurezza dell’IA.
Sebbene esistano diverse procedure per proteggere i dati sensibili, l’obiettivo finale è quello di consentire alle aziende di sfruttare al meglio i propri dati per alimentare l’IA.
Come scegliere la giusta soluzione
La scelta delle giuste soluzioni per la tutela della privacy è essenziale per vincere le sfide che riguardano ML e AI. È necessario, quindi, valutare attentamente ogni alternativa e selezionare quelle che completano, aumentano o si integrano meglio per soddisfare le vostre esigenze specifiche. Per esempio, i dati sintetici possono migliorare quelli del mondo reale, accrescendo le prestazioni dei modelli di IA, e possono essere utilizzati per simulare eventi rari che potrebbero essere difficili da studiare (vedi i disastri naturali), e per aumentare i dati del mondo reale quando sono limitati.
Un’altra soluzione promettente è il confidential computing, che può trasformare i dati prima del loro ingresso in un ambiente di esecuzione affidabile. Questa tecnologia costituisce un’ulteriore barriera, riducendo al minimo la superficie di attacco, e garantendo che i dati in chiaro non vengano compromessi anche qualora il TEE dovesse venire violato. Pertanto, scegliete le soluzioni di tutela della privacy che si adattano meglio alle vostre esigenze e massimizzate le prestazioni della vostra IA senza compromettere la privacy dei dati.
Per concludere
La protezione dei dati sensibili non è soltanto un problema tecnologico: è anche una sfida a livello aziendale. Via via che i nuovi consumatori di dati espandono le loro capacità di AI e ML, la protezione delle informazioni di identificazione personale (PII) [in inglese] diventa ancora più critica. Per creare modelli ad alte prestazioni che forniscano un valore corretto, dobbiamo massimizzare l’accesso ai dati e, contemporaneamente, salvaguardarli. Ogni soluzione per la tutela della privacy deve essere, quindi, valutata attentamente per risolvere le problematiche più urgenti dell’IA e del ML. In definitiva, dobbiamo ricordare che la riservatezza delle PII non riguarda solo la conformità e gli obblighi legali, ma anche il rispetto e la protezione della privacy e del benessere delle persone.