Il punto del Garante Privacy Svizzero
Il 30 ottobre 2023, il Presidente degli Stati Uniti, Biden, ha firmato un ordine esecutivo importante per la regolamentazione dell’intelligenza artificiale (IA).
Parallelamente, il Parlamento europeo ha approvato il prosieguo del “AI Act”, una normativa europea sull’IA che dovrebbe essere varata nei primi mesi del 2024.
Il Comitato sull’IA del Consiglio d’Europa sta lavorando su un quadro normativo che include IA, diritti umani, democrazia e legge.
In Svizzera, si prevede di valutare diverse normative sull’IA entro fine 2024, con decisioni del Consiglio Federale in seguito; infatti, la Confederazione Svizzera segue un approccio settoriale per le leggi tecnologiche, che potrebbe evolvere in base alle esigenze future dell’IA.
L’Incaricato federale della protezione dei dati e della trasparenza (IFPDT) enfatizza in una nota del 9 novembre ’23 l’applicabilità della legge federale sulla protezione dei dati (LPD) all’IA, con enfasi sulla trasparenza e autodeterminazione digitale.
Produttori e utenti di IA devono garantire trasparenza nello scopo e nell’uso dei dati, e il diritto degli utenti a conoscere se interagiscono con una macchina.
La LPD autorizza il trattamento di dati basati sull’IA in scenari ad alto rischio con adeguate misure protettive, vietando però applicazioni che compromettono la privacy e l’autodeterminazione informativa, come il riconoscimento facciale autoritario e la sorveglianza dello stile di vita.
Per mappare efficacemente i sistemi di intelligenza artificiale (AI) all’interno di un’azienda, è necessario adottare un approccio metodico e sistematico.
Cosa possiamo fare come CPD | DPO su i sistemi AI?
Ecco alcuni passaggi chiave che come CPD|DPO dobbiamo introdurre nelle nostre organizzazioni:
Identificazione dei Sistemi AI Esistenti e Previsti: Iniziamo con un inventario completo dei sistemi AI attualmente in uso e di quelli previsti per l’implementazione futura. Questo include modelli di apprendimento automatico, sistemi di analisi dei dati, automazione dei processi e altre applicazioni AI.
Valutazione delle Fonti dei Dati: Identifichiamo le fonti di dati utilizzate dai sistemi AI. Comprendiamo da dove provengono i dati, come vengono raccolti, elaborati e archiviati è fondamentale per valutare la qualità e l’affidabilità dei sistemi AI.
Analisi dell’Impatto Operativo e Strategico: Valutiamo l’effetto di ogni sistema AI sulle operazioni aziendali e sugli obiettivi strategici. Analizziamo come ciascun sistema contribuisce alla produttività, all’efficienza, alla decisione e all’innovazione.
Esame della Conformità e dei Rischi Legali: Assicuriamoci che ogni sistema AI sia conforme alle normative locali (LPD) e internazionali sulla protezione dei dati, sulla privacy e su altri aspetti legali rilevanti. Identifichiamo eventuali rischi legali o di non conformità.
Valutazione dell’Affidabilità e dell’Etica: Assicuriamoci che i sistemi AI siano affidabili, equi e privi di pregiudizi. L’etica nell’uso dell’AI è cruciale per mantenere la fiducia del pubblico e dei clienti.
Verifica della Sicurezza e della Robustezza: Assicuriamoci che i sistemi AI siano sicuri contro gli attacchi informatici e che siano robusti contro gli errori di input o le condizioni impreviste.
Monitoraggio e Manutenzione: Stabiliamo procedure per il monitoraggio continuo delle prestazioni dell’AI e per la manutenzione regolare dei sistemi, compreso l’aggiornamento dei modelli e l’adeguamento alle nuove condizioni di mercato o aziendali.
Formazione e Sviluppo delle Competenze: Forniamo formazione adeguata ai dipendenti che utilizzano o gestiscono sistemi AI. Sviluppiamo competenze interne per la comprensione, il monitoraggio e l’ottimizzazione dell’AI.
Reportistica e Documentazione: Manteniamo una documentazione dettagliata dei sistemi AI, compresi i flussi di lavoro, le decisioni di progettazione e i registri delle prestazioni. Questo è vitale per la trasparenza e la responsabilità.
Come CPD | DPO ricordiamoci che la mappatura dei sistemi AI è un processo continuo.