L’intelligenza artificiale (IA) sta diventando un tema sempre più rilevante a livello globale, con applicazioni come ChatGPT – Gemini che hanno portato l’IA sotto i riflettori del grande pubblico.
La Svizzera, riconosciuta come un hub dell’innovazione, si trova di fronte all’opportunità, ma anche alla sfida, di affrontare temi giuridici legati all’IA, come la trasparenza e la tracciabilità delle decisioni automatizzate con un approccio originale.
Sebbene non esista ancora una legislazione globale in materia, l’IA è una priorità nel programma legislativo del Consiglio federale per il periodo 2023-2027, con l’obiettivo di definire un approccio normativo che possa essere armonizzato con le iniziative internazionali come la Convenzione del Consiglio d’Europa e l’EU AI Act.
Quali novità?
Il Consiglio federale ha deciso, durante la sessione del 12 febbraio 2025 a Berna, di ratificare la Convenzione del Consiglio d’Europa sull’intelligenza artificiale e di adeguare il diritto svizzero di conseguenza.
Tale iniziativa mira a sfruttare il potenziale dell’IA per rafforzare la Svizzera come polo economico e d’innovazione, mantenendo al contempo i rischi per la società al minimo.
Le modifiche legislative saranno principalmente settoriali – ad esempio nel settore della salute o dei trasporti – e integrate da misure non vincolanti, come accordi di autodenuncia.
Il DFGP (Dipartimento federale della giustizia e della polizia), con la collaborazione del DATEC (Dipartimento dell’Ambiente, dei Trasporti, dell’Energia e delle Comunicazioni), del DFAE (Dipartimento Federale degli Affari Esteri) e del DEFR (Dipartimento federale dell’economia, della formazione e della ricerca) è stato incaricato dal Consiglio Federale per presentare, entro fine 2026, una proposta di avanprogetto sull’IA e le correlate misure complementari.
Quali documenti sono stati pubblicati a supporto della decisione del Consiglio Federale?
1) Regolamentazione dell’intelligenza artificiale: analisi della situazione attuale
Si tratta, a cura del DATEC e del DFAE, di un’analisi dei quadri normativi sull’IA in 20 paesi che evidenzia approcci regolatori molto vari. La valutazione si basa su cinque criteri: contenuto, applicazione al settore pubblico e privato, ambito d’intervento, stato di attuazione e strutture di governance.
Alcuni paesi, come Brasile, Canada e Corea del Sud, adottano modelli basati sul rischio, ispirandosi all’EU AI Act, mentre Israele, Giappone e Singapore preferiscono regole meno vincolanti per favorire l’innovazione.
I paesi influenzati dall’UE tendono a soluzioni orizzontali, mentre altri come il Regno Unito seguono linee settoriali secondo i principi OCSE. Quasi tutti regolano sia il settore pubblico che quello privato, ma solo l’UE e la Corea del Sud hanno adottato strumenti legalmente vincolanti.
Un limite dell’analisi è che risale a prima della revoca, da parte del nuovo Presidente Trump, dell’ordine esecutivo sull’AI di Biden, il che porta ad una minore attenzione ai rischi (diretti e indiretti); infatti l’ordine esecutivo abrogato richiedeva agli sviluppatori di sistemi IA potenzialmente rischiosi di condividere i risultati dei test di sicurezza con il governo federale prima del loro rilascio pubblico.
2) Rapporto del gruppo interdipartimentale per l’intelligenza artificiale al Consiglio federale
Una valutazione d’impatto settoriale del 2023 che ha raccolto le opinioni di numerosi dipartimenti e uffici specializzati sulla necessità di adeguamenti legislativi per gestire l’impatto dell’IA. I settori analizzati includono energia, trasporti, finanza, sicurezza pubblica, controllo delle frontiere, cultura, media, salute, statistica, amministrazione e proprietà intellettuale.
Pur emergendo sfide specifiche, le preoccupazioni comuni riguardano trasparenza, spiegabilità, protezione dei dati e rischi di discriminazione.
Sebbene si apprezzi il quadro normativo tecnologicamente neutrale della Svizzera, l’80% dei dipartimenti ritiene insufficiente un approccio esclusivamente settoriale.
Per questo, si propone un modello trasversale che affronti le questioni comuni, integrato da misure settoriali specifiche dove necessario, come nel caso del settore finanziario, in cui le linee guida FINMA del dicembre 2024 sono affiancate dagli sforzi del Segretariato di Stato della Finanza Internazionale.
Cosa hanno suggerito al Consiglio Federale e quale approccio è stato scelto ?
Il documento sull’analisi della situazione ha suggerito 3 approcci regolatori:
1) Approccio settoriale: Il Consiglio Federale non introduce nuove misure, lasciando agli uffici specializzati l’adeguamento delle normative. Tale strategia rischia però di creare incoerenze e lacune nella gestione delle sfide trasversali.
2) Ratifica della Convenzione sull’IA del Consiglio d’Europa:
- Opzione a): Implementazione minima, limitata al settore pubblico.
- Opzione b): Implementazione estesa, applicabile a settore pubblico e privato.
In entrambi i casi occorrerà un coordinamento a livello federale per uniformare l’approccio.
3) Ratifica sia della Convenzione che dell’EU AI Act: Riconoscendo l’accordo di mutuo riconoscimento Svizzera-UE, questo approccio richiederebbe un adeguamento normativo ampio. Quest’ultima soluzione comporterebbe il maggior onere normativo per la Confederazione elvetica.
Con la sessione del 12 febbraio ’25 il Consiglio Federale ha optato per il secondo approccio.
In particolare, il Consiglio Federale ha ratificato la Convenzione sull’IA del Consiglio d’Europa, con l’obiettivo di integrarla nel diritto svizzero e applicarla principalmente al settore pubblico (Opzione a).
Verranno introdotte anche regolamentazioni trasversali limitate in settori chiave per i diritti fondamentali, come la protezione dei dati, pur mantenendo il più possibile gli adeguamenti legislativi di natura settoriale.
Parallelamente, saranno sviluppate misure non vincolanti – quali codici di condotta di settore o best practice – a supporto dell’implementazione della Convenzione.
I prossimi passi
Come anticipato sopra, il prossimo step prevede la redazione di un avanprogetto, da completare entro la fine del 2026, che enfatizzerà trasparenza, protezione dei dati, non discriminazione e supervisione umana, affiancato da un piano di misure complementari non vincolanti.
Il Consiglio Federale ritiene che questo approccio sia equilibrato e garantisca un quadro giuridico più robusto, capace di accompagnare lo sviluppo rapido e il potenziale dell’IA.
Temi aperti
EU AI ACT e aziende svizzere: l’EU AI Act ha effetto extraterritoriale e si applica anche alle imprese svizzere quando intendono immettere sul mercato europeo prodotti o servizi basati su intelligenza artificiale, oppure quando i sistemi sviluppati in Svizzera vengono utilizzati all’interno dell’UE.
Questo implica che, anche se il quadro normativo svizzero per il settore privato dovesse rimanere “light”, le aziende che operano sul mercato europeo dovrebbero conformarsi ai rigorosi standard comunitari. In particolare saranno tenute a rispettare elevati requisiti in termini di trasparenza, sicurezza, analisi dei rischi e tutela dei diritti fondamentali.
Ruolo dell’IFPDT: L’Incaricato federale della protezione dei dati e della trasparenza (IFPDT) ha chiarito che l’attuale legge federale sulla protezione dei dati (LPD) si applica direttamente al trattamento dei dati basato sull’intelligenza artificiale e scelta automatizzata quindi, al ruolo di sorveglianza dell’IFPDT e dei Garanti cantonali si aggiungeranno altri dipartimenti o agenzie per settori particolari come quello bancario (es. FINMA).
Sarà quindi necessario far chiarezza su questi temi di competenza in tema di sorveglianza e di notifica di eventi avversi (es. violazione delle informazioni).
Articolo a cura di LabCode