News CH
20.5.2025
Intelligenza artificiale in Svizzera: tra impegni internazionali e rispetto delle norme esistenti
Nel marzo 2025, la Svizzera ha sottoscritto la Convenzione del Consiglio d'Europa sull'intelligenza artificiale, impegnandosi a garantire che lo sviluppo e l’utilizzo dell’IA rispettino i principi fondamentali dei diritti umani, della democrazia e dello Stato di diritto. In attesa della ratifica ufficiale, prevista dopo l’introduzione delle necessarie modifiche legislative, il Consiglio federale ha annunciato che le prime proposte concrete saranno messe in consultazione solo verso la fine del 2026.
Nel frattempo, non esiste nel Paese una normativa specifica sull’IA. Tuttavia, ciò non implica un vuoto legislativo. Gli attori coinvolti nello sviluppo e nell’uso di tecnologie intelligenti sono vincolati dalle leggi vigenti, in particolare dalla Legge federale sulla protezione dei dati (LPD), entrata in vigore nel settembre 2023. Questa legge, concepita in modo neutrale rispetto alla tecnologia, si applica anche ai sistemi basati sull’intelligenza artificiale.
L’Incaricato federale della protezione dei dati e della trasparenza (IFPDT) ha chiarito che tutti coloro che progettano, distribuiscono o utilizzano soluzioni basate su IA devono garantire fin dall’inizio trasparenza, tracciabilità e autodeterminazione digitale. È necessario informare in modo chiaro gli utenti su come e perché vengono trattati i loro dati, su quali basi e con quali obiettivi. Inoltre, devono essere riconoscibili le interazioni con sistemi automatizzati e l’eventuale impiego dei dati forniti dagli utenti per il miglioramento dei modelli.
Gli utenti hanno anche il diritto di opporsi a trattamenti automatizzati e di richiedere l’intervento umano in caso di decisioni che li riguardano direttamente. Questi diritti si estendono anche all’uso di software che manipolano volti, voci o immagini identificabili: il loro impiego deve essere chiaramente segnalato, salvo nei casi in cui risulti già vietato dal diritto penale.
L’uso dell’IA in situazioni a rischio elevato è ammesso, ma subordinato all’adozione di misure protettive adeguate, tra cui una valutazione preventiva dell’impatto sulla protezione dei dati. Al contrario, sono vietate le applicazioni che compromettono la privacy e la libertà informativa delle persone. Tra le pratiche esplicitamente escluse vi sono il riconoscimento facciale in tempo reale su larga scala e i sistemi di monitoraggio sociale simili al “credito sociale”, diffusi in alcuni regimi autoritari.
Coming soon Aprile 2020
resta informato
È online il corso interattivo sulla nuova LPD
vai al sito