2025

AI Act: le prime disposizioni entrano in vigore il 2 febbraio 2025.

AI Act: Entrata in vigore delle prime disposizioni

Gianpaolo Todisco - Partner

Il 2 febbraio 2025 segna una tappa fondamentale per l’AI Act, con l’entrata in vigore delle prime normative a livello dell’Unione Europea. Questo regolamento introduce un quadro giuridico armonizzato per tutti gli Stati membri, imponendo regole comuni a chi sviluppa, commercializza o utilizza sistemi di intelligenza artificiale nell’UE. L’obiettivo principale è ridurre la frammentazione normativa, tutelando i diritti fondamentali sanciti dall’articolo 1 e promuovendo un mercato interno conforme alla Carta di Nizza.

Soggetti coinvolti

Le nuove disposizioni riguardano principalmente due categorie:

• Sviluppatori e fornitori di intelligenza artificiale, che devono garantire la conformità dei propri sistemi ai criteri stabiliti dall’AI Act prima della loro commercializzazione.

• Utenti finali e organizzazioni operanti in settori regolamentati, obbligati a rispettare le norme previste, soprattutto per le applicazioni classificate ad alto rischio.

Obblighi chiave per aziende e organizzazioni

A partire dal 2 febbraio 2025, le imprese e le organizzazioni che utilizzano l’intelligenza artificiale devono adeguarsi a due principali obblighi:

1. Divieto di pratiche di intelligenza artificiale a rischio inaccettabile

L’AI Act adotta un approccio basato sulla classificazione del rischio, suddividendo i sistemi di AI in quattro categorie:

• Rischio minimo: sistemi come filtri anti-spam, privi di restrizioni normative.

• Rischio limitato: applicazioni come i chatbot, soggette a obblighi di trasparenza.

Alto rischio: sistemi utilizzati in settori critici (sanità, giustizia, valutazione del personale), sottoposti a rigorose misure di conformità e monitoraggio.

Rischio inaccettabile: pratiche vietate a partire dal 2 febbraio 2025.

Le pratiche proibite includono:

• Manipolazione subliminale o ingannevole, ovvero sistemi che influenzano il comportamento senza consenso.

• Sfruttamento delle vulnerabilità di gruppi specifici, come minori o persone con disabilità.

• Social scoring, sistemi di valutazione della reputazione basati su dati personali, con effetti discriminatori.

• Identificazione biometrica in tempo reale in spazi pubblici, salvo eccezioni specifiche.

• Riconoscimento delle emozioni in contesti sensibili, come lavoro e istruzione.

• Creazione di banche dati biometriche mediante scraping, ovvero la raccolta non autorizzata di dati biometrici online.

Le aziende devono assicurarsi di non adottare queste pratiche nei propri prodotti e servizi. Le violazioni possono comportare sanzioni fino a 35 milioni di euro o il 7% del fatturato annuo globale, a seconda dell’importo maggiore.

1. Obbligo di alfabetizzazione sull’AI

L’articolo 4 dell’AI Act impone a imprese e pubbliche amministrazioni di fornire formazione adeguata sul funzionamento e sui rischi dell’intelligenza artificiale. Questo obbligo si estende anche a chi, pur non operando direttamente nel settore tecnologico, utilizza l’AI nei propri processi.

• Le misure richieste includono:

• Programmi di formazione per i dipendenti sulle opportunità e sui rischi dell’AI.

• Linee guida interne per l’uso responsabile dell’intelligenza artificiale.

2. Sensibilizzazione su implicazioni etiche e legali dell’AI.

L’AI Act si applica non solo ai fornitori stabiliti nell’UE, ma anche a quelli extraeuropei i cui sistemi vengano utilizzati nel territorio dell’Unione.

Tappe successive e nuovi obblighi

L’implementazione dell’AI Act avverrà gradualmente, con scadenze chiave nei prossimi anni.

3. Agosto 2025

Entreranno in vigore disposizioni specifiche sulla governance dell’AI e sugli obblighi per i modelli di intelligenza artificiale di uso generale. Le aziende dovranno:

• Mantenere una documentazione dettagliata su test e sviluppo dei sistemi.

• Adottare procedure standardizzate per garantire la sicurezza lungo il ciclo di vita del sistema.

• Effettuare valutazioni periodiche di conformità.

Il mancato rispetto di queste disposizioni comporterà sanzioni significative.

4. Agosto 2026

L’AI Act sarà pienamente operativo e si applicherà a tutti i sistemi di intelligenza artificiale, inclusi quelli classificati ad alto rischio. Le organizzazioni dovranno adottare ulteriori misure, tra cui:

• Valutazioni d’impatto per identificare e mitigare i rischi.

• Monitoraggio continuo per rilevare anomalie nei sistemi di AI.

Conclusione

L’AI Act rappresenta un passo cruciale nella regolamentazione dell’intelligenza artificiale in Europa, garantendo uno sviluppo tecnologico sicuro e rispettoso dei diritti fondamentali. Le aziende e le organizzazioni devono adattarsi progressivamente ai nuovi obblighi per evitare sanzioni e assicurare un uso etico e responsabile dell’AI.