AI, responsabilità e governance: cosa devono sapere le aziende sulla legge italiana n. 132/2025

Il 10 ottobre 2025 è entrata in vigore la nuova legge italiana n. 132/2025 sull'intelligenza artificiale. L'Italia si posiziona come il primo Stato membro dell'UE ad adottare una legislazione nazionale completa che integra la legge quadro dell'UE sull'IA (Regolamento (UE) 2024/1689). Ciò segna una pietra miliare nell'approccio europeo alla governance dell'IA.

Sebbene la legge miri al coordinamento con il quadro normativo dell'UE, introduce principi giuridici e costituzionali tipicamente italiani, come ad esempio la protezione esplicita dell'integrità democratica.

Il fondamento della nuova legge promuove una visione dell'IA incentrata sull'uomo e antropocentrica. Questa posizione influenza direttamente la sfida più grande che le aziende devono affrontare oggi: la barriera della proprietà intellettuale ai contenuti generativi dell'IA.

La barriera della proprietà intellettuale: quando i contenuti generati dall'IA sono davvero un'“opera”

L'intervento più critico per le aziende che sfruttano le nuove tecnologie è la modifica della legge sul diritto d'autore italiano (L. 633/1941).  Questa disposizione affronta in modo definitivo lo status ambiguo dei risultati generati dall'IA generativa.

La legge conferma che un'opera creata “con l'ausilio di strumenti di intelligenza artificiale” è protetta solo se è “il risultato della creatività umana e riflette il lavoro intellettuale dell'autore”.

-> Questo chiarimento giuridico impone un onere probatorio fondamentale a tutti coloro che utilizzano sistemi di IA. I contenuti generati da un modello di IA che agisce in modo autonomo non potranno beneficiare della protezione del diritto d'autore ai sensi della legge italiana. In questo contesto, per “autonomo” si intende una situazione in cui il coinvolgimento umano è limitato a un semplice suggerimento. Il contributo umano deve essere sostanziale e creativo.

Il rischio di creare contenuti di valore commerciale che non siano protetti legalmente, e quindi non concedibili in licenza o indifendibili, è ora immediato e profondo.

La nuova due diligence: un mandato per la governance aziendale

L'approccio incentrato sull'uomo si traduce direttamente in maggiori obblighi per la governance aziendale e la gestione del rischio commerciale.

Il rischio aziendale

Il principio della “supervisione umana” è fondamentale. La legge stabilisce chiaramente che l'IA non può sostituire il potere decisionale finale dell'individuo. Si tratta di un fattore critico nella gestione della responsabilità amministrativa ai sensi del Decreto Legislativo n. 231/2001 (Modello 231).

Le aziende devono stabilire e documentare un protocollo di paternità umana (HAP). Tale protocollo deve tracciare in modo dimostrabile il ruolo creativo di un redattore umano o di un prompt nell'output finale assistito dall'IA. La mancata dimostrazione di questo processo significa che l'azienda non dispone di proprietà intellettuale protetta, esponendosi potenzialmente a responsabilità e fallimento commerciale.

La revisione contrattuale

Il cambiamento dello status della proprietà intellettuale richiede una revisione di tutta la documentazione commerciale correlata.

  • Cessione e licenza della proprietà intellettuale: i contratti commerciali esistenti devono essere immediatamente aggiornati. Ora devono definire esplicitamente e richiedere la documentazione del “lavoro intellettuale umano” che trasforma un output GenAI in un bene protetto.

  • Servizi professionali: per le professioni intellettuali, l'uso dell'IA è limitato alle attività strumentali e di supporto. I professionisti devono inoltre comunicare ai propri clienti quali sistemi di IA vengono utilizzati, il tutto in modo chiaro e comprensibile.

Specificità settoriale e futura attuazione

La legge n. 132/2025 introduce anche norme settoriali specifiche che segnalano le future aree di interesse normativo, anche se alcune disposizioni chiave rimangono delegate a futuri decreti esecutivi.

  • Finanza e assicurazioni: la legge conferisce al governo il potere di emanare decreti che definiranno il quadro giuridico per l'uso dei dati e degli algoritmi nel settore finanziario e assicurativo.  Ciò richiederà alle istituzioni di istituire una solida governance, audit e test dei sistemi di IA.

  • Occupazione: i datori di lavoro devono attenersi a rigorosi principi di sicurezza, affidabilità e trasparenza quando implementano sistemi di IA sul posto di lavoro e sono obbligati a informare i dipendenti del loro utilizzo.

Prossimi passi

La nuova legge italiana conferma che l'adozione dell'IA deve essere strategica, verificabile e conforme. L'era dell'uso passivo degli strumenti GenAI è finita; l'attenzione è ora rivolta alla governance, alla trasparenza e alla tracciabilità.