#IntelligenzaArtificiale

GEMA vs OpenAI: la sentenza che potrebbe cambiare il modo in cui l’IA usa le opere protette.

Gianpaolo Todisco - Partner

Il rapporto tra intelligenza artificiale e diritto d’autore è ormai al centro di un dibattito globale, ma fino a oggi mancava un’affermazione chiara da parte dei tribunali europei su una questione fondamentale: le piattaforme di intelligenza artificiale possono utilizzare liberamente opere protette per addestrare i propri modelli?
Con la recente decisione del Tribunale di Monaco nel caso GEMA vs OpenAI, questa domanda ha finalmente trovato una risposta. E non è affatto la risposta che le big tech speravano.

La causa nasce dalle accuse di GEMA, la principale collecting society tedesca, secondo cui OpenAI avrebbe utilizzato migliaia di testi di canzoni protetti dal diritto d’autore per alimentare i propri modelli senza ottenere alcuna autorizzazione. Non si tratta, quindi, degli output generati dall’IA, ma della fase più fondamentale del processo: l’addestramento. OpenAI, come molte altre società del settore, ha sempre sostenuto che questa fase sia puramente tecnica e che dunque non rientri nelle tradizionali categorie del diritto d’autore. Una posizione che ha trovato fino ad oggi un certo grado di tolleranza normativa, soprattutto perché il fenomeno era nuovo, sfuggente e difficilmente regolabile.

Il tribunale tedesco ha ribaltato questo paradigma in modo netto. La sentenza afferma infatti che il training di un modello linguistico costituisce a tutti gli effetti un atto di riproduzione dell’opera e che, di conseguenza, rientra nel perimetro del diritto esclusivo dell’autore. Il fatto che l’operazione sia eseguita da un algoritmo, in modo automatizzato e su larga scala, non cambia la sostanza giuridica dell’attività: se un testo viene copiato, memorizzato, analizzato o rielaborato all’interno di un dataset, quell’utilizzo deve essere autorizzato.

Non solo. Il giudice ha chiarito che in questo caso non si possono invocare le eccezioni europee sul text and data mining. La direttiva DSM aveva aperto margini importanti per la ricerca scientifica e, in alcuni casi, anche per gli usi commerciali, ma a una condizione essenziale: che l’autore non abbia manifestato la volontà di riservare i propri diritti. Molti dei testi rappresentati da GEMA, invece, includevano già una chiara indicazione di riserva. OpenAI, secondo il tribunale, avrebbe quindi dovuto accorgersene e attivarsi per ottenere le licenze necessarie.

Questa decisione appare destinata a segnare un passaggio epocale. Per anni i modelli di intelligenza artificiale sono stati costruiti alimentandosi con enormi quantità di dati reperiti online, spesso senza distinzione tra materiale libero e materiale protetto. Una prassi giustificata dalla complessità tecnica dei processi e dal fatto che nessuna normativa aveva mai realmente affrontato, in modo diretto, la questione. Oggi, però, quel “vuoto” inizia a colmarsi. E la sentenza di Monaco non lascia più spazio a interpretazioni troppo elastiche: utilizzare opere protette richiede una licenza, esattamente come accade per qualsiasi altro tipo di riproduzione.

Le conseguenze potenziali per il settore sono enormi. Le grandi società potrebbero essere chiamate a negoziare accordi di licenza su scala massiva con le collecting societies nazionali e internazionali, aprendo la strada a un mercato completamente nuovo di “AI royalties”. Allo stesso tempo, sarà inevitabile una maggiore trasparenza sui dataset utilizzati per l’addestramento, un tema che per anni è rimasto volutamente opaco. È possibile che in futuro le piattaforme siano tenute a indicare quali opere hanno utilizzato, con quali autorizzazioni e con quali limiti.

Per autori ed editori si tratta chiaramente di una vittoria importante. Per la prima volta un tribunale riconosce che il valore delle opere creative non si esaurisce nella loro fruizione pubblica, ma continua a esistere anche in un contesto inedito come l’addestramento di un’intelligenza artificiale. Questo potrebbe aprire spazi per nuove forme di remunerazione e per un maggiore controllo sull’uso dei contenuti nel mondo digitale.

Il caso GEMA vs OpenAI arriva inoltre in un momento in cui diverse corti europee stanno affrontando temi simili e in cui la Corte di Giustizia dell’Unione Europea è stata chiamata a pronunciarsi su questioni connesse. La sensazione è che ci troviamo all’inizio di una fase completamente nuova del diritto d’autore, in cui il concetto stesso di “riproduzione” dovrà essere reinterpretato alla luce delle tecnologie di machine learning.

Una cosa tuttavia è già chiara: il tempo in cui le IA potevano addestrarsi indisturbate utilizzando tutto ciò che trovavano online è finito. La decisione del Tribunale di Monaco segna l’ingresso del diritto d’autore nella stanza dei bottoni dell’intelligenza artificiale. E da qui in avanti, chi vuole sviluppare modelli sempre più potenti dovrà necessariamente fare i conti con autori, editori e collecting societies. Non è più solo un problema tecnico: è un tema giuridico, economico e culturale che definisce il modo in cui la creatività umana dialoga con quella artificiale.

Getty vs Stability AI: un processo storico sui diritti d’autore e l’intelligenza artificiale.

Gianpaolo Todisco

Il 9 giugno 2025 ha preso il via davanti alla High Court di Londra la causa di grande rilevanza giudiziaria tra Getty Images e Stability AI. Si tratta di una delle prime battaglie legali a livello mondiale sul tema dell’uso di materiale protetto da copyright per "addestrare" modelli di intelligenza artificiale generativa (come Stable Diffusion).

Le accuse di Getty

Getty sostiene che Stability AI avrebbe scaricato milioni di immagini dal suo archivio senza licenza, impiegandole per allenare Stable Diffusion. Le principali accuse comprendono:

  • Violazione del copyright, per uso non autorizzato di opere tutelate.

  • Violazione del marchio, poiché l’IA avrebbe generato immagini con il watermark di Getty.

  • Violazione di diritti su database, in quanto Getty rivendica diritti anche sul suo vasto archivio fotografico

La difesa di Stability AI

Stability AI, con sede a Londra, respinge le accuse. Argumenta che l’addestramento è avvenuto su server negli Stati Uniti, e quindi non soggetto alla giurisdizione britannica . Sostiene inoltre che il sistema favorisce innovazione creativa e libertà di espressione e che pochissime immagini generate somigliano davvero alle originali protette .

Impatto legale e culturale

Il processo durerà diverse settimane, con una decisione finale attesa più avanti nel 2025. Gli avvocati concordano sul fatto che questa sentenza potrebbe:

  • Definire i confini legali dell’uso di contenuti protetti nell’AI.

  • Influenzare le negoziazioni per licenze commerciali del materiale ai creativi .

  • Determinare l’attrattività del Regno Unito come hub per lo sviluppo dell’AI, in base al rigore delle tutele di copyright .

Evoluzione del contenzioso

Sul piano internazionale, Getty ha già intentato causa analoga negli Stati Uniti nel febbraio 2023, chiedendo danni fino a 1,7 miliardi di dollari per oltre 11.000 immagini. Recentemente, però, Getty ha rinunciato a una parte delle accuse di violazione diretta del copyright nel Regno Unito, concentrandosi su quelle secondarie e sui diritti di marchio .

Il contesto legale si arricchisce: parallelamente, in California, un giudice ha stabilito che l’addestramento dei modelli Anthropic su libri potenzialmente pirata non costituisce violazione di copyright . Tutto questo complica le prospettive dei creativi che cercano tutele legali per proteggere il loro lavoro.