Addio diritto d’autore? Forse sì, forse no. Da Usa, Gran Bretagna e Germania arrivano sentenze a volte diametralmente opposte in materia di IA, “text and data mining“, ovvero l’addestramento dei chatbot con i contenuti coperti da copyright. Il casus belli che spacca la direttiva 2019/790 è questo: se una app di IA riproduce solo per sé un’opera protetta da copyright mentre si sta «addestrando» a imparare come creare immagini o contenuti «suoi», chi ha fornito quell’immagine o quei testi vanta diritti?
Secondo l’Alta Corte di Londra no: a nulla valgono le pretese di Getty Images che ha accusato Stability Ai e il suo modello generativo Stable Diffusion di nutrirsi gratis di milioni di immagini provenienti dal suo archivio. Già è stato sostanzialmente impossibile dimostrare che lo sfruttamento avveniva su suolo britannico, come richiede il Copyright, Designs and Patents Act britannico datato 1988. Anche se fosse, copiare uno schema non è una «violazione secondaria» del copyright perché la piattaforma alla sbarra non ragiona in termini di archiviazione dei dati ma in generazione di contenuti «nuovi», gli basta guardarli senza scaricarli.
L’avvocato
Secondo l’avvocato Usa specializzato in copyright Evan Brown, l’IA generativa opera «in una zona grigia dal punto di vista legale, dato che lo stile non è esplicitamente protetto dal diritto d’autore».
Anche le immagini dei personaggi Disney generati sulla app Midjourney presto potrebbero essere vietate, le cause contro i colossi IA sono numerosissime, ma «come si fa a violare il diritto d’autore sostenendo che si fa un giro sul web a copiare dati?», si è chiesto Brown.
In Germania l’anno scorso il tribunale di Amburgo, nel caso di una no profit che aveva copiato la foto di un importante fotografo (Fondazione Laion vs Robert Kneschke), aveva chiarito i paletti previsti dall’articolo 3 della direttiva 2019/790 sul mercato unico digitale: si può «copiare» a patto che il soggetto abbia natura non commerciale, il text and data mining abbia «finalità scientifica» (nello specifico il dataset era pubblico e gratuito per la comunità accademica) e non ci sia lo sfruttamento commerciale dell’opera tutelata.
«L’IA sarà all’origine dell’ottava arte?», si chiedono Genséric Cantournet e Angela Pietrantoni, presidente e ad di Kelony che presenteranno un’app innovativa su opere d’arte e copyright al World Protection Forum del Principato di Monaco del prossimo 28 novembre all’Association des Jeunes de Monaco. Fa discutere a lungo la querelle tra ChatGpt e lo Studio Ghibli, partita nel marzo scorso, dopo che la piattaforma di IA è stata letteralmente inondata di richieste per riprodurre foto caricate dagli utenti in fotogrammi in stile Hayao Miyazaki. La ghiblificazione ha fatto infuriare i puristi seguaci del grande maestro giapponese e dello Studio Ghibli, il celebre laboratorio di animazione che ha creato capolavori come “La città incantata“ e “Porco Rosso“. Miyazaki continua a pretendere che molti fotogrammi vengano realizzati a mano, c’è una scena di “Si alza il vento“ del 2013 che dura 4 secondi ma che per essere disegnata costò all’animatore Eiji Yamamori un anno e tre mesi di lavoro. «È un insulto, non c’è futuro per le persone che adorano il futuro e dimenticano il passato», è stato l’amaro sfogo del creatore di fumetti giapponese.
La Germania
Qualche settimana fa invece la Gema (la Siae tedesca) è riuscita a far condannare OpenAi dal tribunale di Monaco per aver usato nove canzoni popolari protette da copyright nell’addestramento del Large Language Model di ChatGpt (il modello di machine learning che insegna alle macchine come comprendere e generare testo in linguaggio umano) senza pagare la licenza. Secondo i giudici tedeschi, usarle per addestrare l’intelligenza artificiale è stato come aver riprodotto fisicamente i testi, e questo basta a far scattare la tutela prevista dall’articolo 44b della legge sul diritto d’autore tedesca Urhg.Secondo il tribunale, OpenAi ha sostanzialmente «memorizzato» le nove canzoni e ha stabilito la generazione di testi di nove canzoni: «È irrilevante se si parli di archiviazione o copia dei dati di addestramento o, come sostengono i convenuti, se il modello rifletta nei suoi parametri ciò che ha appreso». Il tema non è la loro disponibilità in rete gratuita ma il loro sfruttamento senza consenso. «Se utilizzata con la giusta intenzionalità, l’IA diventa una formidabile fonte di creatività per nuove forme espressive – ricordano Cantournet e Pietrantoni – un dialogo interativo con una macchina è in grado di generare e far emergere sintesi statistiche non contemplabili “ad occhio nudo”, in una perfetta sinergia che unisce tecnologia e arte».
Gli Usa
Negli Usa c’è stata la sentenza Bartz contro Anthropic (che si è chiusa con una transazione), che ha spostato i termini della questione anche sulle fonti: si può addestrare un’intelligenza artificiale votata al Large Language Model se si acquisiscono legalmente i diritti, è illecito se la fonte del web scraping sono piattaforme illegali come BitTorrent o la decriptazione di siti che – a pagamento – custodiscono libri, canzoni e opere dell’ingegno. Anche per gli articoli di giornale vale la stessa «musica». Il New York Times e altri organi d’informazione hanno chiesto a OpenAi di consegnare 20 milioni di log anonimi delle conversazioni degli utenti del chatbot ChatGpt, perché per addestrare l’intelligenza artificiale sarebbero stati usati articoli di giornale protetti da diritto d’autore, ma il giudice Ona Wang si è opposto, ritenendo legittima la produzione dei chat log viste le garanzie di anonimizzazione e di protezione dell’anonimato degli utenti (e dei testi) fornite da OpenAi. Chi ha ragione?
Richieste
L’utente che chiede la privacy delle sue richieste o la testata che ha fornito gli articoli alla base della chat? La soluzione è il mercato, as usual. C’è chi suggerisce accordi di licenza tra app di IA, case discografiche e produttori di contenuti, c’è chi implora una governance europea dell’intelligenza artificiale che stabilisca un equilibrio tra proprietà intellettuale, libertà di espressione, libertà d’impresa e promozione della scienza ma soprattutto regole più ferree per l’eliminazione o la conservazione indefinita dei log (retention) da parte delle aziende di IA e di chi sfrutta il machine learning. Ma proprio sulla privacy la Ue sembra voler abbassare di fronte alle pretese delle società che addestrano l’IA: nel pacchetto di semplificazione normativa Omnibus digitale alcune disposizioni chiave dell’AI Act potrebbero essere congelate. «Immagino siano le disposizioni che riguardano i foundamental model, cioè le big tech AI – spiega al Giornale l’avvocato Cesare Del Moro, secondo cui «la definizione di dato personale diventa “relativa”, cioè un dato è personale solo se chi lo tratta può identificare la persona con mezzi ragionevoli a sua disposizione. È un’impostazione moderna – aggiunge il legale – ma così il perimetro cambia in base ai dataset e alle capacità del singolo operatore, con il rischio di valutazioni non uniformi». Allarme finora inascoltato.
Leggi anche:
Disney pagherà 10 milioni per chiudere l’indagine sulla violazione della privacy minorile
© Riproduzione riservata