Skip to main content

L’industria dell’intelligenza artificiale si trova a un punto di svolta. E non perché sta arrivando l’AGI. Quello che potrebbe mettere in crisi il settore è, infatti, la legge, nello specifico quella sul copyright. Antrhopic è stata accusata da tre autori di aver utilizzato senza autorizzazione milioni di libri per addestrare il proprio modello di IA. Se dovesse venire sconfitta in tribunale, potrebbe dover pagare cifre astronomiche per il risarcimento. E la questione si estenderebbe a tutto il settore. 

Una class action che potrebbe coinvolgere 7 milioni di autori

Come riporta Ars Technica, Anthropic è sotto accusa da tre autori, ma la class action potrebbe estendersi fino a includere potenzialmente sette milioni di autori, ciascuno dei quali potrebbe chiedere fino a 150.000 dollari di risarcimento. L’azienda potrebbe dunque trovarsi a dover pagare “centinaia di miliardi in poptenziali danni“, come afferma un suo portavoce .

Riassumiamo brevemente la questione. Il 17 luglio il giudice federale William Alsup ha certificato una class action contro Anthropic: tre autori — Andrea Bartz, Charles Graeber e Kirk Wallace Johnson — potranno rappresentare gli scrittori statunitensi le cui opere sarebbero state scaricate da biblioteche pirata per costruire un archivio interno e, in parte, per addestrare i modelli dell’azienda, Claude. La decisione riguarda fino a 7 milioni di libri.

A fine giugno, lo stesso Alsup aveva emesso una decisione di merito “mista”: l’addestramento su libri acquisiti legalmente (ad esempio acquistati e poi digitalizzati) è stato ritenuto fair use; non lo è, invece, la creazione e conservazione di una libreria di copie pirata, che resta quindi al centro del contenzioso per violazione del copyright.

La certificazione di classe ha allarmato non solo Anthropic, che ha immediatamente fatto appello, ma anche una parte significativa dell’industria tecnologica statunitense. Tre importanti associazioni di categoria — Computer and Communications Industry Association, TechNet e Consumer Technology Association — sono intervenute con una memoria invocando una revisione. Secondo loro, la decisione di Alsup avrebbe trasformato una causa intentata da tre individui in un’azione di portata senza precedenti, con il rischio di esporre l’azienda a centinaia di miliardi di dollari di potenziali danni. La legge statunitense prevede infatti che per le violazioni volontarie del copyright si possano chiedere fino a 150.000 dollari per ciascuna opera.

La preoccupazione, spiegano le associazioni, è che la semplice minaccia di un’esposizione economica di questa scala spinga verso un accordo extragiudiziale prima che questioni giuridiche cruciali vengano chiarite in sede processuale. Il dibattimento è attualmente fissato per il 1° dicembre 2025, ma l’esito dell’appello potrebbe ridisegnare completamente la partita.

L’IA è davvero a rischio?

Difficile dire cosa accadrà, ma è innegabile che la questione del copyright è ormai centrale per lo sviluppo dell’IA. Non parliamo, infatti, di singole cause, già potenzialmente critiche, come per esempio quella intentata dal NY Times: parliamo di un’azione legale di proporzioni ben più ampie. Che potrebbe estendersi rapidamente all’intero settore dell’IA. Va anche detto che il problema, in questo specifico caso, non è l’uso di dati per l’addestramento, quanto il fatto che tali dati siano stati ottenuti in maniera impropria, scaricandoli da un sito pirata.  

Nelle prossime settimane l’attenzione sarà tutta sul Nono Circuito, che dovrà decidere se accogliere la richiesta di revisione della certificazione di classe. Da quella scelta potrebbe dipendere non solo il destino di Anthropic, ma anche l’equilibrio tra diritti d’autore e sviluppo dell’intelligenza artificiale negli Stati Uniti.

FONTE: Il copyright distruggerà l’IA? Il settore alle prese con la più grande causa mai intentata | Hardware Upgrade

Lascia un commento