Intelligenza ArtificialeAnthropic

Il copyright distruggerà l'IA? Il settore alle prese con la più grande causa mai intentata

di pubblicata il , alle 16:21 nel canale IA business Il copyright distruggerà l'IA? Il settore alle prese con la più grande causa mai intentata

Una class action intentata da tre autori preoccupa i creatori di Claude. Se venisse accolta, il rischio è quello di dover affrontare una causa da centinaia di miliardi di dollari. Che avrebbe un impatto devastante sull'intera industria dell'IA

 

L'industria dell'intelligenza artificiale si trova a un punto di svolta. E non perché sta arrivando l'AGI. Quello che potrebbe mettere in crisi il settore è, infatti, la legge, nello specifico quella sul copyright. Antrhopic è stata accusata da tre autori di aver utilizzato senza autorizzazione milioni di libri per addestrare il proprio modello di IA. Se dovesse venire sconfitta in tribunale, potrebbe dover pagare cifre astronomiche per il risarcimento. E la questione si estenderebbe a tutto il settore. 

Una class action che potrebbe coinvolgere 7 milioni di autori

Claude4_720

Come riporta Ars Technica, Anthropic è sotto accusa da tre autori, ma la class action potrebbe estendersi fino a includere potenzialmente sette milioni di autori, ciascuno dei quali potrebbe chiedere fino a 150.000 dollari di risarcimento. L'azienda potrebbe dunque trovarsi a dover pagare "centinaia di miliardi in poptenziali danni", come afferma un suo portavoce .

Riassumiamo brevemente la questione. Il 17 luglio il giudice federale William Alsup ha certificato una class action contro Anthropic: tre autori — Andrea Bartz, Charles Graeber e Kirk Wallace Johnson — potranno rappresentare gli scrittori statunitensi le cui opere sarebbero state scaricate da biblioteche pirata per costruire un archivio interno e, in parte, per addestrare i modelli dell’azienda, Claude. La decisione riguarda fino a 7 milioni di libri.

A fine giugno, lo stesso Alsup aveva emesso una decisione di merito “mista”: l’addestramento su libri acquisiti legalmente (ad esempio acquistati e poi digitalizzati) è stato ritenuto fair use; non lo è, invece, la creazione e conservazione di una libreria di copie pirata, che resta quindi al centro del contenzioso per violazione del copyright.

La certificazione di classe ha allarmato non solo Anthropic, che ha immediatamente fatto appello, ma anche una parte significativa dell’industria tecnologica statunitense. Tre importanti associazioni di categoria — Computer and Communications Industry Association, TechNet e Consumer Technology Association — sono intervenute con una memoria invocando una revisione. Secondo loro, la decisione di Alsup avrebbe trasformato una causa intentata da tre individui in un’azione di portata senza precedenti, con il rischio di esporre l’azienda a centinaia di miliardi di dollari di potenziali danni. La legge statunitense prevede infatti che per le violazioni volontarie del copyright si possano chiedere fino a 150.000 dollari per ciascuna opera.

La preoccupazione, spiegano le associazioni, è che la semplice minaccia di un’esposizione economica di questa scala spinga verso un accordo extragiudiziale prima che questioni giuridiche cruciali vengano chiarite in sede processuale. Il dibattimento è attualmente fissato per il 1° dicembre 2025, ma l’esito dell’appello potrebbe ridisegnare completamente la partita.

L'IA è davvero a rischio?

Difficile dire cosa accadrà, ma è innegabile che la questione del copyright è ormai centrale per lo sviluppo dell'IA. Non parliamo, infatti, di singole cause, già potenzialmente critiche, come per esempio quella intentata dal NY Times: parliamo di un'azione legale di proporzioni ben più ampie. Che potrebbe estendersi rapidamente all'intero settore dell'IA. Va anche detto che il problema, in questo specifico caso, non è l'uso di dati per l'addestramento, quanto il fatto che tali dati siano stati ottenuti in maniera impropria, scaricandoli da un sito pirata.  

Nelle prossime settimane l’attenzione sarà tutta sul Nono Circuito, che dovrà decidere se accogliere la richiesta di revisione della certificazione di classe. Da quella scelta potrebbe dipendere non solo il destino di Anthropic, ma anche l’equilibrio tra diritti d’autore e sviluppo dell’intelligenza artificiale negli Stati Uniti.

29 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Darkon11 Agosto 2025, 16:31 #1
In questo tipo di cause dovrebbero però mettere anche che nel caso la perdessero i tre autori dovrebbero dover pagare loro alla società chiamata in causa l'equivalente di quanto da loro chiesto.

Così, forse, una volta per tutte la si farebbe finita con questo patent trolling.
Alodesign11 Agosto 2025, 16:37 #2
Originariamente inviato da: Darkon
In questo tipo di cause dovrebbero però mettere anche che nel caso la perdessero i tre autori dovrebbero dover pagare loro alla società chiamata in causa l'equivalente di quanto da loro chiesto.

Così, forse, una volta per tutte la si farebbe finita con questo patent trolling.


Io da quando ho facoltà di lettura ho sempre comprato o mi hanno comprato libri.
Libri di letteratura, libri di scuola, libri sarcazzo.
Tra i libri comprati e quelli che ho "procurato" siamo al 95%.

Perché una società che sviluppa IA dovrebbe farlo gratis?
Darkon11 Agosto 2025, 16:40 #3
Originariamente inviato da: Alodesign
Io da quando ho facoltà di lettura ho sempre comprato o mi hanno comprato libri.
Libri di letteratura, libri di scuola, libri sarcazzo.
Tra i libri comprati e quelli che ho "procurato" siamo al 95%.

Perché una società che sviluppa IA dovrebbe farlo gratis?


Perché non stanno contestando che la società non ha comprato i libri. Ma vorrebbero esser pagati ogni volta che viene usata l'IA.

In pratica è come se ogni autore dei libri che te hai comprato e hai a casa ti dicesse per esempio:

Con il mio libro hai imparato le addizioni e quindi adesso ogni volta che fai una somma mi devi dare un tot.

È un po' diverso, non trovi?
wobbly11 Agosto 2025, 16:46 #4
Direi che è come se acquisti un DVD e usi questo per mostrarlo a chi ti paga un biglietto (o anche gratis). Non è permesso se non previo accordo con l'autore.
pachainti11 Agosto 2025, 16:49 #5
Speriamo sia la volta buona, la vedo dura vista la quantità di soldi "investiti" dai vari venture capital.
Darkon11 Agosto 2025, 16:53 #6
Originariamente inviato da: wobbly
Direi che è come se acquisti un DVD e usi questo per mostrarlo a chi ti paga un biglietto (o anche gratis). Non è permesso se non previo accordo con l'autore.


Non mi risulta che nessuna AI anche insistendo ti permetta di leggere un intero libro o un intero contenuto video.

Sotto questo punto di vista è più facile trovarne spezzoni su youtube o su qualche sito per il web.

Ripeto che qua nessuno parla di una riproduzione dei contenuti a quanto leggo nemmeno chi ha fatto la causa ma che sono usati per l'addestramento.

Né più né meno che come nell'esempio che ho fatto io sopra.

Non credo esista qualcuno di così sprovveduto da fare una IA che ripubblica interi libri come niente fosse.
Alodesign11 Agosto 2025, 17:06 #7
Originariamente inviato da: Darkon
Perché non stanno contestando che la società non ha comprato i libri. Ma vorrebbero esser pagati ogni volta che viene usata l'IA.

In pratica è come se ogni autore dei libri che te hai comprato e hai a casa ti dicesse per esempio:

Con il mio libro hai imparato le addizioni e quindi adesso ogni volta che fai una somma mi devi dare un tot.

È un po' diverso, non trovi?


Riassumiamo brevemente la questione Il 17 luglio il giudice federale William Alsup ha certificato una class action contro Anthropic: tre autori — Andrea Bartz, Charles Graeber e Kirk Wallace Johnson — potranno rappresentare gli scrittori statunitensi le cui opere sarebbero state scaricate da biblioteche pirata per costruire un archivio interno e, in parte, per addestrare i modelli dell’azienda, Claude. La decisione riguarda fino a 7 milioni di libri attribuiti in particolare a LibGen e PiLiMi.

A fine giugno, lo stesso Alsup aveva emesso una decisione di merito “mista”: l’addestramento su libri acquisiti legalmente (ad esempio acquistati e poi digitalizzati) è stato ritenuto fair use; non lo è, invece, la creazione e conservazione di una libreria di copie pirata, che resta quindi al centro del contenzioso per violazione del copyright.


Darkon11 Agosto 2025, 17:12 #8
Originariamente inviato da: Alodesign


Mah mi pare surreale che abbiano usato una libreria pirata. Ma poi una libreria pirata da 7 milioni di libri?

Comunque curioso di vedere come va a finire a questo punto.
zbear11 Agosto 2025, 17:18 #9
Originariamente inviato da: Darkon
In questo tipo di cause dovrebbero però mettere anche che nel caso la perdessero i tre autori dovrebbero dover pagare loro alla società chiamata in causa l'equivalente di quanto da loro chiesto.

Così, forse, una volta per tutte la si farebbe finita con questo patent trolling.


Certo, come no. QUINDI quando subisci un furto e denunci il ladro, d'ora in poi, ci sarà la legge "Darkon" per cui se perdi per qualsiasi motivo devi ASSOLUTAMENTE pagare un importo uguale al rubato ai ladri .... GENIALE, chissà come mai nessun esimio giurista ci ha pensato prima???
zbear11 Agosto 2025, 17:20 #10
Originariamente inviato da: Darkon
Non mi risulta che nessuna AI anche insistendo ti permetta di leggere un intero libro o un intero contenuto video.

Sotto questo punto di vista è più facile trovarne spezzoni su youtube o su qualche sito per il web.

Ripeto che qua nessuno parla di una riproduzione dei contenuti a quanto leggo nemmeno chi ha fatto la causa ma che sono usati per l'addestramento.

Né più né meno che come nell'esempio che ho fatto io sopra.

Non credo esista qualcuno di così sprovveduto da fare una IA che ripubblica interi libri come niente fosse.


Problemi a leggere l'italiano??
"Va anche detto che il problema, in questo specifico caso, non è l'uso di dati per l'addestramento, quanto il fatto che tali dati siano stati ottenuti in maniera impropria, scaricandoli da un sito pirata. "

COPIE PIRATA, quale parte non ti è chiara? Il fair use è già stato approvato.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^