Intelligenza ArtificialeTutela privacy

New York Times contro OpenAI: l'editore minaccia azioni legali, e nel frattempo disabilita l'accesso al crawler di ChatGPT

di pubblicata il , alle 12:01 nel canale data New York Times contro OpenAI: l'editore minaccia azioni legali, e nel frattempo disabilita l'accesso al crawler di ChatGPT

Il quotidiano americano ha cercato invano di trovare un accordo con OpenAI per utilizzare gli articoli come base per addestrare ChatGPT. Dopo il fallimento delle trattative, il New York Times sta valutando di procedere per vie legali

 
20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
The_ouroboros22 Agosto 2023, 14:18 #11
Originariamente inviato da: Unrue
Dipende cosa fai con tastiera e mouse... Non pensare che sia così facile sostituire certi profili professionali.

Ti faccio un esempio molto semplice. Io sono un programmatore nel campo dell'HPC, ed uso ChatGPT regolarmente per suggerimenti. Fino a che lo usi per piccoli pezzi di codice funziona benissimo, è un modo anche per imparare nuovi approcci, ma come inizi a fargli generare roba più grande va a gambe all'aria. Non nel senso che non lo sa fare, nel senso che ti genera proprio codice sbagliato. Per quanto mi riguarda posso stare tranquillo ancora per un bel pò.


per un bel periodo direi, date le intrinseche allucinazioni di GTP3/4
Ago7222 Agosto 2023, 15:23 #12
Originariamente inviato da: Unrue
Per quanto mi riguarda posso stare tranquillo ancora per un bel pò.


Link ad immagine (click per visualizzarla)
cignox122 Agosto 2023, 16:28 #13
--Per quanto mi riguarda posso stare tranquillo ancora per un bel pò.

Sai benissimo che spesso queste cose seguono un progresso esponenziale e quello che *oggi* sembra fantascienza, tra 5 anni non lo sembrerá piú.

Personalmente, non nutro molte speranze... quelli che dicono "solo quelli scarsi perderanno il lavoro" devono solo aspettare la generazione di AI successiva. Quelli che dicono "solo chi non tratta con i clienti" idem.
Si deve solo sperare che ci sia un limite (economico, tecnologico) che impedisca a quello che ora sembra un trend esponenziale di crescere fino a diventare seriamente un rischio (e ricordiamo che giá oggi lavori sono stati persi per queste AI).
cignox122 Agosto 2023, 16:30 #14
@Ago72

XD verissimo XD
Il problema é che a quel punto ne basta solo uno, quello che interpreta il volere del cliente e lo descrive formalmente alla AI. Gli altri 10 che servivano per implementare la soluzione non serviranno piú...
sbaffo22 Agosto 2023, 19:20 #15
Originariamente inviato da: Ago72
E se queste persone domani smettono di produrre contenuti in quanto non conveniente, cosa accadara'? Come si terranno aggiornate le AI? Le implicazioni sono tali e varie che la risposta è molto complicata.
Spero proprio che succeda questo, se tutti gli editori si mettono d'accordo per bloccare i robots delle IA queste lentamente "moriranno di fame", o perlomeno non saranno più aggiornate e diventeranno obsolete.
In teoria potrebbero chiedere di pagare anche per quello che hanno già "succhiato", ma poichè ormai è impossibile "estrarlo" le IA andrebbero azzerate e riaddestrate da zero (altri articoli ne hanno parlato come un'eventuialità seria). Sai che risate.
h.rorschach22 Agosto 2023, 19:52 #16
Le direttive specificate nel robots.txt non sono legge, sono un invito e sta al crawler decidere se rispettarle o meno (spoiler: non le rispettano). Il NYT può chiedere per favore ai crawler di OpenAI di non sifonare contenuti, ma se ne sbattono e possono farlo comunque. Oltretutto, le vacche sono scappate dal recinto sin dal 2021: il corpus è già stato formato ed utilizzato.
sbaffo22 Agosto 2023, 20:02 #17
Originariamente inviato da: h.rorschach
Le direttive specificate nel robots.txt non sono legge, sono un invito e sta al crawler decidere se rispettarle o meno (spoiler: non le rispettano). Il NYT può chiedere per favore ai crawler di OpenAI di non sifonare contenuti, ma se ne sbattono e possono farlo comunque. Oltretutto, le vacche sono scappate dal recinto sin dal 2021: il corpus è già stato formato ed utilizzato.
Ma se c'è paywall il crawler non viene bloccato come tutto il resto? come fa a bypassarlo se non paga? (scusa l'ignoranza)
Io sapevo che gli permettevano di passare per risultare nei motori di ricerca, non che fosse impossibile bloccarli.
h.rorschach22 Agosto 2023, 20:15 #18
Originariamente inviato da: sbaffo
Ma se c'è paywall il crawler non viene bloccato come tutto il resto? come fa a bypassarlo se non paga? (scusa l'ignoranza)
Io sapevo che gli permettevano di passare per risultare nei motori di ricerca, non che fosse impossibile bloccarli.


Basta che OpenAI cambi l'User-Agent del crawler a qualcosa di consentito, i.e.: il crawler di Google, Bing, Yandex, o qualunque altra cosa.
mrk-cj9427 Agosto 2023, 21:05 #19
Originariamente inviato da: agonauta78
I giornalisti sono tra le prime figure che presto scompariranno .si dovranno inventare un altro lavoro


magari
mrk-cj9427 Agosto 2023, 21:06 #20
Originariamente inviato da: Ago72


Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^