OpenAIIntelligenza Artificiale

OpenAI ha creato uno strumento per individuare contenuti generati dall'IA. Ma potrebbe non renderlo pubblico

di pubblicata il , alle 16:55 nel canale data OpenAI ha creato uno strumento per individuare contenuti generati dall'IA. Ma potrebbe non renderlo pubblico

Uno strumento in grado di riconoscere testi generati dall'IA è stato sviluppato nei laboratori di OpenAI, ma non è detto che potremmo mai vederlo. L'azienda, infatti, non è ancora certa che lo renderà pubblico per evitare possibili problemi relativi alla disinformazione

 

Da quando ChatGPT è stato reso accessibile a tutti hanno iniziato a venire sviluppati diversi strumenti per capire se un testo era generato da un'intelligenza umana o da una artificiale. Strumenti che, a dire il vero, ancora oggi non sono particolarmente efficaci: in molti casi, infatti, hanno sostenuto che spezzoni di testi di autori classici fossero generati dalle macchine. O, al contrario, indicando come scritti da umani testi generati proprio dall'IA di OpenAI. La stessa OpenAI ne aveva reso pubblico uno, che è stato rimosso lo scorso anno proprio a causa della sua scarsa accuratezza. 

Come riporta TechCrunch, l'azienda guidata da Sam Altman afferma di aver realizzato uno strumento in grado di inserire una sorta di filigrana sui testi generati dai modelli di OpenAI. Ma non è detto che verrà reso pubblico. 

Watermarking dell'IA: è una buona idea?

Sulla carta, l'idea di inserire una sorta di filigrana sui contenuti generati dall'IA appare buona. Permetterebbe agli insegnanti di scoprire rapidamente gli studenti che "copiano" da ChatGPT senza applicarsi realmente, e potrebbe anche rivelarsi un valido strumento contro la disinformazione. La realtà, però, è differente, almeno nella visione di OpenAI. 

samaltma

Iniziamo col dire che lo strumento funzionerebbe in base a una modifica degli algoritmi di ChatGPT che cambierebbe leggermente le modalità con cui l'applicazione seleziona le parole. Lo strumento su cui è al lavoro l'azienda sarebbe in grado di individuare questi dettagli, riconoscendo quindi i testi creati dall'IA di OpenAI. E solo quella: non funzionerebbe con altri sistemi come Gemini o Claude. 

Tutto bellissimo, se non fosse che, come ammette la stessa azienda, per come funziona c'è il rischio che "qualche malintenzionato possa aggirarlo con facilità", come si può leggere sul blog di OpenAI.

E non è l'unico problema. Un simile strumento, infatti, rischierebbe di andare a creare problemi a chi non parla l'inglese come lingua madre, e che quindi probabilmente utilizzerebbe l'IA per tradurre frasi, col rischio che il proprio testo venga considerato generato da una IA. 

3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
+Benito+06 Agosto 2024, 11:32 #1
Dovrebbe essere obbligatorio che qualsiasi contenuto generato da IA sia identificato da un simbolo.
raxas06 Agosto 2024, 11:55 #2
Chi riconosce opinioni e pensieri condivisi dalle scimmie (sono queste che alimentano, anche, e in gran parte, la AI) non ha problemi ad identificare una produzione AI. Anche quando tutto è orto-fatto.
Anzi, più è perfetto più è probabile, oltre il 90%, che si è in presenza di AI scimmiesca, e se non è perfetto ci sono indicazioni che il non corretto, comunque da cestinare, per la validità, sia opera di AI.
+Benito+11 Agosto 2024, 15:47 #3
Adesso? Forse. Domani? Improbabile. Dopodomani? No.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^