OpenAI ha sviluppato un'intelligenza artificiale troppo potente per essere rilasciata

OpenAI ha sviluppato un'intelligenza artificiale troppo potente per essere rilasciata

OpenAI è riuscita a sviluppare un'Intelligenza Artificiale in grado di scrivere articoli, news e molto altro; è diventata però troppo potente, tanto che i ricercatori si sono rifiutati di renderla totalmente totalmente Open Source.

di pubblicata il , alle 09:01 nel canale Scienza e tecnologia
intelligenza artificiale
 

OpenAI è un'organizzazione no profit di ricerca sull'Intelligenza Artificiale che vuole promuovere e sviluppare un'intelligenza  amichevole nella maniera in cui l'umanità possa trarne beneficio. Viene fondata da Elon Musk nel 2015 con lo scopo di "collaborare liberamente" con altre istituzioni e ricercatori rendendo i suoi brevetti e ricerche aperti al pubblico.

Uno dei progetti che l'azienda sta portando avanti in questo periodo e quello riguardante a un'Intelligenza Artificiale progettata per scrivere testi come gli esseri umani. Questa nuova AI è stata chiamata GPT-2 e i ricercatori che si occupano dello sviluppo dichiarano di aver creato qualcosa di talmente intelligente da essere pericolosa se rilasciata totalmente al pubblico.

Esistono già Intelligenze Artificiali che si occupano della scrittura di testi, ma le troviamo specialmente in ambiti sportivi, dove il testo è spesso simile e quindi più semplice da scrivere per una "macchina". In questo caso però abbiamo davanti una Intelligenza che ha effettuato l'addestramento attraverso otto milioni di pagine web, più che sufficienti per apprendere i vari stili di scrittura degli esseri umani e concentrarli in un unico testo.

La potenza di questa AI potrebbe essere utilizzata male se resa totalmente pubblica, soltanto una parte del codice è stata pubblicata per permettere ad altri ricercatori di avere una base solida da cui partire. Infatti l'azienda ha dichiarato: "a causa delle nostre preoccupazioni sull'uso malevolo della tecnologia, non rilasceremo la versione addestrata dell'AI. Nell'ambito del nostro esperimento che mira a divulgare responsabilmente i modelli di AI, rilasceremo un modello ridotto per i ricercatori, per permettere loro di sperimentare e provare la tecnologia".

L'utilizzo sbagliato di questa nuova Intelligenza Artificiale può portare alla stesura di fake news, automatizzare la "produzione" di SPAM, automatizzare la produzione di contenuti abusivi sui social media o addirittura impersonare la gente online. Lo scopo per il quale questa Intelligenza Artificiale è stata realizzata è invece differente: può essere molto utile a migliorare gli assistenti di scrittura (trovare errori e suggerire correzioni più adatte), ad affinare un dialogo migliore con un essere umano (Google Duplex), a limitare gli errori durante la traduzione di testi e raffinare il riconoscimento vocale.

Un mondo nuovo e interessante quello dell'Intelligenza Artificiale che può essere anche rischioso se utilizzato nel modo sbagliato, ma utile e efficace se usato opportunamente per migliorare la nostra esperienza nel campo tecnologico. Bisogna avere sempre un occhio di riguardo quando navighiamo online; anche OpenAI ci mette in guardia avvertendoci di essere più attenti ai contenuti trovati sul web, in quanto sarà sempre più difficile distinguere il vero ed il falso.

Se volete approfondire il discorso, vedere alcuni esempi dell'Intelligenza Artificiale all'opera o consultare il codice vi rimandiamo al sito di OpenAI.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

44 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Orko218 Febbraio 2019, 09:14 #1
Che addestrino una IA altrettanto potente per riconoscere il vero dal falso
Paganetor18 Febbraio 2019, 09:18 #2
supermario18 Febbraio 2019, 09:28 #3
hanno solo detto di non rilasciare il modello già addestrato, ognuno se lo può addestrare da se
Luke197318 Febbraio 2019, 09:28 #4
Originariamente inviato da: Orko2
Che addestrino una IA altrettanto potente per riconoscere il vero dal falso


Ecco...quella si sarebbe una IA molto più intelligente di tante persone!!
supertigrotto18 Febbraio 2019, 09:29 #5

In effetti

É come se qualcuno avesse creato un reattore a fusione,sicuramente ad uso civile sarebbe una manna ma in mano ai militari o terroristi diventerebbe una arma.
Mettete che la ia fosse messa a disposizione di trafficanti di droga o delinquenti malavitosi....
Opteranium18 Febbraio 2019, 09:33 #6
«Il sistema andò online il 4 agosto 1997. Skynet cominciò a imparare a ritmo esponenziale. Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 agosto.»
Orko218 Febbraio 2019, 09:38 #7
Originariamente inviato da: supermario
hanno solo detto di non rilasciare il modello già addestrato, ognuno se lo può addestrare da se


È la parte più lunga e complessa.
MaxP418 Febbraio 2019, 09:40 #8
Originariamente inviato da: Opteranium
«Il sistema andò online il 4 agosto 1997. Skynet cominciò a imparare a ritmo esponenziale. Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 agosto.»


...è la frase che mi rimbalza in mente ogni volta che sento parlare di AI!
Karandas18 Febbraio 2019, 09:48 #9
Originariamente inviato da: Opteranium
«Il sistema andò online il 4 agosto 1997. Skynet cominciò a imparare a ritmo esponenziale. Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 agosto.»


Ma basta con ste uscite del menga, sinceramente hanno stufato. Qui stiamo parlando di intelligenze di tipo narrow ben lontane dalle capacità necessarie a far concretizzare gli scenari apocalittici che tanto vi piace tirare in ballo. Insomma fatevi furbi.
raxas18 Febbraio 2019, 09:52 #10
Originariamente inviato da: Orko2
Che addestrino una IA altrettanto potente per riconoscere il vero dal falso

che addestrino una IA responsabile dei danni che potrebbe fare!
già, non è possibile, non è fisica, non può andare in prigione, non può pagare, tranne chi la istruisce e tiene in auge...
ovvero la libertà senza responsabilità inscritta in qualcosa che non è una intelligenza umana, a parte l'inteligenza (artificiale) era il sogno di qualsiasi umano?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^