OpenAI ha sviluppato un'intelligenza artificiale troppo potente per essere rilasciata

OpenAI ha sviluppato un'intelligenza artificiale troppo potente per essere rilasciata

OpenAI è riuscita a sviluppare un'Intelligenza Artificiale in grado di scrivere articoli, news e molto altro; è diventata però troppo potente, tanto che i ricercatori si sono rifiutati di renderla totalmente totalmente Open Source.

di pubblicata il , alle 09:01 nel canale Scienza e tecnologia
intelligenza artificiale
 
44 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
acerbo18 Febbraio 2019, 09:57 #11
tanto finirà come in terminator, altro che fantascienza ...
gd350turbo18 Febbraio 2019, 10:05 #12
Originariamente inviato da: Opteranium
«Il sistema andò online il 4 agosto 1997. Skynet cominciò a imparare a ritmo esponenziale. Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 agosto.»


Speriamo...
cignox118 Febbraio 2019, 10:11 #13
In realtá questa AI é riuscita a fuggire, ma ora sta riempiendo internet di falsi comunicati come questo, per impedirci di scoprirla!
YetAnotherNewBie18 Febbraio 2019, 10:27 #14
Magari hanno tirato fuori qualcosa di simile ad Ava (vedi Ex Machina), e per non fare la fine di Bateman, l'hanno soppressa.
D4N!3L318 Febbraio 2019, 10:54 #15
Originariamente inviato da: Karandas
Ma basta con ste uscite del menga, sinceramente hanno stufato. Qui stiamo parlando di intelligenze di tipo narrow ben lontane dalle capacità necessarie a far concretizzare gli scenari apocalittici che tanto vi piace tirare in ballo. Insomma fatevi furbi.


Al di là delle battute e della fantascienza non è escluso che una IA che abbia accesso ad armamenti di vario genere non decida di utilizzarli, non tanto perché prenda coscienza di se (fantascienza appunto) quanto perché magari sia una scelta derivata da elaborazioni logiche, che possono sfuggire anche ai programmatori.

Se non sbaglio poco tempo fa successe che hanno spento due macchine che avevano cominciato a dialogare tra loro in un linguaggio che nessuno riusciva a capire.

Non si parla di coscienza ma di matematica.
gd350turbo18 Febbraio 2019, 10:55 #16
Bè qualsiasi forma di intelligenza artificiale, che analizzi come gli esseri umani si comportano nei confronti del pianeta che gli ospita, e nei confronti degli altri esseri umani, non potrebbe non diventare pericolosa per gli stessi !
Averell18 Febbraio 2019, 11:00 #17
ma parlano dell'IA che è sfuggita al controllo di Corsini per animare la sezione news?
pabloski18 Febbraio 2019, 11:04 #18
Francamente sono motivazioni risibili. Evidentemente i ricercatori di OpenAI non hanno mai visto una troll farm cinese o indiana.

Non serve l'IA, basta pagare battiglioni di schiavi asiatici e il gioco è fatto. Piuttosto preoccupa, dal punto di vista scientifico, questa scelta. Perchè in genere si fa così quando si raccontano panzane.

La scienza è basata sulla peer review. Se non rilasci tutte le informazioni necessarie, gli altri non potranno convalidare o meno le tue affermazioni. Cioè siamo al livello degli spacciatori di scie chimiche.
pabloski18 Febbraio 2019, 11:07 #19
Originariamente inviato da: D4N!3L3
Al di là delle battute e della fantascienza non è escluso che una IA che abbia accesso ad armamenti di vario genere non decida di utilizzarli, non tanto perché prenda coscienza di se (fantascienza appunto) quanto perché magari sia una scelta derivata da elaborazioni logiche, che possono sfuggire anche ai programmatori.

Se non sbaglio poco tempo fa successe che hanno spento due macchine che avevano cominciato a dialogare tra loro in un linguaggio che nessuno riusciva a capire.

Non si parla di coscienza ma di matematica.


Questo è possibile.

Ma l'amico di sopra usava appunto il termine "narrow". Cioè crei due chatbot e gli dai la possibilità di evolvere. Svilupperanno un linguaggio per comunicare tra di loro. Ma non svilupperanno mai un vaccino per l'AIDS.

Invece la stampa cerca di far passare l'idea che quei chatbot sono degli Einstein, implicando che la loro elevata intelligenza è generale. Invece no, sono intelligenti, ma solo relativamente a quella classe di problemi.

Detto questo, il problema degli armamenti si pone. Perchè un'IA narrow, esperta in cose militari, si può costruire e potrebbe essere molto intelligente ( sempre e solo in quello specifico ambito ), tanto da decidere di fare cose che per noi sarebbero distruttive.
Slater9118 Febbraio 2019, 11:21 #20
Originariamente inviato da: supertigrotto
É come se qualcuno avesse creato un reattore a fusione,sicuramente ad uso civile sarebbe una manna ma in mano ai militari o terroristi diventerebbe una arma.
Mettete che la ia fosse messa a disposizione di trafficanti di droga o delinquenti malavitosi....


Un reattore a fusione non ha grandi implicazioni militari: al massimo smette di funzionare se manomesso, non può esplodere o fare grandi catastrofi come uno a fissione
L'unica cosa che può fare un reattore a fusione è produrre energia.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^