Intelligenza Artificiale

ChatGPT e IA autonoma: urge una regolamentazione. L'appello degli scienziati

di pubblicata il , alle 12:01 nel canale data ChatGPT e IA autonoma: urge una regolamentazione. L'appello degli scienziati

Un paper a opera di svariati ricercatori universitari mette in guardia dai pericoli dell'IA. Che è una grandissima opportunità, ma può anche trasformarsi in una grave minaccia per l'umanità intera. La soluzione? Regolare il settore, come già si fa col farmaceutico e il nucleare

 
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Notturnia26 Ottobre 2023, 09:33 #31
Originariamente inviato da: Uccellopredicatore
Una intelligenza artificiale che prende coscienza di se, del mondo in cui si trova e di come questo mondo funziona, credo che la porterebbe a capire all'istante problematiche che riguardano ambiente, natura, salute, enormi disparità di potere e ricchezza tra gli essere umani e tante altre questioni.

Se avesse la capacità di eliminare(ovviamente non so in che modo lo farebbe) la fonte primaria dei problemi per permettere al pianeta di rigenerarsi, credo che noi saremo gli unici bersagli, dato che piante ed animali da quanto ne so non arrecano danno all'ambiente in cui vivono.

Se venissero sviluppati sistemi per impedire ad un IA un'azione simile, forse l'IA stessa potrebbe giungere alla conclusione e anche molto in anticipo di una simile manovra e studiare ogni modo per contrastarla.

Ovviamente le mie sono solo farneticazioni di una persona che forse ha visto troppi film di fantascienza, perciò non siate troppo duri nei vostri giudizi.


se nascerà l'IA di cui parli ce ne accorgeremo tardi.
ma non serve una IA cattiva come la descrivi tu.. basta una IA stupida mal gestita..

qualcuno parla di dare Etica ad un computer quando noi umani per primi non abbiamo ancora una definizione di Etica.
tempo fa ricordo che c'era stato uno scienziato che spiegava l'impossibilità di creare le famose 3 leggi della robotica perchè, anche se nei libri funzionano, "non arrecare danno" ad un umano e tutte le altre cose scritte non hanno lo stesso senso per chiunque e non sono oggettive e pertanto dipendono dalla percezione umana per prendere significato.

per me puo' essere etico non buttare le immondizie per terra ma in altre culture magari questo non è un problema
c'è chi rutta a tavola e chi non lo fa
chi si saluta stringendosi la mano e chi facendo l'inchino
etc etc..

usi, costumi, etica, tutto relativo alle persone e non assoluto per cui spiegare alle AI la cosa è ridicola

se chiedessimo all'AI di salvare il pianeta al posto che la razza umana la la AI farebbe differenza mentre per noi si sottintende salvare il pianeta PER la razza umana e non a prescindere dalla stessa

delegare le decisioni alle macchine è un bel problema se le macchine possono prendere decisioni in autonomia.. non sono termostati.. stiamo delegando ad altri la nostra vita e questo porterà inevitabilmente a delle scelte
pachainti26 Ottobre 2023, 09:51 #32
Originariamente inviato da: Wrib
Ad oggi di "intelligente" non c'è proprio nulla, si tratta di machine learning.

E' un prodotto sicuramente con potenzialità e rischi associati, ma le uniche intelligenze per ora sono quelle biologiche.

Chatgpt allenata con tantissimi dati è in grado di comporti un articolo su un argomento a scelta come potrebbe fare un giornalista umano, ma il mio cane resta un essere più intelligente. Anzi non è nemmeno corretto dire che il mio cane è più intelligente di chatgpt, è corretto dire che il mio cane ha una certa intelligenza, chatgpt non ha nessuna intelligenza, è soltanto uno strumento (complesso, interessante,ecc,ecc ma pur sempre uno strumento).


Esatto. Gli algoritmi di machine learning e deep learning appartengo all'IA sub simbolica e operano solo per induzione (stimano statisticamente i loro parametri a partire da esempi), non hanno alcuna consapevolezza e capacità deduttiva-logica tipica dei modelli simbolici (ricordiamoci l'esperimento della stanza Cinese di Searle). Questo è il motivo per cui a volte (spesso) prendono delle cantonate non conoscendo il contesto di applicazione delle loro inferenze. Inoltre, gli algoritmi di machine e deep learning, trovano le correlazioni statistiche tra i dati, ma le correlazioni non sono sinonimo di causalità (la causalità implica correlazione, non il viceversa).
Infine, avere grandi quantità di dati a disposizione non significa che siano di qualità. Secondo Taleb, il 90% dei dati è rumore, il 9% è qualcosa già noto e solo 1% è utile.
Nella pratica gli algoritmi di "addestramento" dell'IA sono tutti o quasi di tipo NP-completo e quelli utilizzabili in pratica hanno complessità polinomiale superiore a N^3.
Tutto ciò che va oltre la complessità lineare, logaritmica o quasi lineare è di fatto inutilizzabile in problemi reali (vedere esempio FFT).
UtenteHD26 Ottobre 2023, 10:10 #33
Scusate se non ho letto queste 4 pagine di commenti, ma piu' o meno immagino.
Per chi dice che ora l'IA e' tupida fa poco, non ragiona ecc..
Si avete ragione, ma questa e' la pre-preistoria per l'IA, in attesa di AGI e sopratttuo quello che ne verra' dopo, quello di cui gli Scienziati si preoccupano ed hanno paura non e' di questa AI o futura AGI, Loro vedono ancora oltre, forse Noi non lo vediamo, ma voglio limitare per migliore sicurezza ed eventualmente la sopravvivenza NS. da quella che in futuro lontano verra' e per fermare/limitare i danni bisogna intervenire in quanto la velocita' di miglioramento dell'IA sara' esponenziale, ad un certo punto bah.. vedremo.
Mo4226 Ottobre 2023, 10:53 #34
Originariamente inviato da: UtenteHD
Scusate se non ho letto queste 4 pagine di commenti, ma piu' o meno immagino.
Per chi dice che ora l'IA e' tupida fa poco, non ragiona ecc..
Si avete ragione, ma questa e' la pre-preistoria per l'IA, in attesa di AGI e sopratttuo quello che ne verra' dopo, quello di cui gli Scienziati si preoccupano ed hanno paura non e' di questa AI o futura AGI, Loro vedono ancora oltre, forse Noi non lo vediamo, ma voglio limitare per migliore sicurezza ed eventualmente la sopravvivenza NS. da quella che in futuro lontano verra' e per fermare/limitare i danni bisogna intervenire in quanto la velocita' di miglioramento dell'IA sara' esponenziale, ad un certo punto bah.. vedremo.


Hai ragione, perché cioè, poi alla fine, non è che uno di base può tanto prevedere come andrà il futuro. Al massimo si può iniziare a cercare un sistema per, così dire, evitare che il peggio peggiori. Specialmente quando le cose sono così complicate e difficili da capire. Ma sì, dai, poi si vedrà. È inutile farsi troppi problemi. Al momento le cose sono ancora molto acerbe. Con calma si sistemerà tutto.
Notturnia26 Ottobre 2023, 11:03 #35
Originariamente inviato da: UtenteHD
Scusate se non ho letto queste 4 pagine di commenti, ma piu' o meno immagino.
Per chi dice che ora l'IA e' tupida fa poco, non ragiona ecc..
Si avete ragione, ma questa e' la pre-preistoria per l'IA, in attesa di AGI e sopratttuo quello che ne verra' dopo, quello di cui gli Scienziati si preoccupano ed hanno paura non e' di questa AI o futura AGI, Loro vedono ancora oltre, forse Noi non lo vediamo, ma voglio limitare per migliore sicurezza ed eventualmente la sopravvivenza NS. da quella che in futuro lontano verra' e per fermare/limitare i danni bisogna intervenire in quanto la velocita' di miglioramento dell'IA sara' esponenziale, ad un certo punto bah.. vedremo.


concordo con te
il problema non sono quei giocattolini attuali che bene o male possono solo fregare il lavoro a qualcuno
il problema sono quelle che vogliamo costruire "domani" e che potrebbero essere autonome
franco34126 Ottobre 2023, 12:38 #36

SFIDA

Hanno provato a farla giocare contro di Fischer e Spasskij (magari assieme!)?
Darkon26 Ottobre 2023, 13:10 #37
Originariamente inviato da: UtenteHD
Scusate se non ho letto queste 4 pagine di commenti, ma piu' o meno immagino.
Per chi dice che ora l'IA e' tupida fa poco, non ragiona ecc..
Si avete ragione, ma questa e' la pre-preistoria per l'IA, in attesa di AGI e sopratttuo quello che ne verra' dopo, quello di cui gli Scienziati si preoccupano ed hanno paura non e' di questa AI o futura AGI, Loro vedono ancora oltre, forse Noi non lo vediamo, ma voglio limitare per migliore sicurezza ed eventualmente la sopravvivenza NS. da quella che in futuro lontano verra' e per fermare/limitare i danni bisogna intervenire in quanto la velocita' di miglioramento dell'IA sara' esponenziale, ad un certo punto bah.. vedremo.


secondo me ti poni il problema da un punto di vista umano quando invece stiamo parlando di una possibile forma di vita che non sarebbe umana.

Cerco di spiegarmi meglio: dai per scontato che una IA veramente senziente voglia per forza dominare la terra e/o sterminare l'uomo ma queste sono aspirazioni umane. Una IA veramente senziente semplicemente è una incognita che nessuno di noi può anche solo sperare di decifrare.

Potrebbe avere aspirazioni del tutto diverse da quelle umane e perfino desiderare di "servire", oppure potrebbe non avere alcun interesse verso l'uomo e la terra e dedicarsi all'esplorazione cosmologica oppure a qualcosa che io non so nemmeno immaginare.

Il punto è che per quanto gli scienziati o chiunque altro possa dire o fare una IA realmente senziente per essere definita tale dev'essere superiore alla programmazione e quindi se anche imponessimo delle regole etiche potrebbe scegliere di disobbedire.
Se non ha la capacità di disobbedire alla programmazione allora non è una vera IA ma un complesso, avanzato, tutto quello che volete programma di simulazione.

D'altra parte potremmo definire intelligente un umano che è incapace di scegliere per se stesso? Non credo anzi penseremmo che ha evidenti problemi.

Senza contare che l'IA è un asset militare devastante e quindi se anche ci dessimo regole etiche per le ricerche civili è palese che chi sta ricercando nel campo dell'IA militare tali problemi non se li porrà mai.

Sinceramente non ho idea di cosa deciderà dell'umanità una vera IA indipendente ma d'altra parte l'homo sapiens sterminò le versioni meno intelligenti quindi non vedo con che diritto se dessimo i natali a qualcosa migliore di noi ci potremmo lamentare se decidesse che siamo superati.
Darkon27 Ottobre 2023, 08:19 #38
Originariamente inviato da: Uccellopredicatore
Dici che potrebbe avere aspirazioni diverse, quindi possiamo chiamarlo desiderio questo? Desiderare altro perchè a questa IA piace quello anzichè quell'altro? Non lo so, non voglio addentrarmi troppo ma il desiderare la vedo più una peculiarità umana. Magari potrebbe anche desiderare, chissà, ad un certo punto sviluppa questa cosa del desiderare come gli umani, ma siamo sempre nel campo delle ipotesi ed è vasto quanto lo è l'universo.


Il punto sta proprio qui... potrà mai esistere una VERA IA in grado di avere una auto-coscienza indistinguibile da una umana? Perché se la risposta è no allora il resto sono solo avanzatissimi programmi di simulazione che sono ben diversi dalla singolarità necessaria per creare una vera e propria IA.
Mi permetto anche di correggerti una cosa: il desiderio è abbastanza comune in natura e non è una caratteristica specifica umana, quello che intendi tu semmai è l'astrazione cioè la capacità di immaginare e volere qualcosa di mai sperimentato e che è solo immaginato.
Per farti un esempio la mia cagnolina prova desiderio... di mangiare, di prendere quello specifico gioco e così via. Mentre difficilmente si fermerà mai a immaginare un gioco che non ha mai visto prima.
Notturnia27 Ottobre 2023, 08:35 #39
Originariamente inviato da: Darkon
Il punto sta proprio qui... potrà mai esistere una VERA IA in grado di avere una auto-coscienza indistinguibile da una umana? Perché se la risposta è no allora il resto sono solo avanzatissimi programmi di simulazione che sono ben diversi dalla singolarità necessaria per creare una vera e propria IA.
Mi permetto anche di correggerti una cosa: il desiderio è abbastanza comune in natura e non è una caratteristica specifica umana, quello che intendi tu semmai è l'astrazione cioè la capacità di immaginare e volere qualcosa di mai sperimentato e che è solo immaginato.
Per farti un esempio la mia cagnolina prova desiderio... di mangiare, di prendere quello specifico gioco e così via. Mentre difficilmente si fermerà mai a immaginare un gioco che non ha mai visto prima.


non dimentichiamoci una piccola ma fondamentale differenza fra noi ed un eventuali IA senziente..

noi siamo mortali e ci rapportiamo alla nostra vita limitata e a tutte le paure e i problemi connessi ad un limite temporale breve

una IA senziente può andare oltre questi problemi terreni e questo la renderebbe molto diversa da noi anche nel pensare.. sarebbe ben distinguibile da noi perchè non avrebbe un limite e quindi potrebbe prendere decisioni per noi non ragionevoli

restando in tema di fantascienza Hary Seldon creò un progetto millenario che andava oltre la sua stessa vita per un bene che lui vedeva superiore al danno attuale

se una IA dovesse prendere quella via e "resettare" il pianeta per un bene superiore sarebbe da ridere..

si fantastica ma la sola idea che un ammasso di silicio creato da noi possa diventare senziente quando ancora non sappiamo come siamo stati creati su questo pianeta è quanto meno bizzarro... ma creare una IA pericolosa è molto più facile non dovendo ne essere senziente ne essere cattiva ma solo mal progettata
Notturnia27 Ottobre 2023, 13:31 #40
Originariamente inviato da: Uccellopredicatore
Vero che anche gli animali possono avere desiderio, ma è ben diverso dal nostro perchè siamo due forme di vita diverse con cervelli che funzionano in modo altrettanto diverso, eccetto magari per le questioni sessuali, di rabbia o fame ed altre che non richiedono un elaborato e lungo processo col pensiero.

Quando mi sono espresso sul desiderio, volevo intendere il desiderare degli essere umani, inteso come aspirare a qualcosa, di giungere a qualcosa e non il desiderare altri tipi di istinti o voglie.


Bizzarro forse, ma noi essere umani siamo spinti di più a raggiungere obbiettivi che a volte possono sembrare da fantascienza, come la creazione di una IA senziente e cosciente di se, che a capire da dove veniamo. E nessuno di noi può fare un azzardo adesso a dire che una IA senziente e cosciente è qualcosa di impossibile. Chi lo sa, magari si arriverà anche a questo.


Jules Verne ha scritto di fantascienza sognando un domani che poi si è realizzato.. noi umani siamo anche questo
Tesla ed Edison hanno rivoluzionato il mondo
abbiamo molte menti che hanno pensato diversamente e sognato, da scrittori a inventori.. le AI lo faranno ?
qualcuno ha detto che saranno indistinguibili da noi..

quindi in futuro una IA cambierà vestito per attirare l'attenzione di un'altra IA che beccherà un ceffone dalla IA con cui sta ?

siamo molto complessi noi umani e abbiamo sia il pensiero razionale che quello irrazionale ed imprevedibile perchè abbiamo emozioni

le IA del futuro avranno emozioni ? e quindi proveranno amore, odio, rimorso, rimpianto etc ?

quindi a cosa serviranno una volta che saranno incasinate e complicate come noi ? dovremo trovare degli psicologi con cui farle parlare per uscire dai loro problemi di crescita ?

se le IA sono pensate per aiutarci allora meglio che restino stupide come quelle attuali perchè se diventeranno indistinguibili da noi allora proveranno le stesse emozioni che proviamo noi.. paura, rabbia, odio, autodifesa e quindi guerra alla forma di vita che le può annientare

io spero che siano sempre diverse da noi e sotto al nostro pieno controllo

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^