Il Giappone pianifica il più potente supercomputer: 130 PFLOPs
di Paolo Corsini pubblicata il 28 Novembre 2016, alle 10:50 nel canale Private Cloud
Target ambizioso per il ministero dell'Economia, del Commercio e dell'Industria giapponese: costruire entro il 2017 un supercomputer in grado di riportare il Giappone al centro dello sviluppo tecnologico
16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoLa IA si basa su un sistema diverso.
Ora la parte meno simpatica.. La strizza da skynet purtroppo non è roba da paranoici ma un problema reale che si dovrà bene o male affrontare.
Già diversi personaggi importanti del calibro di Gates e Hawking hanno messo in guardia sul problema.. e non sono proprio i primi due pirla.
Per me sono sicuri solo i processi tradizionali.
Non ha senso affidare decisioni operative a processi così vaghi ed imprecisi (solo probabilistici) come l'AI ed i processori quantici. Queste deformazioni del preciso concetto di processore possono essere di aiuto, anche grande aiuto, se intese come funzioni informative, ma mai e poi mai dovrebbere diventare funzioni operative o peggio decisionali.
Se un domani saremo stati così stolti ed incoscienti da affidare ad elaborazioni "probabilistiche" funzioni al di sopra del controllo umano, ci saremo meritati Skynet...
Target ambizioso per il ministero dell'Economia, del Commercio e dell'Industria giapponese: costruire entro il 2017 un supercomputer in grado di riportare il Giappone al centro dello sviluppo tecnologico
Click sul link per visualizzare la notizia.
Ma quel pachiderma di Trump non aveva detto che avrebbe riportato lui gli USA al centro dello sviluppo tecnologico?
Non ha senso affidare decisioni operative a processi così vaghi ed imprecisi (solo probabilistici) come l'AI ed i processori quantici. Queste deformazioni del preciso concetto di processore possono essere di aiuto, anche grande aiuto, se intese come funzioni informative, ma mai e poi mai dovrebbere diventare funzioni operative o peggio decisionali.
Se un domani saremo stati così stolti ed incoscienti da affidare ad elaborazioni "probabilistiche" funzioni al di sopra del controllo umano, ci saremo meritati Skynet...
non saprei.. l'argomento è piuttorso vasto ed articolato per liquidarlo così alla buona..
i vantaggi delle AI sarebbero notevoli per tantissime cose.
PS: perchè i procesori quantici? Quelli non agiscono in modo probabilistico, servono piuttosto a risolvere problemi di tipo anche probabilistico con velocità enormemente superiori ai processori attuali.
Purtroppo dalla probabilita' non si scappa in nessun caso. La certezza e' un concetto umano, non naturale
In realta' i computer quantistici odierni sono basati intrinsecametne sul "fallimento" e l'individuazione, una volta tanto, di un qbit al posto del rumore termico.
Non c'e' paragone in quanto ad affidabilita', e velocita', e facilita' di uso.
Inoltre, anche ammesso di poter costruire un computer quantistico "perfetto" resta il problema della velocita' e degli utilizzi.
Non tutti gli algoritmi ricevono un vero speedup da un sistema quantistico.
Ad esempio: se devi cercare un elemento in un database disordinato c'e' un algoritmo magico chiamato "Grover search", che ti dice che puoi trovarlo con velocita' log(N), ovvero meno della velocita' che ci vuole a leggere gli elementi.
Tuttavia, se il database se ne sta nel mondo classico, come tutti i database del mondo e tutte le cose con cui un essere umano deve interagire e vuole avere risposte e vuole usare memorie di massa...etc... il sistema deve leggerli quegli N elementi, in modo classico, e poi trasformarli quantisticamente, operazione sicuramente piu' lenta della semplice verifica (che e' una if condition), e poi comunque avviare la "Grover search"!
Quindi ecco un caso in cui in teoria ci potrebbe essere un salto in avanti fantascientifico, ma in pratica non ce ne facciamo niente.
Idem per sorting o altre cose.
Fare un sorting con velocita' N (utilzzando il grover search) anziche' NLogN sara' anche' figo, ma cosa cavolo cambia se devo leggere dei dati classici, passando da un sistema classico...etc...?
Oltretutto bisogna considerare che comunque si passa da un sistema parallelo a migliaia di cores a diversi GHz a un sistema seriale a pochi Hz.
E avere memorie quantistiche di massa ce ne passera' tanto, ma tanto...
Alla fine il vero speedup si ha nelle solite applicazioni, chiavi di cifratura e affini (che si importano in un baleno. Ma a quel punto e' una situazione "winner takes all", perche' appena qualcuno costruisce il computer quantistico costruisce chiavi di cifratura quantistiche e siamo punto a capo) e nel risolvere problemi quantistici che utilizziamo noi fisici, dove magari per calcolare l'energia di uno stato quantistico ci vuole un tempo N^N, mentre con un PC quantistico un tempo di N, e allora non c'e' clock che tenga per calcolare molecole complesse o nuclei.
C'era una pubblicazione qualche mese fa su questo argomento, dove e' stato calcolato lo stato della molecola di H2+ (2 protoni e un elettrone) che e' il primissimo problema non banale che puoi risolvere con algoritmi molti-corpi e ha funzionato piuttosto bene...
PS: se trovi questo articolo passa pure con un PM grazie!
PPS: Conosci il Prof. Colo'?
Gianluca Colo'? Altroche'!
L'articolo e' open: http://journals.aps.org/prx/abstrac...ysRevX.6.031007
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".