IntelAMD

AMD e Intel proseguono sulla strada della virtualizzazione

di pubblicata il , alle 07:25 nel canale Private Cloud AMD e Intel proseguono sulla strada della virtualizzazione

I due produttori di processori comunicano passi in avanti concreti nella disponibilità delle proprie tecnologie hardware per la virtualizzazione

 
53 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
MiKeLezZ08 Febbraio 2006, 12:42 #11
prima di gridare al miracolo voglio vedere in cosa consiste e se serve davvero...
:/
rdefalco08 Febbraio 2006, 12:50 #12
Originariamente inviato da: MiKeLezZ
prima di gridare al miracolo voglio vedere in cosa consiste e se serve davvero...
:/


Il fatto non è "se serva davvero" ma quanto possa portare in cambiamenti dalla situazione attuale. Al momento le macchine virtuali ci sono e funzionano. Ma pur restando sempre aggiornato per quanto mi è possibile, ho notato che quella della Virtualizzazione è l'unica tecnologia delle nuove CPU di cui non ho ancora capito i benefici al 100%...
Acme08 Febbraio 2006, 13:15 #13
Qualcuno sà se verra implementato anche Presidio?
Mezzelfo08 Febbraio 2006, 13:51 #14
In ambito casalingo probabilmente non la utilizzerete mai la virtualizzazione...
Ma in ambito server è utilissima!

Su un server con 2 Opteron dual core ci ho messo su Xen e su una macchina virtuale faccio hosting con una certe configurazione software, su un'altra faccio dei test con un'altra configurazione software sempre per l'hosting e ora penso che farò una per il voip e una per testare dei server per caldav.

Che Xen virtualizza a livello software con decadimento delle prestazioni, mentre amd e intel stanno facendo la virtualizzazzione a livello hardware, quindi senza decadimento delle prestazioni. Il problema è capire a che serve per l'utente comune.

Questo non penso sia vero. La virtualizzazione di Xen (paravirtualization) è la migliore in termine di prestazioni per quanto riguarda la virtualizzazione di SO diversi, l'unico svantaggio è che richiede la modifica del kernel dei SO virtualizzati (quindi nessun problema per Linux, NetBSD, Solaris, mentre NO Windows).
Con le estensioni Hardware anche con Xen sarà possibile virtualizzare qualsiasi SO, quindi anche Windows, perchè utilizzerà una virtualizzazione (come VMWare), solo che le prestazioni saranno inferiori rispetto a quelle della paravirtualization.
leoneazzurro08 Febbraio 2006, 14:08 #15
Originariamente inviato da: Acme
Qualcuno sà se verra implementato anche Presidio?


Si
lucusta08 Febbraio 2006, 14:11 #16
credo che si stia facendo un po' di confusione sull'argomento..

la virtualizzazione proposta da AMD e Intel non e' la stessa cosa della "virtualizzazione" di VMWare, XEN e VirtualPC: queste sono EMULAZIONI.

La virtualizzazione dei sistemi permette di creare altri ambienti operativi, indipendenti dal primo, con i quali dividere le risorse dell'intero sistema, usando l'HW per come dev'essere usato al meglio, ossia con i propri driver, e non emulando i driver, e tantomento emulando l'HW.

Questa nuova operativita' permette di avere piu' ambienti lavorativi, sulla stessa macchina, ma separati; delle shell capaci di sfruttare la macchina in ogni sua parte per quanta potenza e' disponibile al momento, capaci all'occorrenza di dialogare tra' loro.

gli esempi per le realta' professionali sono molteplici, ma focalizzerei piu' che altro sulla realta' casalinga, quella degli utenti normali:
ad oggi gia' un dual-booting puo' dare dei vantaggi considerevoli, permettendo di separare un'ambiente lavorativo da un'ambiente ludico; con alcuni sistemi operativi si puo' decidere all'occorrenza che servizzi abilitare, gravando sulle risorse del sistema, ma domani sara' possibile avere ambienti dedicati, ossia delle shell con OS dedicati a compiti specifici, a livello di applicazione, moduli da poter avviare indipendentemente dagli altri, leggeri, accuratamente studiati, semplici, e percio' facilmente proteggibili; interattivi tra' di loro, ma indipendenti, diversamente da oggi, dove si ha un registro unico per tutto il sistema, e dove un'applicazione puo' "invadere" settaggi e operativita' di un'altra, sia essa anche una parte vitale del sistema.

a questo punto si potra' avere una shell per la navigazione, protetta da una shell firewall, e controllata da una shell antivirus, scaricare un'immagine, avviare la shell di lavorazioni immagini, elaborarla e poi passarla alla shell d'impaginazione e metterla su un foglio di lavoro.
qual'e' il vantaggio?
tra' uno step e l'altro si possono chiudere le shell non indispensabili e scaricare dalle risorse del sistema, potendo ottenere cosi' un sistema intrinsecamente leggero e veloce.
guardate i sistemi general porpouse di oggi: ora ho aperta una sola pagina del browser, ho un'allocamento della ram di oltre 280MB, e sono pochi, perche' in background girano decine di piccoli programmi e servizzi che non sono necessari al momento, ma che lo potrebbero diventare a richiesta, richieste che per certi lavori non avverrano mai: avere il servizio di Acquisizione immagini di windows WIA, o il "zero configuration per le reti senza fili" ora non serve, ma e' comunque attivo, perche' potrebbe servirvi in un'altro ambito di lavoro, ed e' poco utile arrestarlo per poi riavviarlo; ma il problema non e' se e' attivato o disattivato, ma che per averlo, questo, come innumerevoli altri servizzi, programmi e funzionalita', ho un registro di configurazione del sistema da oltre 80MB, e si' che lo curo abbastanza.
Non sarei sorpreso se alcuni utenti avessero oltre 200MB di registro sulle proprie macchine..
(per rendervene conto aprite regedit ed esportate tutto il registro della vosta macchina)

La virtualizzazione mi permetterebbe di lavorare con si e no 50MB di ram occupata, eliminerebbe il 50% del carico della CPU (ma solo perche' il carico e' quasi nullo), il che mi consentirebbe di poter fare agevolmente lo stesso lavoro con un 400MHz, invece che con un 1000Mhz calmierato dal C&Q; con il modo di operare dei sistemi moderni, o meglio l'uso che ne fanno le persone, un processore da 1000Mhz e' il minimo che si possa avere, e sarebbe quasi inutile progettare una CPU piu' complicata in modo da poter scendere ancora sotto questa soglia, senza poi avere reali benefici sia di risparmio che di operativita' (tanto in basso non ci andrebbe quasi mai).
Ma un dual core e' diverso, infatti i nuovi yotha hanno stati di quiete ben piu' aggressivi (ma funzionano?).
comunque, all'ocorrenza, potrei aver bisogno di altri 500MB di ram per il fotoritocco, e qui' c'e' la differenza, perche' in una situazione odierna questi sono utilizzati da tutto il sistema, e il resto e' a disposizione del programma di fotoritocco, mentre un domani potrei utilizzare esclusivamente la shell dedicata all fotoritocco, e mi risparmierei un'altro banco di ram..

serviranno ancora 5 o 6 anni prima di ottenere reali vantagi da questa tecnologia, ma prevedo che l'evoluzioni degli OS saranno sensibili: si comprera' un OS di gestione, una specie di BIOS a livello superiore, e tanti moduli specifici da poter aggiungere, alla stregua dei programmi di oggi.
in questo modo il passaggio sara' inavvertibile, ma saranno sensibilmente piu' sfruttate le macchine, soprattutto in previsione di multi-core di futura generazione.
riva.dani08 Febbraio 2006, 20:01 #17
OK, ma mi associo a chi chiede: a cosa servono ad un utente comune? Fino ad ora l'unica cosa che ho scoperto è, ad esempio, che è possibile avviare una VM basata su Linux (mi sembra fosse Ubuntu) con FF preinstallato per navigare con una sicurezza prossima al 100%. Ma questo vale milioni di $ di investimenti in queste nuove tecnologie HW?

Credo ci sia ben altro sotto... mi sbaglio?
rdefalco08 Febbraio 2006, 21:18 #18
La virtualizzazione è per aziende o per power users. L'utente domestico non può averne vantaggi. Se Bill riesce a rendere Windows più stabile e immune da virus/malware magari limitando i privilegi dell'utente standard per default.

Per una casa avere la multiutenza vera che è stata introdotta con Windows XP è già sufficiente. Chiaro che se poi c'è lo studente a cui serve Linux, il fratellino che deve provare giochi e download, il padre che usa programmi di contabilità e non vuole vedere il pc devastato dalle porcherie dei suddetti due allora la virtualizzazione può essere utile anche in casa...
share_it08 Febbraio 2006, 23:11 #19
queste tecnologie devono lavorare con XEN, non funzionano mica senza un software. Sono pensate per xen e xen già le supporta. (S3pHiroTh: decadimento prestazionale di xen??? ma dove? fa il 98% delle performance native)
leoneazzurro08 Febbraio 2006, 23:16 #20
Originariamente inviato da: riva.dani
OK, ma mi associo a chi chiede: a cosa servono ad un utente comune? Fino ad ora l'unica cosa che ho scoperto è, ad esempio, che è possibile avviare una VM basata su Linux (mi sembra fosse Ubuntu) con FF preinstallato per navigare con una sicurezza prossima al 100%. Ma questo vale milioni di $ di investimenti in queste nuove tecnologie HW?

Credo ci sia ben altro sotto... mi sbaglio?


Ad esempio si potrebbe far girare ogni applicazione in una macchina virtuale ad essa dedicata con elevate prestazioni e stabilità elevatissima, dato che la separazione delle applicazioni viene realizzata in hhardware e non in software come avviene ora. Secondo te quali vantaggi presenta questa situazione?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^