IntelAMD
AMD e Intel proseguono sulla strada della virtualizzazione
di Paolo Corsini pubblicata il 08 Febbraio 2006, alle 07:25 nel canale Private CloudI due produttori di processori comunicano passi in avanti concreti nella disponibilità delle proprie tecnologie hardware per la virtualizzazione
53 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info:/
:/
Il fatto non è "se serva davvero" ma quanto possa portare in cambiamenti dalla situazione attuale. Al momento le macchine virtuali ci sono e funzionano. Ma pur restando sempre aggiornato per quanto mi è possibile, ho notato che quella della Virtualizzazione è l'unica tecnologia delle nuove CPU di cui non ho ancora capito i benefici al 100%...
Ma in ambito server è utilissima!
Su un server con 2 Opteron dual core ci ho messo su Xen e su una macchina virtuale faccio hosting con una certe configurazione software, su un'altra faccio dei test con un'altra configurazione software sempre per l'hosting e ora penso che farò una per il voip e una per testare dei server per caldav.
Questo non penso sia vero. La virtualizzazione di Xen (paravirtualization) è la migliore in termine di prestazioni per quanto riguarda la virtualizzazione di SO diversi, l'unico svantaggio è che richiede la modifica del kernel dei SO virtualizzati (quindi nessun problema per Linux, NetBSD, Solaris, mentre NO Windows).
Con le estensioni Hardware anche con Xen sarà possibile virtualizzare qualsiasi SO, quindi anche Windows, perchè utilizzerà una virtualizzazione (come VMWare), solo che le prestazioni saranno inferiori rispetto a quelle della paravirtualization.
Si
la virtualizzazione proposta da AMD e Intel non e' la stessa cosa della "virtualizzazione" di VMWare, XEN e VirtualPC: queste sono EMULAZIONI.
La virtualizzazione dei sistemi permette di creare altri ambienti operativi, indipendenti dal primo, con i quali dividere le risorse dell'intero sistema, usando l'HW per come dev'essere usato al meglio, ossia con i propri driver, e non emulando i driver, e tantomento emulando l'HW.
Questa nuova operativita' permette di avere piu' ambienti lavorativi, sulla stessa macchina, ma separati; delle shell capaci di sfruttare la macchina in ogni sua parte per quanta potenza e' disponibile al momento, capaci all'occorrenza di dialogare tra' loro.
gli esempi per le realta' professionali sono molteplici, ma focalizzerei piu' che altro sulla realta' casalinga, quella degli utenti normali:
ad oggi gia' un dual-booting puo' dare dei vantaggi considerevoli, permettendo di separare un'ambiente lavorativo da un'ambiente ludico; con alcuni sistemi operativi si puo' decidere all'occorrenza che servizzi abilitare, gravando sulle risorse del sistema, ma domani sara' possibile avere ambienti dedicati, ossia delle shell con OS dedicati a compiti specifici, a livello di applicazione, moduli da poter avviare indipendentemente dagli altri, leggeri, accuratamente studiati, semplici, e percio' facilmente proteggibili; interattivi tra' di loro, ma indipendenti, diversamente da oggi, dove si ha un registro unico per tutto il sistema, e dove un'applicazione puo' "invadere" settaggi e operativita' di un'altra, sia essa anche una parte vitale del sistema.
a questo punto si potra' avere una shell per la navigazione, protetta da una shell firewall, e controllata da una shell antivirus, scaricare un'immagine, avviare la shell di lavorazioni immagini, elaborarla e poi passarla alla shell d'impaginazione e metterla su un foglio di lavoro.
qual'e' il vantaggio?
tra' uno step e l'altro si possono chiudere le shell non indispensabili e scaricare dalle risorse del sistema, potendo ottenere cosi' un sistema intrinsecamente leggero e veloce.
guardate i sistemi general porpouse di oggi: ora ho aperta una sola pagina del browser, ho un'allocamento della ram di oltre 280MB, e sono pochi, perche' in background girano decine di piccoli programmi e servizzi che non sono necessari al momento, ma che lo potrebbero diventare a richiesta, richieste che per certi lavori non avverrano mai: avere il servizio di Acquisizione immagini di windows WIA, o il "zero configuration per le reti senza fili" ora non serve, ma e' comunque attivo, perche' potrebbe servirvi in un'altro ambito di lavoro, ed e' poco utile arrestarlo per poi riavviarlo; ma il problema non e' se e' attivato o disattivato, ma che per averlo, questo, come innumerevoli altri servizzi, programmi e funzionalita', ho un registro di configurazione del sistema da oltre 80MB, e si' che lo curo abbastanza.
Non sarei sorpreso se alcuni utenti avessero oltre 200MB di registro sulle proprie macchine..
(per rendervene conto aprite regedit ed esportate tutto il registro della vosta macchina)
La virtualizzazione mi permetterebbe di lavorare con si e no 50MB di ram occupata, eliminerebbe il 50% del carico della CPU (ma solo perche' il carico e' quasi nullo), il che mi consentirebbe di poter fare agevolmente lo stesso lavoro con un 400MHz, invece che con un 1000Mhz calmierato dal C&Q; con il modo di operare dei sistemi moderni, o meglio l'uso che ne fanno le persone, un processore da 1000Mhz e' il minimo che si possa avere, e sarebbe quasi inutile progettare una CPU piu' complicata in modo da poter scendere ancora sotto questa soglia, senza poi avere reali benefici sia di risparmio che di operativita' (tanto in basso non ci andrebbe quasi mai).
Ma un dual core e' diverso, infatti i nuovi yotha hanno stati di quiete ben piu' aggressivi (ma funzionano?).
comunque, all'ocorrenza, potrei aver bisogno di altri 500MB di ram per il fotoritocco, e qui' c'e' la differenza, perche' in una situazione odierna questi sono utilizzati da tutto il sistema, e il resto e' a disposizione del programma di fotoritocco, mentre un domani potrei utilizzare esclusivamente la shell dedicata all fotoritocco, e mi risparmierei un'altro banco di ram..
serviranno ancora 5 o 6 anni prima di ottenere reali vantagi da questa tecnologia, ma prevedo che l'evoluzioni degli OS saranno sensibili: si comprera' un OS di gestione, una specie di BIOS a livello superiore, e tanti moduli specifici da poter aggiungere, alla stregua dei programmi di oggi.
in questo modo il passaggio sara' inavvertibile, ma saranno sensibilmente piu' sfruttate le macchine, soprattutto in previsione di multi-core di futura generazione.
Credo ci sia ben altro sotto... mi sbaglio?
Per una casa avere la multiutenza vera che è stata introdotta con Windows XP è già sufficiente. Chiaro che se poi c'è lo studente a cui serve Linux, il fratellino che deve provare giochi e download, il padre che usa programmi di contabilità e non vuole vedere il pc devastato dalle porcherie dei suddetti due allora la virtualizzazione può essere utile anche in casa...
Credo ci sia ben altro sotto... mi sbaglio?
Ad esempio si potrebbe far girare ogni applicazione in una macchina virtuale ad essa dedicata con elevate prestazioni e stabilità elevatissima, dato che la separazione delle applicazioni viene realizzata in hhardware e non in software come avviene ora. Secondo te quali vantaggi presenta questa situazione?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".