24 hard disk SATA in uno chassis a 4 unità
di Paolo Corsini pubblicata il 07 Marzo 2009, alle 08:14 nel canale Device
Supermicro abbina una elevata potenza elaborativa, sino a 4 processori, a configurazioni di storage particolarmente complesse. Il tutto in sole 4 unità rack di ingombro.
61 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infosi potrebbe andare, un po' limitato lo storage se si usao 24 dischi da "soli" 2 tb si hanno solo 48 tb di spazio, un po' limitato direi...
ps scherzo il mio htpc ha 2 dischi ed in totale meno di 250 gb di spazio e va benissimo!
Se invece lavori con gente "mezza-onesta" e con tanta voglia di lavorare, probabilmente troverai persone in grado di accontentarsi di meno della metà di quella cifra.
Sulle cifre ovviamente ogni caso fa testo a se, però se vuoi gente che sappia lavorare e non i soliti junior mezzi skillati e mezzi improvvisati, le cifre non sono poi molto distanti da quelle che ho dato.
Non è questione di onestà o meno, se una azienda ha delle esigenze, ha bisogno di alcune skill e non se le procura, quando scoppia "la bomba" è giusto e sacrosanto che paghi, e paghi salato, per non essersi organizzata.
Frazione di costi? Beh non mi pare che questo coso lo regalino, 2000 $ senza cpu, ram e dischi, bastano le cpu e la ram a portarlo al costo di una san IBM DS4000 e imho ci saltano fuori anche un po' di HBA PCIe.
Con i prezzi aggressivi tipici di Dell invece ci saltano fuori anche un po' di TB di dischi (SATA ovviamente).
Che soluzione avresti in mente? Tutti array software? Scriptini che girano giorno e notte che verificano i /proc/mdstat?
No guarda non ci siamo, io ho chiuso con quella roba dopo averci sbattuto il naso per anni, installare i bootloader su tutti i dischi, limitazioni sugli array raid5, fermi macchina perchè la mainboard di turno non digerisce un disco che gli sparisce da sotto i piedi...
Basta... bisognerebbe impegnarsi per fare qualcosa di costruttivo e non star dietro a queste quisquilie perdendo un sacco di tempo per operazioni banali.
Anch'io sono contro i controller locali ma solo perchè voglio sostituirli a tante belle lun che stanno in san, per evitare di perdere tempo proprio per questi motivi, dammi retta san + lvm = problema dello storage risolto
La garanzia si può anche estendere a tempo indeterminato con appositi programmi di manutenzione, non vedo cosa ci sia di strano o scandaloso in tutto questo.
Supermicro fa forse assitenza a tempo indeterminato?
Purtroppo però mi sa che ci dovremo accontentare di qualche articolo markettaro che ci dirà quanto è bello Exchange e quanto è figo Sharepoint...
Peccato che Lotus Domino facesse tutto questo e molto di più già 10 anni fa...
tanto per capire
Coi nuovi dischi da 2TB che arrivano tra poco... 2x24=48TB...
Gira gira...
Come usare questi mostri
In campo scientifico si possono usare per tenere dati che non si vogliono tenere su nastro ma comunque ad accesso rapido. Se devi accedere a diversa centinaia di TB non ti puoi permettere di metterli tutti su dischi SAS a 10000 giri o 15000 giri. E' ovvio che oggetti del genere hanno normalmente una protezione RAID 5 o RAID 6 ma a volte e' sufficiente anche nessuna protezione (quindi RAID 0 in stripiing per avere piu' performances) se puoi recuperare i dati da un altra fonte (unduplicato in rete, o dei nastri)
In campo non scientifico l'applicazione ideale e' come streaming server per contenuti multimediali dove non importa tanto la latenza di accesso quanto il throughput.
Oggetti simili potrebbe servire i dati anche via ISCSI o via GPFS o altri filesystem distribuiti. Non e' detto che debbano per forza avere un server NFS per ogni box.
Cmq non serve andare a scomodare i colossi per vedere grosse cifre, il cliente da cui sono ora per i backup ha una macchina IBM Total Storage da 12 PB, ok son backup ma parliamo di 12 PetaByte
guarda che 48TB raw non sono niente
Cmq non serve andare a scomodare i colossi per vedere grosse cifre, il cliente da cui sono ora per i backup ha una macchina IBM Total Storage da 12 PB, ok son backup ma parliamo di 12 PetaByte
12.582.912 GB...
IMPRESSIVE
E dopo i Peta?
centinaia di tera
Centinaia di tera servono a chi tiene dati scientifici, per esempio CERN (i dati di LHC sono sui 15000 TB, quindi ti bastano 150 macchine da 100TB) ma mole di dati simili servono anche per chi lavora su GENOMA.In campo non scientifico le teche RAI immagino siano su macchine simili. ovviamente altre compagnie televisive.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".