24 hard disk SATA in uno chassis a 4 unità

di pubblicata il , alle 08:14 nel canale Device 24 hard disk SATA in uno chassis a 4 unità

Supermicro abbina una elevata potenza elaborativa, sino a 4 processori, a configurazioni di storage particolarmente complesse. Il tutto in sole 4 unità rack di ingombro.

 
61 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
ARARARARARARA08 Marzo 2009, 21:37 #41
Originariamente inviato da: kuru
l'htpc ideale per alcuni sboroni di questo forum


si potrebbe andare, un po' limitato lo storage se si usao 24 dischi da "soli" 2 tb si hanno solo 48 tb di spazio, un po' limitato direi...

ps scherzo il mio htpc ha 2 dischi ed in totale meno di 250 gb di spazio e va benissimo!
Tasslehoff08 Marzo 2009, 23:07 #42
Originariamente inviato da: bLaCkMeTaL
...dipende: se hai a che fare coi "consulenti ladri" (quelli che non vogliono lavorare, insomma...) allora OK, concordo.
Se invece lavori con gente "mezza-onesta" e con tanta voglia di lavorare, probabilmente troverai persone in grado di accontentarsi di meno della metà di quella cifra.
Guarda, sarà che io lavoro come consulente in uno scenario (PA) dove noi consulenti siamo per l'appunto chiamati a operare per supplire alle mancanze e alla malavoglia dei dipendenti pubblici di quelli specifico ente, per cui onestamente faccio un po' fatica a immaginare uno scenario in cui sono i consulenti a non voler lavorare

Sulle cifre ovviamente ogni caso fa testo a se, però se vuoi gente che sappia lavorare e non i soliti junior mezzi skillati e mezzi improvvisati, le cifre non sono poi molto distanti da quelle che ho dato.
Non è questione di onestà o meno, se una azienda ha delle esigenze, ha bisogno di alcune skill e non se le procura, quando scoppia "la bomba" è giusto e sacrosanto che paghi, e paghi salato, per non essersi organizzata.

Questo mi sembra molto buono come server per le medie con un buon know-how interno o un buon servizio di supporto esterno, ad una frazione dei costi rispetto alle tradizionali dell, ibm o hp (oppure vogliamo ignorare il fatto che i prezzi scompaiono magicamente dalle soluzioni di storage enterprise dal sito della dell...).
Beh non vorrai paragonarmi un "pcione" assemblato della supermicro come quello di questa news con una soluzione di storage enterprise modulare e in fibra, vero? Andiamo non scherziamo...

Frazione di costi? Beh non mi pare che questo coso lo regalino, 2000 $ senza cpu, ram e dischi, bastano le cpu e la ram a portarlo al costo di una san IBM DS4000 e imho ci saltano fuori anche un po' di HBA PCIe.
Con i prezzi aggressivi tipici di Dell invece ci saltano fuori anche un po' di TB di dischi (SATA ovviamente).

Io personalmente sarei più orientato verso soluzioni controllerless, anche se non sempre è possibile/fattibile/scalabile (facciamole lavorare queste CPU!).
Pienamente d'accordo sul far lavorare le cpu (se penso a quante macchine straperformanti ho visto con carichi ridicoli solo per cattive analisi di bilanciamento mi viene da mangiarmi le mani... ) ma facciamogli fare qualcosa di utile macinando applicazioni, query, dati, non lo storage.

Che soluzione avresti in mente? Tutti array software? Scriptini che girano giorno e notte che verificano i /proc/mdstat?
No guarda non ci siamo, io ho chiuso con quella roba dopo averci sbattuto il naso per anni, installare i bootloader su tutti i dischi, limitazioni sugli array raid5, fermi macchina perchè la mainboard di turno non digerisce un disco che gli sparisce da sotto i piedi...
Basta... bisognerebbe impegnarsi per fare qualcosa di costruttivo e non star dietro a queste quisquilie perdendo un sacco di tempo per operazioni banali.
Anch'io sono contro i controller locali ma solo perchè voglio sostituirli a tante belle lun che stanno in san, per evitare di perdere tempo proprio per questi motivi, dammi retta san + lvm = problema dello storage risolto

...finché vale la garanzia! Mica IBM, dell, hp etc. offrono sempre supporto gratuito...anzi!
Beh questo è ovvio, se si compra dell'hardware non si può certo pretendere che intervenga l'assistenza senza un opportuno contratto di manutenzione...
La garanzia si può anche estendere a tempo indeterminato con appositi programmi di manutenzione, non vedo cosa ci sia di strano o scandaloso in tutto questo.
Supermicro fa forse assitenza a tempo indeterminato?


...se iniziamo a basarci sulle testimonianze degli sconosciuti (con tutto il rispetto per l'utente che ha postato la sua esperienza), allora si che siamo apposto! Io voglio test comparativi dalle fonti di stampa tradizionali/online accreditate.
Anche a me piacerebbero test comparativi su prodotti di questo tipo, sacrificherei volentieri tutti gli articoli sulla fotografia per avere una approfondimento di prodotti enterprise.
Purtroppo però mi sa che ci dovremo accontentare di qualche articolo markettaro che ci dirà quanto è bello Exchange e quanto è figo Sharepoint...
Peccato che Lotus Domino facesse tutto questo e molto di più già 10 anni fa...
NWEvolution09 Marzo 2009, 01:10 #43
a me sembra che l'abbiano progettato con il clone tool di photoshop O.O
Baboo8509 Marzo 2009, 11:04 #44
Bel sistemone ram massima 2x12=24GB?

Originariamente inviato da: amd-novello
la capienza massima quanto sarebbe?
tanto per capire


Coi nuovi dischi da 2TB che arrivano tra poco... 2x24=48TB...



Originariamente inviato da: Pikazul
No no, bisogna chiedere se ci gira Crysis


Gira gira...
nagual09 Marzo 2009, 12:00 #45

Come usare questi mostri

In campo scientifico si possono usare per tenere dati che non si vogliono tenere su nastro ma comunque ad accesso rapido. Se devi accedere a diversa centinaia di TB non ti puoi permettere di metterli tutti su dischi SAS a 10000 giri o 15000 giri. E' ovvio che oggetti del genere hanno normalmente una protezione RAID 5 o RAID 6 ma a volte e' sufficiente anche nessuna protezione (quindi RAID 0 in stripiing per avere piu' performances) se puoi recuperare i dati da un altra fonte (un
duplicato in rete, o dei nastri)
In campo non scientifico l'applicazione ideale e' come streaming server per contenuti multimediali dove non importa tanto la latenza di accesso quanto il throughput.
Oggetti simili potrebbe servire i dati anche via ISCSI o via GPFS o altri filesystem distribuiti. Non e' detto che debbano per forza avere un server NFS per ogni box.
amd-novello09 Marzo 2009, 12:34 #46
ommadonna e centinaia di tera a chi servono se non google yahoo & co.?
Tasslehoff09 Marzo 2009, 14:33 #47
Originariamente inviato da: amd-novello
ommadonna e centinaia di tera a chi servono se non google yahoo & co.?
google, yahoo & co per i loro servizi si appoggiano tutti ad Akamai.

Cmq non serve andare a scomodare i colossi per vedere grosse cifre, il cliente da cui sono ora per i backup ha una macchina IBM Total Storage da 12 PB, ok son backup ma parliamo di 12 PetaByte
matcy09 Marzo 2009, 15:53 #48
Originariamente inviato da: amd-novello
ommadonna e centinaia di tera a chi servono se non google yahoo & co.?


guarda che 48TB raw non sono niente
Baboo8509 Marzo 2009, 17:05 #49
Originariamente inviato da: Tasslehoff
google, yahoo & co per i loro servizi si appoggiano tutti ad Akamai.

Cmq non serve andare a scomodare i colossi per vedere grosse cifre, il cliente da cui sono ora per i backup ha una macchina IBM Total Storage da 12 PB, ok son backup ma parliamo di 12 PetaByte


12.582.912 GB...

IMPRESSIVE

E dopo i Peta?
nagual09 Marzo 2009, 17:37 #50

centinaia di tera

Centinaia di tera servono a chi tiene dati scientifici, per esempio CERN (i dati di LHC sono sui 15000 TB, quindi ti bastano 150 macchine da 100TB) ma mole di dati simili servono anche per chi lavora su GENOMA.
In campo non scientifico le teche RAI immagino siano su macchine simili. ovviamente altre compagnie televisive.



Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^