MeisterKühler

Zoldan’s Fileserver

Ansicht von 56 Antwort-Themen
  • Autor
    Beiträge
    • #495416
      Zoldan
      Teilnehmer

      Ich bin mal wieder in Bastellaune und da mein HTPC ja kürzlich fertig geworden ist, steht nun ein Server an, der hauptsächlich als Datengrab dienen soll, allerdings auch für alle möglichen anderen Sachen.Für den Fall, dass es überhaupt wen interessiert, halte ich das hier fest.Aktuelle Hardware:Gigabyte GA-MA785G-UD3HAMD Athlon II X4 620Scythe Big Shuriken2x1GB Corsair DDR2 8004 x WD15EADS1 x WD1600BEVTSeasonic SS-250SUSharkoon Rebel93 x CoolerMaster 4in3 Device ModuleTagebuch:Tag 1:”Eine neue PACKSTATION-Sendung ist für Sie da” !! Ich mag Mails mit diesem Betreff. Das Paket habe ich natürlich direkt abgeholt. Darin fand ich die CPU “AMD Athlon II X4 620”, das Board “ASRock A780LM, 760G” und eine Festplatte “Western Digital Caviar Green 1500GB”. Dazu gesellten sich schnell 2x1GB RAM die ich dem Server aus meinem PC spendiere, eine bereits vorhandene WD15EADS und das “Seasonic SS-250SU” 80+ Bronze Netteil, welches ich noch im Schrank liegen hatte. Da leider noch das Gehäuse fehlt, wurde erst mal alles auf dem Schreibtisch zusammen gebaut, um erste Tests zu machen. Als Systemplatte benutze ich vorerst eine alte Maxtor 120GB Festplatte mit IDE Anschluss. Später soll das System vielleicht auf eine SSD, CompactFlash Card o.ä. umziehen. Dann habe ich die Ubuntu Server Edition installiert und mit k10ctl undervolted. Resultate hier:[CODE]800 Mhz @ 0.775V idle: 48W800 Mhz @ 0.775V prime: 51W1500 Mhz @ 0.875V idle: 51W1500 Mhz @ 0.875V prime: 63W2200 Mhz @ 1.025 idle: 58W2200 Mhz @ 1.025 prime: 80W2600 Mhz @ 1.15V idle: 63W2600 Mhz @ 1.15V prime: 99W[/CODE]Im Gegensatz zu meinem 4850e im HTPC ist das zwar ziemlich viel, allerdings ist in dem Rechner auch keine PicoPSU und eine ziemlich alte 3,5″ Festplatte von 2003, die wohl noch ziemlich viel schlucken wird. Ohne die Festplatte, mit PicoPSU und Undervolten/-clocken der NB wird man vielleicht auf 35W kommen (für einen Quad Core nicht soo übel :respekt:, die Stromspar Quads wie 600e sind in meinen Augen zu dem Preis nicht rentabel). Mit 48W idle kann ich aber denke ich gut leben. Wenn die Festplatten drin sind geht’s eh hoch. :cry:Warten auf weitere Komponenten!Tag2:Heute ist endlich die zweite Lieferung angekommen: 2 weitere WD15EADS \D/ Damit habe ich vorerst alle Komponenten da. Leider fehlt immer noch das Gehäuse (wird vermutlich erst nächstes Jahr komplett eintreffen, da das auch nochmal 2 Sendungen sind – hört sich nach sinnlosen Versandkosten an, aber es war wirklich günstiger mehre Aufträge zu bestellen). Die Festplatten habe ich zuerst an meinen Windows PC angeschlossen, um sie mit HDTune zu testen und mit TrueCrypt zu formatieren. (TrueCrypt nur um die Festplatte einmal mit Zufallsdaten zu füllen. /dev/urandom schafft auf dem QuadCore leider nur knappe 7MB/s pro Kern. TrueCrypt schafft auf meinem e6750 knappe 100MB/s pro Kern :x) Hier zeigte sich schnell, wie “groß” die Platten eigentlich sind. Das formatieren der Platten dauerte ca. 10 Stunden (zum Glück war ich auf ‘nem Turnier und musste nicht zu gucken wie mein PC 10 Stunden rumdödelt :cool:). Das überprüfen auf Fehler hab ich dann über Nacht laufen lassen (dürfte auch so 3-5 Stunden gedauert haben).Tag3:Der Rechner ist „komplett“, das Linux läuft und die Festplatten sind vorbereitet. Es stehen jetzt also Raid-Tests an. Zuerst interessiert mich wie schnell das Raid ohne Verschlüsselung ist. Ich habe das Array erst mal mit 3 Festplatten initialisiert, um noch zu testen, wie leicht sich das Array mit einer Festplatte erweitern lässt. Das initialisieren mit 3 Festplatten dauert ca. 8 Stunden mit Schreibgeschwindigkeiten im Schnitt um die 60MB/s.Heute ist auch das Gehäuse „Sharkoon Rebel 9“ gekommen. Ist ein schickes Teil, kann allerdings in Sachen Qualität nicht mit meinem alten Chieftec CS-601 mithalten. Das einzige was mich stört ist, dass in der Front ein Loch ist, da ich kein externes 3,5“ oder 5,25“ Laufwerk einbaue und die Frontpanel Anschlüsse hätte man einfach auf die andere Seite machen sollen, damit die Kabel nicht immer auf der „Einbauseite“ rum baumeln. Leider fehlen mir noch die drei Festplattenkäfige, die vermutlich erst nächstes Jahr kommen werden.Ein bisschen Sorgen mache ich mir bei diesen hoch stehenden „Hügeln“ für die Mainboardbefestigung. Die Auflagefläche ist meiner Meinung nach ziemlich groß und ich hab angst, dass da irgendwelche Pins, Leitungen, whatever kontakt bekommen. Allerdings sind im Zubehör auch so Unterlegscheiben (Gummi vermute ich) die vielleicht dafür sind. Hat diese „Hügel“ auch jemand im Gehäuse??! (siehe viertes Gehäuse Foto) Geschwindigkeitsergebnisse gibt’s dann wenn das Array initialisiert ist. Dauert leider immer alles ewig x(Tag 4:Das 3 Platten Array ist initialisiert. Ich habe es mit ext4 formatiert.Array chunk-size: 64KBExt4 Block größe: 4KBStride: 16Stripe-size: 32Hier meine Messwerte: [CODE]Version 1.03c ——Sequential Output—— –Sequential Input- –Random- -Per Chr- –Block– -Rewrite- -Per Chr- –Block– –Seeks–Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CPHermes 4G 74358 99 143629 13 63076 6 67702 83 204070 9 482.0 0[/CODE]143MB/s schreibend und gute 200MB/s lesend. Das nenne ich mal ordentlich und liegt auch am Maximum was die Platten ausgeben können. Schreibgeschwindigkeit ist natürlich wegen dem Radi5 etwas geringer.Das Raid mit einer weiteren Platte zu erweitern dauert geschätzte 24 Stunden. Was passiert also wenn da ein Stromausfall ist? „sudo reboot“ – Hmm! Keine Möglichkeit mehr das Array zu assemblen. Laut der Linux Foundation Seite gibt es nur eine Critical Section am Anfang des Vorgangs, die allerdings schon lange vorbei war. Wenn man das Array wieder einbinden will, kriegt man immer ein „Segmentation fault“. Die Idee mit dem erweitern habe ich jetzt ziemlich schnell über Bord geworfen. Die Sache hört sich in der Theorie zwar schön an, aber im laufenden Betrieb (mit mit Daten gefüllten Festplatten) ist mir das zu „heiss“. Ich würde auch jedem mit ruhigem Gewissen raten es sein zu lassen. ;)Ab jetzt werden alle Tests mit 3GB Partitionen gemacht, um Zeit zu sparen.Array mit 4 Festplatten:Array chunk-size: 64KBExt4 Block größe: 4KBStride: 16Stripe-size: 48[CODE]Version 1.03c ——Sequential Output—— –Sequential Input- –Random- -Per Chr- –Block– -Rewrite- -Per Chr- –Block– –Seeks–Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CPHermes 4G 74048 99 183128 17 76258 8 66895 83 286574 14 508.9 0 [/CODE]183MB/s schreibend und 286MB/s lesend. Sollte auch hier wieder maximal machbare sein. Ich bin zufrieden! Hoffentlich halten sich die Geschwindigkeiten mit der Verschlüsselung.Tag 5 – Verschlüsselung:Oder auch Tag 5 die dritte. Ich habe mittlerweile viele „unsinnige“ Tests gemacht. Dementsprechend wurde heute viel geschrieben und wieder verworfen :DAngefangen habe ich mit einfacher Verschlüsselung des Raids mit luks. Leider wird die Verschlüsselung nicht auf mehrere Kerne aufgeteilt. Auf einem Kern erreichte ich so ca. 70-110MB/s (die Werte schwanken ziemlich stark). Ich habe dann das gleiche nochmal mit TrueCrypt versucht, da dieses auf meinem Windows PC schön mit der Anzahl der Kerne skaliert. Auf einem Linux ist TrueCrypt allerdings nur ein wrapper für luks und damit auch nicht MultiCore fähig. Den einzigen Vorteil den man durch TrueCrypt hat ist diese Hidden-Volume Geschichte usw. (Hier wollte ich nur mal testen, ob TrueCrypt wesentlich schneller ist oder nicht – ich wollte von vornherein luks benutzen).Dann habe ich den Raidverbund aufgelöst und jede einzelne Partition verschlüsselt und über die verschlüsselten devices einen Raid gebildet. Hier konnte ich Werte bis 160MB/s erreichen. Damit lässt sich schonmal eine GBit Verbindung bedienen. Die Geschwindigkeit erreichte ich sowohl auf den ersten 3GB der Platten, als auch auf den letzten 3GB der Platten. Die CPU ist lange nicht ausgelastet. Ich schätze man könnte auf dem QuadCore locker 3 bis 4GBit bedienen.Bisher wurden alle Tests mit dem aes-cbc-essiv:sha256 gemacht. Ein weiterer Test ergab, dass aes-xts-plain ca. 20Mb/s schneller ist. Der cipher ist zwar „nicht stable“, aber afaik sicherer und schneller als aes-cbc.Ich benutze nun als cipher aes-xts-plain mit 256Bit, ein ziemlich langes Passwort, 64KB chunk-size und ein ext4 Dateisystem. Derzeit läuft die initialisierung des Arrays. Ich sag nur zzzZZZzzZ![CODE]md0 : active raid5 dm-3[4] dm-2[2] dm-1[1] dm-0[0] 4395115392 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_] [=>……………….] recovery = 8.8% (129979148/1465038464) finish=1122.5min speed=21760K/sec[/CODE]Und am Ende geht die Schreibgeschwindigkeit ja noch runter. Ich schätze insgesamt so auf ca. 30 Stunden.P.S. Wenn mir jemand erklären kann warum sich die Schreibgeschwindigkeit fast halbiert wäre ich für diesen Input sehr dankbar. Ich könnte mir vorstellen, dass er beim schreiben auf die Platte bzw. lesen von der Platte immer die Zeit für die Verschlüsselung warten muss und währenddessen blockiert. Allerdings wundert mich dann, dass die Geschwindigkeit zum Ende des Arrays nicht abnimmt. Ich hab aber auch keine Ahnung wie das intern funktioniert. Ist nur eine Vermutung.

    • #837663
      Zoldan
      Teilnehmer

      Tag 4:
      Das 3 Platten Array ist initialisiert. Ich habe es mit ext4 formatiert.
      Array chunk-size: 64KB
      Ext4 Block größe: 4KB
      Stride: 16
      Stripe-size: 32
      Hier meine Messwerte:

      [CODE]
      Version 1.03c ——Sequential Output—— –Sequential Input- –Random-
      -Per Chr- –Block– -Rewrite- -Per Chr- –Block– –Seeks–
      Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
      Hermes 4G 74358 99 143629 13 63076 6 67702 83 204070 9 482.0 0
      [/CODE]

      143MB/s schreibend und gute 200MB/s lesend. Das nenne ich mal ordentlich und liegt auch am Maximum was die Platten ausgeben können. Schreibgeschwindigkeit ist natürlich wegen dem Radi5 etwas geringer.
      Das Raid mit einer weiteren Platte zu erweitern dauert geschätzte 24 Stunden. Was passiert also wenn da ein Stromausfall ist? „sudo reboot“ – Hmm! Keine Möglichkeit mehr das Array zu assemblen. Laut der Linux Foundation Seite gibt es nur eine Critical Section am Anfang des Vorgangs, die allerdings schon lange vorbei war. Wenn man das Array wieder einbinden will, kriegt man immer ein „Segmentation fault“. Die Idee mit dem erweitern habe ich jetzt ziemlich schnell über Bord geworfen. Die Sache hört sich in der Theorie zwar schön an, aber im laufenden Betrieb (mit mit Daten gefüllten Festplatten) ist mir das zu „heiss“. Ich würde auch jedem mit ruhigem Gewissen raten es sein zu lassen. 😉
      Ab jetzt werden alle Tests mit 3GB Partitionen gemacht, um Zeit zu sparen.

      Array mit 4 Festplatten:
      Array chunk-size: 64KB
      Ext4 Block größe: 4KB
      Stride: 16
      Stripe-size: 48

      [CODE]
      Version 1.03c ——Sequential Output—— –Sequential Input- –Random-
      -Per Chr- –Block– -Rewrite- -Per Chr- –Block– –Seeks–
      Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
      Hermes 4G 74048 99 183128 17 76258 8 66895 83 286574 14 508.9 0
      [/CODE]

      183MB/s schreibend und 286MB/s lesend. Sollte auch hier wieder maximal machbare sein. Ich bin zufrieden! Hoffentlich halten sich die Geschwindigkeiten mit der Verschlüsselung.

    • #837678
      littledevil
      Teilnehmer

      Glückwunsch zum Fileserver!
      Sind Deine Meßwerte mit schlafenden Platten oder wenn diese Laufen?

      Interessant find ich vor allem, was von den tollen Datenübetragungswertem übers Netzwerk noch übrig bleibt.

    • #837706
      Zoldan
      Teilnehmer

      Danke, aber noch ist er ja nicht fertig :(Die Meßwerte sind natürlich mit laufenden Platten. Denn wenn sie schlafen würden und 286MB/s ausspucken möchte ich gar nicht wissen, was da gehen würde wenn sie laufen!! :lol:Blöder Scherz bei Seite, ich denke mal du meinst den Stromverbrauch. Das war noch nur mit Systemplatte, weil ich irgendnem User hier Vergleichwerte geben wollte.Ich hab mir aus China so einen CompactFlash IDE Adapter für ‘n Euro bestellt. Wenn der angekommen ist wollte ich noch mal einen Test machen mit laufendem Raid/schlafendem Raid. Ich denk mal die Systemplatte die da drin ist dürfte ungefähr so viel saufen, wie die vier Green Power Platten zusammen. 😆 Stromverbrauch interessiert mich bei dem Ding auch nur bedingt, da er eh nur wenige Stunden pro Tag/Woche laufen wird.Ja, mit Netzwerk ist vorerst nicht wirklich testbar, weil es derzeit nur ein 100mbit Netz über meine FritzBox gibt. Ich hatte mir überlegt, in das Server Gehäuse einen 5 oder 8 Port 1Gbit Switch einzubauen (ein ähnliches Projekt gabs hier im Forum schonmal irgendwo glaube ich). Da gibt es ganz schicke Dinger, die auch in einen 5,25″ Schacht passen würden. Allerdings habe ich im Moment noch so viele Baustellen, dass das zumindest erstmal ein paar Wochen verschoben wird.Im übrigen schluckt die Verschlüsselung allerdings auch noch einiges. Näheres dazu in Tag 5. Poste ich bei gelegenheit. Die tests sind schon fertig.

    • #837752
      littledevil
      Teilnehmer

      Wird das ein backupsystem und warum nur wneiger stunden?
      Mein NAs läuft 24/7 😎

    • #837776
      Zoldan
      Teilnehmer

      Nein, wird kein reines Backupsystem. Wenn ich die Daten nicht brauche kann sich das Teil auch ruhig schlafen legen. Per WOL o.ä. ist der Rechner ja so schnell hoch gefahren, dass ich die 30 Sekunden ruhig warten kann.
      Das was ich wirklich oft brauche stelle ich auf meiner FritzBox bereit. Da liegen meine Mails, Subversion etc pp drauf. Der Server wird davon in Zukunft öfter mal ein Backup ziehen, allerdings wird das nicht viel Speicher verbrauchen. Alles was ich nicht oft brauche und groß ist (Fotos, Videos, usw) wird in Zukunft vom guten Hermes bereit gestellt.

    • #837779
      littledevil
      Teilnehmer

      Erwarte nicht zu viel vom CompactFlash IDE Adapter für einen EUR.
      Wird wahrscheinlich nicht sher shcnell sein, aber für ne MEssung genügt es 😉

      Zoldan;400272 said:
      …stelle ich auf meiner FritzBox bereit

      Wie sind deine Erfahrung damit? 90% der zeit brauche ich auch nicht mal 10% der daten… (feedback auch gern per PN)

    • #837781
      Zoldan
      Teilnehmer

      Passt hier zwar nicht rein aber jetzt hab ich einmal damit angefangen … O:-)

      Ich komme damit ziemlich gut klar. Ich hab mir da eine 2,5″ Festplatte per USB angeschlossen. Leider liefert die FritzBox 7170 zwar genug Strom über USB um die Platte am laufen zu halten, allerdings nicht für den SpinUp (das kann allerdings auch an meiner Platte liegen, am PC funktioniert es allerdings). Ein zusätzlicher Adapter für die Steckdose ist also zwingend nötig. Ab und zu wird die Platte auch einfach so “ausgeworfen”. Dann brauche ich teilweise zwei/drei Versuche, bis die Platte schnell genug eingebunden wurde, dass alles im Bootskript ausgeführt wurde (sonst müsste ich das alles per Hand machen). Ist wahrscheinlich nur eine Konfigurationssache, aber ich bin zu faul da für 6 mal im Jahr noch Grips rein zu stecken. 🙂 Das ist mir letztes Jahr allerdings nur ca. 6 mal oder so passiert, also noch im Rahmen.
      Ich hab auf der Festplatte ein debian installiert. Subversion gibt es schon fertig kompiliert für die FritzBox, alles andere läuft dann halt im chroot auf dem debian (viele Pakete gibts auch für die ARM CPU kompiliert und damit einfach über apt-get abrufbar).
      Einziges Manko ist die 200Mhz CPU 😆 Subversion läuft mit max. 100KB/s (100% CPU Last), FTP auf jeden Fall unter 10Mbit (hier kann ich dir allerdings nicht sagen ob das an der CPU oder an dem langsamen USB Anschluss liegt – kann sein, dass das USB1 ist). Viele kleine Files dauern natürlich entsprechend lange.

      Ich hab mir das damals eingerichtet, weil ich meine Mails, Projektdaten etc irgendwo zentral liegen haben wollte und sowohl auf dem PC, als auch auf dem Laptop auf dem gleichen Datenbestand arbeiten wollte. So stellt sie mir heute einen IMAP Server bereit, der regelmäßig Mails von 5 E-Mail Adresse abholt, Subversion, FTP und SMB Shares. Und das alles für 7W (incl. Festplatte :cool:)

      Ich warte schon gespannt auf die neue 7390! Die Ankündigung ist ja schon ziemlich lange her. Ich hoffe sie kommt bald auf den Markt, da werde ich auf jeden Fall zuschlagen, wenn man gleiche bzw. ähnliche Möglichkeiten hat.
      Fazit: Relativ viel Fummelarbeit am Anfang, läuft danach aber stabil – Empfehlenswert =D>

    • #837784
      littledevil
      Teilnehmer

      nochmal OT:

      hab die 7270 und wenn dann würd ich einen 16-32GB Stick dran hängen für die Office-Daten.

      Werd wohl mal testen müssen, um mir ein bild zu machen…

    • #837785
      Zoldan
      Teilnehmer

      Tag 5 – Verschlüsselung:

      Oder auch Tag 5 die dritte. Ich habe mittlerweile viele „unsinnige“ Tests gemacht. Dementsprechend wurde heute viel geschrieben und wieder verworfen 😀
      Angefangen habe ich mit einfacher Verschlüsselung des Raids mit luks. Leider wird die Verschlüsselung nicht auf mehrere Kerne aufgeteilt. Auf einem Kern erreichte ich so ca. 70-110MB/s (die Werte schwanken ziemlich stark). Ich habe dann das gleiche nochmal mit TrueCrypt versucht, da dieses auf meinem Windows PC schön mit der Anzahl der Kerne skaliert. Auf einem Linux ist TrueCrypt allerdings nur ein wrapper für luks und damit auch nicht MultiCore fähig. Den einzigen Vorteil den man durch TrueCrypt hat ist diese Hidden-Volume Geschichte usw. (Hier wollte ich nur mal testen, ob TrueCrypt wesentlich schneller ist oder nicht – ich wollte von vornherein luks benutzen).
      Dann habe ich den Raidverbund aufgelöst und jede einzelne Partition verschlüsselt und über die verschlüsselten devices einen Raid gebildet. Hier konnte ich Werte bis 160MB/s erreichen. Damit lässt sich schonmal eine GBit Verbindung bedienen. Die Geschwindigkeit erreichte ich sowohl auf den ersten 3GB der Platten, als auch auf den letzten 3GB der Platten. Die CPU ist lange nicht ausgelastet. Ich schätze man könnte auf dem QuadCore locker 3 bis 4GBit bedienen.
      Bisher wurden alle Tests mit dem aes-cbc-essiv:sha256 gemacht. Ein weiterer Test ergab, dass aes-xts-plain ca. 20Mb/s schneller ist. Der cipher ist zwar „nicht stable“, aber afaik sicherer und schneller als aes-cbc.

      Ich benutze nun als cipher aes-xts-plain mit 256Bit, ein ziemlich langes Passwort, 64KB chunk-size und ein ext4 Dateisystem. Derzeit läuft die initialisierung des Arrays. Ich sag nur zzzZZZzzZ!

      [CODE]
      md0 : active raid5 dm-3[4] dm-2[2] dm-1[1] dm-0[0]
      4395115392 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
      [=>……………….] recovery = 8.8% (129979148/1465038464) finish=1122.5min speed=21760K/sec
      [/CODE]

      Und am Ende geht die Schreibgeschwindigkeit ja noch runter. Ich schätze insgesamt so auf ca. 30 Stunden.

      P.S. Wenn mir jemand erklären kann warum sich die Schreibgeschwindigkeit fast halbiert wäre ich für diesen Input sehr dankbar. Ich könnte mir vorstellen, dass er beim schreiben auf die Platte bzw. lesen von der Platte immer die Zeit für die Verschlüsselung warten muss und währenddessen blockiert. Allerdings wundert mich dann, dass die Geschwindigkeit zum Ende des Arrays nicht abnimmt. Ich hab aber auch keine Ahnung wie das intern funktioniert. Ist nur eine Vermutung.


      @littledevil
      : Ein Stichwort: Freetz! Im ip-phone-forum findest du da ziemlich gute Hilfe. Alternativ kannst du mich auch Löchern:shock:

    • #838030
      Zoldan
      Teilnehmer

      Das initialisieren war doch schon nach ca. 24 Stunden durch!
      Mittlerweile ist das erste Terabyte an Daten eingezogen. Hier habe ich gemerkt, dass demnächst auf jeden Fall ein Gigabit Switch nötig ist 🙁 Einige Sachen habe ich auch direkt von einer Festplatte kopiert, die ich vorher als Datengrab nutzte und immer lose in der Wohnung rumfliegen hatte. Allerdings 500GB über ein 100Mbit Netzwerk zu kopieren macht keinen Spass!
      Um die Raid Sicherheit zu testen, solange ich die Daten noch auf irgendwelche anderen Medien habe, habe ich gerade mal den superblock auf einer Platte überschrieben und sie dann neu eingehangen. Im Moment läuft die Wiederherstellung (dauer ca. 12 Stunden). Das vergrößern des Arrays um eine weitere Platte hatte ich ja vorher schon ausgeschlossen, weil zu dem Zeitpunkt dann keinerlei Sicherheit mehr besteht. Wäre Stromausfall, wären alle Daten weg. Wie ist das wenn beim Wiederherstellen der Daten auf der vierten Platte der Strom ausfällt? Im Gegensatz zum hinzufügen einer neuen Platte sollten die Daten auf den restlichen drei Platten ja unberührt bleiben. Schreiben sollte er nur auf die neue Ersatzplatte. Bei einem Stromausfall während der Widerherstellung müsste ich also nur den Prozess neu anstoßen?!? :-k Wenn eine weitere Platte ausfallen würde, wäre natürlich auch alles weg, aber das wollen wir ja keinem Wünschen in dem Fall! [-o< P.S. Bald gibt es auch mal ein paar Bilder vom zusammengebauten Rechner. Wenn vv-Computer nur nicht so elendig langsam liefern würde :cry:. Da bestelle ich nie wieder.

    • #839838
      littledevil
      Teilnehmer

      ist das board nicht etwas oversizend Da passen ja dann min. 2 pcix8 raid-controller rein.Soviel Platz ist gar nicht für festplatten… :DP.S. hab die NAS Funktion von der Fritzbox grad im Einsatz mit dem relativ schnelle 4GB Stick. Zumindest beim lesen bei 100 MBit kommts fast ans NAS ran :d:

    • #839836
      Zoldan
      Teilnehmer

      Ich hab das Board gegen ein “ausgewachsenes” getauscht, um in Zukunft evtl. mehr Spielraum bei Erweiterungen zu haben. Allerdings merke ich im Moment, dass es doch erstmal ein paar wenige Monate dauern wird, bis die 4,5TB voll sein werden. Schön!

      Seit einiger Zeit sind auch die CM 4in3 Festplattenkäfige da, wodurch das System endlich ordentlich in den Tower einziehen konnte. Die Frontblenden der Käfige habe ich abgeschraubt, da mir die Front so wie sie ist besser gefällt.
      Den Boxed CPU Kühler (der war sogar noch lauter als die Festplatten, was schon ein echtes Kunstück ist) hab ich auch noch ausgetauscht gegen einen Scythe Big Shuriken.

      An dieser Stelle möchte ich mich bei der Firma Sharkoon (auch wenn sie das nicht lesen werden :)) für den tollen Support zu bedanken! Da ich ja kein 3,5″ Laufwerk einbaue, störte diese “kaputte” Blende natürlich (siehe erste Fotos vom Gehäuse oben). Mir wurde dafür kostenfrei eine neue komplette Blende per Post geschickt. Super Service und das bei dem relativ günstigen Preis von dem Gehäuse! =D> =D> =D>

      Der Gbit switch ist jetzt auch angekommen und wird über den Festplatten einziehen (sieht man auf dem 2. Foto ganz gut). Dazu musste ich leider ein paar Halterungen für 5,25″ Laufwerke wegschneiden, damit die Käfige weiter nach unten rutschen und oben etwas Platz freigeben, aber i.d.R. würden die Laufwerke ja sowieso festgeschraubt :). Dazu habe ich mir noch ein billiges Patchpanel gekauft, dass die Ports entweder an der Rückseite oder in einer der Frontblenden zur Verfügung stellt (minus 2, die der Server selber belegt).

      Hier mal ein paar aktuelle Fotos:
      http://pic.leech.it/i/b52d2/b9bce466server1.jpg

      http://pic.leech.it/t/7b3b5/cb1a128bserver2.jpg

      http://pic.leech.it/t/f3cf8/443e905server3.jpg

      http://pic.leech.it/t/5147d/006f5a80server4.jpg

      http://pic.leech.it/t/c4da4/ee0cad4server5.jpg

      http://pic.leech.it/t/f233e/c8c7694server6.jpg

    • #839840
      Zoldan
      Teilnehmer

      Naja, so lege ich mich nicht fest darauf, dass ich einen 8x oder 12x Controller kaufen muss. Bei 2 Slots kannste auch 4x wenn die billiger sind.

    • #840260
      spokekiller
      Teilnehmer

      Schöne Maschine…
      Welche Einbaurahmen hast du verwendet, auf den Bildern kann ich das leider nicht sehen und sind da vorne Lüfter dran, oder läßt du die Drives ungekühlt?

      Danke,
      Spoke

    • #840278
      Zoldan
      Teilnehmer

      Zoldan;402527 said:
      Seit einiger Zeit sind auch die CM 4in3 Festplattenkäfige da, wodurch das System endlich ordentlich in den Tower einziehen konnte. Die Frontblenden der Käfige habe ich abgeschraubt, da mir die Front so wie sie ist besser gefällt.

      Cooler Master Stacker 4in3. Die haben vorne jeweil einen 120er Lüfter dran geschraubt. Die Platten sind da relativ eng zusammen. Betrieb mit Lüfter kann ich nur empfehlen, da die Platten ohne schon relativ warm werden. Ich habe die Lüfter nicht runter geregelt, weil die Festplatten eh laut sind. Der Lüfter ist so schon ziemlich hörbar.

    • #840295
      spokekiller
      Teilnehmer

      Ah, Danke… hatte ich doch glatt überlesen. Ich war noch am Grübeln ob sie es sein könnten, habe den Verdacht dann aber verworfen, weil ich nicht an die Möglichkeit gedacht hatte, dass sie jemand ohne Frontblende einbauen würde… so kann man sich täuschen. 😉

    • #841550
      Zoldan
      Teilnehmer

      Nachdem in meinem PC nun eine Intel Postville 80GB haust, brauchte ich dort mein Raid0 aus 2,5″ Festplatte nicht mehr und habe eine davon in den Server gebaut. System war schnell installiert und nun habe ich über 10W Ersparnis! Die alte 3,5″ IDE Platte hat wohl doch ordentlich gesaugt 😆

      Im moment läuft ein resync (ich hab blöderweise keine Ahnung warum. Als ich das Raid das erste mal gemountet habe hat er den resync laut logs bei 9% fortgesetzt 😡 ). Keine Ahnung was da schief gelaufen ist. Die Smart Werte sehen normal aus.
      Eine gute Erkenntnis habe ich nun aber daraus: resync kann fortgesetzt werden. Stromausfall o.ä. macht also doch keine Probleme. Vielleicht kriegt man da doch keine Probleme beim raid growing. Who knows :-k Leider kann ich das nun nicht mehr testen, was damals schief lief, da die Platten alle schon benutzt werden.

    • #874119
      Zoldan
      Teilnehmer

      Update!

      10 Monate ist es her und seitdem ist fast gar nix mehr im Server was hier so drin steht 😀

      Die 1,5TB Platten sind gegen Samsung 2TB getauscht worden, nachdem eine der WD15EADS über den Jordan gegangen ist. Da ich zwischenzeitlich nicht die Kohle über hatte um gleich das große Upgrade auf 8x2TB zu machen, aber dennoch mehr Speicher brauchte habe ich gezwungenermaßen das Wagnis der Raiderweiterung riskiert. Aktuell sind fünf 2TB Platten im Raid5 drin. Zum Glück ist nichts schief gegangen. [-o< Die sind aber schon fast an ihrer Kapazitätsgrenze. Vermutlich Ende Januar/Anfang Februar steht dann aber eine größere Erweiterung mit einem SAS/Sata Controller an. Das Array aus den 1,5TB Platten, dass ich erst verschlüsselt und dann das Raid5 erstellt hatte hat häufiger mal Probleme gemacht. Ich kann nicht sagen, ob es ein Vorbote der defekten Platte war oder an der unüblichen Reihenfolge Verschlüsselung/Raid gelegen hat. Jedenfalls habe ich jetzt erst Raid und dann verschlüsselt (wie üblich). Der Geschwindigkeitsvorteil war ohnehin nicht so groß (~1,5x bei Nutzung aller 4 Kerne) wenn die Verschlüsselung parallel laufen konnte. Die AMD Platform ist passé. Es schlägt jetzt ein i5-650 im Server. Dank Hardwareverschlüsselung läuft das wesentlich flüssiger. Als vorbereitung für die nächsten Festplatten habe ich das Netzteil getauscht gegen ein Seasonic S12II-380 380W. Aktuelle Hardware (fett = geändert): Seasonic S12II-380 380W
      Intel Core i5-650
      MSI H55-E33
      4GB DDR3
      5 x Samsung F3 2TB (HD203WI)

      1 x Western Digital Scorpio Blue 160GB (WD1600BEVT)

      Betriebssystem ist seit kurzem Xen als Hypervisor und Debian Squeeze als dom0. Virtualisiert habe ich einige Ubuntu 10.10 Server. Die Systemplatte ist mit einem USB->Sata Adapter angeschlossen, so dass ich den Onboard Sata Controller direkt an die Fileserver VM weiterreichen kann. Die Performance der network bridge ist leider alles andere als erwartet und gut. Schreiben kann ich mit 40MB/s, lesen nur mit ca. 11MB/s. Beides ist mir eigentlich zu wenig. Für den Alltag reicht mir das zwar, allerdings werde ich gelegentlich weitere Netzwerkkarten einbauen und diese an die entsprechenden VMs durchreichen. Da sollte die Performance wesentlich besser sein.

      Mal wieder viel geschrieben. Hier noch ein paar aktuelle Bilder:

      http://www.meisterkuehler.de/forum/attachment.php?attachmentid=611&d=1293629476
      http://www.meisterkuehler.de/forum/attachment.php?attachmentid=612&d=1293629522
      http://www.meisterkuehler.de/forum/attachment.php?attachmentid=613&d=1293629603

    • #874464
      littledevil
      Teilnehmer

      11 MB/s lesen sind ja wahrlich nicht dolle.

    • #874474
      Zoldan
      Teilnehmer

      Nicht wirklich, aber da ich große Sachen wenn eher als Stream abrufe reicht mir das für den Alltag. Wenn mal mehr verschoben werden soll, habe ich noch eine PCIe x1 NIC rumliegen. Ich bin derzeit was Xen angeht auch noch nicht fertig, daher habe ich noch nicht getestet ob das mit der durchgereichten NIC besser läuft (aber ich gehe davon aus). Vielleicht geht es mit einer neueren Xen Version auch besser. Ich hatte da eine relativ alte laufen.Ich bastel gerade daran, dass ich ein XBMC in einer VM laufen und auf dem Fernseher über die GPU auf der CPU ausgeben lassen kann. Angeblich soll das funktionieren, aber ist wohl ein ziemliches gefrickel.

    • #874512
      Zoldan
      Teilnehmer

      Hmm! Ich habe das gerade mal getestet. Die Geschwindigkeit ist bei direktem Zugriff auf eine Netzwerkkarte “normal”. Was mich noch ein wenig stört ist, dass das Array locker dauerhaft eine GBit Verbindung auslasten kann, aber sobald ungefähr soviel kopiert wurde wie in den Ram geht fällt der Durchsatz von guten 100MB/s auf ~60MB/s. Am Array kanns meiner Meinung nach nicht liegen, da ich lokal auch wesentlich größere Dateien lesen/schreiben kann und die Geschwindigkeit bleibt konstant hoch. Verbaut sind ja nur die billigen Realtek NICs. Liegts an denen oder warum tritt der Effekt auf?

    • #875515
      Zoldan
      Teilnehmer

      Damit das Kabelchaos nicht ausufert, wenn die neuen Platten ankommen habe ich mal ein wenig aufgeräumt und die Stromkabel gegen was hübscheres ersetzt 😉

      http://www.meisterkuehler.de/forum/attachment.php?attachmentid=628&stc=1&d=1294431968

      http://www.meisterkuehler.de/forum/attachment.php?attachmentid=629&stc=1&d=1294431964

    • #878425
      Zoldan
      Teilnehmer

      Upgrade ist durch! Kabelchaos wurde noch etwas weiter “aufgeräumt”. Die Rückseite sieht natürlich dementsprechend aus :lol:. Für 10 Festplatten ist das aber noch relativ übersichtlich.

      Die XEN Virtualisierung habe ich wieder verworfen, da ich die Grafikkarte nicht durchgereicht bekommen habe. Jetzt läuft halt ein Ubuntu 10.10 Server mit den nötigsten X Paketen und XBMC und ich nutze den Server somit auch als HTPC.

      Seasonic S12II-380 380W
      Intel Core i5-650
      MSI H55-E33
      4GB DDR3
      Longshine LCS-8337TXR, 1x 1000Base-T, PCIe x1
      Supermicro AOC-SASLP-MV8
      5 x Samsung F3 2TB (HD203WI)
      4 x Seagate Barracuda LP 5900.12 2TB
      1 x Western Digital Scorpio Blue 160GB (WD1600BEVT)

      http://www.abload.de/img/server6wgco.jpg
      http://www.abload.de/img/server7ieza.jpg

    • #878473
      spokekiller
      Teilnehmer

      Hallo Zoldan, habe jetzt erst die Updates der letzten Woche gesehen. Ist ja erheblich gereift “der (ehemals) Kleine”.Kannst Du mir sagen, wo Du die stromkabel her hast? Sowas brauche ich für meinen Server unbedingt.Ich wäre auch daran interessiert wo Du den Supermicro Controller erworben hast. Bist Du geschwindigkeitsspezifisch zufrieden damit? Du sagtest:

      Was mich noch ein wenig stört ist, dass das Array locker dauerhaft eine GBit Verbindung auslasten kann, aber sobald ungefähr soviel kopiert wurde wie in den Ram geht fällt der Durchsatz von guten 100MB/s auf ~60MB/s.

      Das hatte ich früher auch… Abhilfe hat bei mir geschaffen, RAM nachzustecken, da ich überwiegend große Dateien zw 500 und 6000MB kopiere. Außerdem hat das korrekte Alignment meiner EXT4 Partitionen viel gebracht (Faktor 2!) – Ted Tso hat da einen schönen Artikel dazu geschrieben wenn mich nicht alles täuscht. Bei mir trat das übrigens auf egal über welchen daemon (smb/ftp/rsync) ich übers Netz kam und bei Aktionen lokal…Ich denke das ist einfach ein Caching Problem gewesen. Das Array war dann eben doch nicht so schnell.Ich vermute das ist jetzt mit der neuen HW Geschichte?

    • #878476
      littledevil
      Teilnehmer

      Bin sehr gespannt, wie sich der Supermicro AOC-SASLP-MV8 macht. Für einen 8Port ist der echt günstig.

      Habe zwar zur sicherheit schon mal einen dell perc 5 in der Schublade, aber soll ja nicht ganz unproblematisch sein…

    • #878481
      spokekiller
      Teilnehmer

      Bissl Braindump …

      Der AOC-SASLP-MV8 ist ja laut Specs mit dem Marvell 6480 ausgerüstet. Er ist also “nur” ein normaler SATA Controller. Ich habe aufgrund jahrelang schlechter Erfahrungen im Bekannten und Kundenkreis eine sehr negative Grundhaltung zu den “Software-Raid-Controllern”, wie die von Promise und einigen anderen.
      Die Last für das Raid entfällt auf die CPU und wehe der Treiber ist mies, dann ziehts einem die Kiste auch mal locker in die Knie. Alles schon erlebt. Von Hotswapping nicht zu reden. 🙁

      Unter Linux ist es mMn nicht ganz so schlimm, da der Support meist im Kernel sitzt und die I/O-Transfers das System gesamt nicht ganz so viel belastet.

      Wenn Zoldan angesichts der Platten eine gute Schreibrate von durchgängig, na sagen wir 100 MB/s auf ein Raid 5 hinbekommt, dann ist das für so einen Host Controller schon sehr gut. Natürlich profitiert er von seinem i5 in zweierlei Hinsicht: er ist stark genug und er ist so stark, dass man die zusätzliche Last kaum bemerken dürfte. :respekt:

      Ich find den Controller für um die 100€ aber eine ‘saugünstige’ Möglichkeit sein Board um 8 Ports zu erweitern und das noch dazu mit den platzsparenden SFF Kabeln (wobei da die Geschmäcker sicher verschieden sind). 🙂

      In einer idealen Welt sollte der Dell Perc aber mit seinem IOP333 dem Gespann von Zoldan locker davon rennen — no offense intended.

      Nichtsdestotrotz… es kommt ja immer darauf an was man benötigt und unter Berücksichtigung dass die neueren Mini Boards mit dem Athlon E-350 einen PCIe x4 (16er Port, 4 Lanes elektrisch) haben, dürfte die Karte für Storagebox-Bauer eine tolle Sache sein. Genau darauf zielt Supermicro ja in den Specs auch ab…

      Je nachdem wie Zoldan’s Antwort ausfällt werde ich mir überlegen, ob ich meinen ganz alten Storageserver entrümple, also P4-Board raus :shit:, Adaptec 2810 raus und ein kompakteres Board mit besserer Leistung pro Watt 😆 und so einem Supermicro Baby. Wenn ich damit um die 50-80 MB/s Schreibleistung in einem Raid 5 hinbekomme ist das schon das 3-4fache der AHA2810 Lösung… für sehr wenig Geld.

      Nebenbei bemerkt, ich finde es immer wieder toll, was ich hier im Forum tolle Impulse bekomme und vor allem auf Produkte stoße, die ich so wohl sonst kaum gefunden hätte.:d:

    • #878486
      Zoldan
      Teilnehmer

      Die Sata Stromkabel hab ich bei Ebay gekauft. Hat der aber nicht mehr im Angebot. Such mal nach 18AWG oder AWG18 da finden sich noch weitere. Passende Sata Stecker gibt es z.B. unter der Ebay Artikelnummer 300513439680 (nach Sata Strom suchen).

      Die Geschwindigkeit vom Controller ist gut. Hatte testweise mal die 5 Samsung Platten in ein Raid0 gehangen und hatte rund 450MB/s schreibend/lesend. Leider ist der Controller allerdings etwas zickig was die Treiber angeht. Ich wollte ihn erst schon zurück schicken, weil ich ihn unter Debian nicht zum laufen brachte. Da Ubuntu auch davon abstammt hatte ich das zunächst gar nicht versucht und erst kurz vor Ende der 14 Tage Rückgaberecht rausgefunden dass er damit out of the box läuft. Unter Windows soll es keine Probleme geben.
      Perc5 hatte ich auch angedacht. Aber der kostet gebraucht so viel wie der SASLP-MV8 neu, daher wollte ich den erstmal testen, da ich ja eh einen Software Raid mache.

      Die Geschwindigkeit übers Netz ist im Moment akzeptabel. Ich habe während ich den Beitrag hier geschrieben habe mal ein paar Tests gemacht. Ich hab immer ein ~2,5GB großes File hin und her transferiert. Das fliegt in ca. 25 Sekunden per FTP über die Leitung (~100MB/s). Lesend geringfügig langsamer. Bei einem 10GB File lesend geht die Geschwindigkeit am Ende aber etwas runter (das geht halt nicht in den Ram des Clients rein). Durchschnittlich liege ich hier lesend bei etwa 75MB/s (max. der Intel Postville wo ich draufschreibe). Schreibend bei 92MB/s (Bis der Ram vom Server voll war extrem schnell, danach extrem stark eingebrochen um dann die restlichen 6-7GB mit konstant >100MB/s zu kopieren).

      Hotswapping geht auch mit dem Controller.

      100MB/s schreibend knackste damit locker (je nachdem wieviele Platten du ins Array hängst). Wenns weniger gewesen wäre, dann würde ich auch lieber zu einer anderen Lösung greifen. Hier wird ein Hardware-Controller sicherlich etwas schneller sein. Aber da muss jeder selber wissen, ob und wieviel er dafür ausgeben möchte :-k

      Ich hoffe ich konnte alle Fragen beantworten, ansonsten nochmal nachhaken.

    • #878504
      spokekiller
      Teilnehmer

      in Sachen Controller: Supi…Nochmal bezüglich der Kabel: ich habe richtig verstanden, dass Du die selbst gecrimpt/gequetscht hast? Erst nachdem ich ein zweites Mal auf die Bilder schaute fiel mir auf, dass die doch zu perfekt sitzen für “von der Stange”.

    • #878509
      Zoldan
      Teilnehmer

      Jo, die sind “selbst gemacht”. Die Kabel kann man relativ leicht in die Stecker drücken und dann die Schutzkappe drauf.

    • #891280
      Zoldan
      Teilnehmer

      Ich hab nur 2TB Platten. Von daher kann ich das nicht sagen.Smart Werte kann man lesen.Standby geht auch.

    • #891275
      Smart
      Teilnehmer

      Hallo Zoldan,

      kommt der Supermicro AOC-SASLP-MV8 Controller auch mit einzelnen Platen > 2TB zurecht?

      Liest der Supermicro die SMART Werte richtig aus?

      Können die Platten in Standby versetzt werden?

      Gruß,
      Alex

    • #902583
      Zoldan
      Teilnehmer

      So langsam könnte ich eigentlich einen neuen Thread aufmachen, da vom Ursprungszustand fast nix mehr über ist :D”Kleines” Update:Seasonic S12II-380 380WIntel Core i5-650MSI H55-E334GB DDR3Longshine LCS-8337TXR, 1x 1000Base-T, PCIe x1Supermicro AOC-SASLP-MV8LSI MegaRaid 9260-8i1 x Samsung F3 2TB (HD203WI)4 x Samsung F3 2TB (HD203WI)4 x Seagate Barracuda LP 5900.12 2TBOCZ Vertex 2 60GB1 x Western Digital Scorpio Blue 160GB (WD1600BEVT)Hitachi 5k500.B-320 (320GB 2,5″)Den Controller hab ich günstig bei Ebay bekommen, daher der Umstieg auf ein Hardware-Raid. Die Platten habe ich in dem Zuge zu einem großen Raid6 zusammen gefasst. Von der Geschwindigkeit her hat es nicht viel gebracht, aber die CPU idelt jetzt deutlich mehr rum. Stromverbrauch der Controller liegt etwa gleich auf (der LSI verbraucht geringfügig mehr ~1W).

    • #915590
      littledevil
      Teilnehmer

      Solange das NT mit dem Anlaufsstrom klar kommt, reicht es aus. UNter LAst wird ja kaum etwas verbraucht.

      200 EUR drüfte n es wohl min. gewese sein…

    • #915588
      DrDoom
      Teilnehmer

      Hallöchen Zoldan

      Ich bring ma wieder ein bisschen leben in den Thread

      Zoldan;470082 said:
      “Kleines” Update:
      Seasonic S12II-380 380W
      Intel Core i5-650
      MSI H55-E33
      4GB DDR3
      .
      .
      .

      So viele Platten und nur ein 380W NT? Läuft der kleine 24/7 oder wird der nur gebootet um backups zu fahren?

      wie gefällt dir der LSI MegaRaid 9260-8i? kann der platten > 2TB? und wie gut war der Preis genau? (so in zahlen ausgedrückt 🙂 )

      MfG DrDoom

    • #915602
      Zoldan
      Teilnehmer

      Das läuft ohne Probleme mit 9 Platten und 380W. Laut Messgerät werden sogar nur 280 gezogen. Aber dem Wert vertraue ich beim Anlaufstrom nicht. Ich vermute mehr als neun würde ich nicht rein stecken bei dem Netzteil, wenn man kein staggered spinup hat. Außerdem sollte man drauf achten, dass man die Platten an unterschiedliche rails am Netzteil hängt.Der läuft eher so 12 Stunde pro Woche.Soweit ich informiert bin, kann er Platten > 3TB. Das war für mich voraussetzung, damit ich nicht irgendwann einen neuen Controller kaufen muss. Schön ist auch, dass man einen relativ günstigen Intel SAS Expander dran betreiben kann und so im Zweifel (günstig) mehr als acht Platten anschließen kann. Derzeit ist mein Datenhunger aber doch etwas geringer geworden, so dass ich mit den aktuellen 2TB Platten noch etwas hinkomme.Günstig war wirklich deutlich unter 200 Euro. Der Verkäufer hatte sich in der kargen Beschreibung etwas verschrieben und so konnte man die Auktion nicht mit den üblichen Suchbegriffen finden. Ich bin auch nur durch pures Glück drauf gestoßen.

    • #915596
      littledevil
      Teilnehmer

      Das war dann ein echter Schnapper. :respekt:

      Wie läuft das mit dem expander?

    • #915610
      Zoldan
      Teilnehmer

      Naja, ich glaube über einen SFF-Port gehen so 24Gbit/s? Vollduplex? Also ich glaub selbst wenn ich da nochmal 20 Platten dran hänge und 4 an den übrigen Controlleranschluss, dann reicht die Geschwindigkeit immer noch um in Foren den längsten zu haben. Mit SSDs haut das vielleicht nicht mehr hin, aber die schließe ich da auch nicht an ;)Der Flaschenhals ist meist immer die Schnittstelle zum Server. Hier Gbit Ethernet. Die Geschwindigkeit von 24 Platten bekommt man aus dem Teil eh nicht raus. Bleibt der Vorteil, viel SpeicherIch hatte damals (noch mit Software-Raid) mal mit vier lesenden Verbindungen ungefähr zwei Gbit Ports ausgelastet. Und da limitierten auch eher die Clients.Ich hatte überlegt, den 9265 zu kaufen (der hat einen dual core roc), welcher vermutlich deutlich mehr bums hat, aber das war mit keine 300 Euro Aufpreis wert ;P

    • #915608
      spokekiller
      Teilnehmer

      littledevil;484282 said:
      Das war dann ein echter Schnapper. :respekt:

      Wie läuft das mit dem expander?

      In der Tat… saubillig.

      Mit den Expandern läuft da so, dass er einen seiner SFF-Ports (= 4x Sata) aufgeben muß. An den wird der SAS-Expander geklemmt, welcher protokolltechnisch und elektrisch wiederum diese Signale “umlegt” auf weitere Ports in 4er Blöcken.
      Theoretisch sollten somit ca 128 Devices (Platten) möglich sein.

      Nachteil: der Controller rechnet weiterhin alleine, dürfte also spätestens bei , na ich schätz mal 20~24 Platten unter R5/R6 erheblich ins Schwitzen kommen.
      Weiterhin bildet der eine 4er Strang natürlich ein Nadelöhr, welches aber erst zum Tragen kommt wenn der Protokolloverhead für die zusätzlichen Platten und deren Bandbreite zusammen die Bandbreite des einen SFF-Ports überschreitet. Ich denke, dafür dürften die gängigen Home-PC Gehäuse eh zu klein sein, denn das dürfte auch erst ab ordentlichen Mengen Disks zum Tragen kommen (könnt man auch grob nachrechnen)

      Ist ne feine Sache. Doc Dope will das ja auch machen, hat mit dem Areca 1880 aber auch mördermäßig Bumms im Rücken…

      Ist Hardware nicht ne geile Sache…? wenns nur net immer so sauteuer wäre…. 😥

    • #915614
      littledevil
      Teilnehmer

      Unterstützen Eure Controller alle 3TB HDDs? Suche noch was günstiges mit 8-12 ports…

    • #915612
      spokekiller
      Teilnehmer

      Yo, ich wollt nicht dran rumkritteln… da hättest mich jetzt ggf falsch verstanden.Im Gegenteil, ich find die Expander-Sache sehr sexy…. es gibt da ein geiles Ami-Forum (mit perversem Farb-Schema …) wo die Spinner sich Maschinen mit 32~96 Platten basteln und die arbeiten viel mit den HP SAS Expandern, die man so günstig bei ebay kriegt.Wie auch immer, die berichten durchaus auch von den spürbaren Grenzen und gewissen Problemen, bspw nicht jeder Expander arbeitet sauber mit dem Hostcontroller….Das mit den 24 Gbit hat mich zunächst erstaunt, aber dann fiels mir wieder ein… ich denk immer an meine alten Arecas und die haben “nur” Sata-2 … Deiner aber hat ja schon Sata-3…Wenn ich jetzt noch den Link zu dem Ami-Forum find, das dürfte Dir auch gefallen ….Zum 9265: Ich find Du machst das schon ganz richtig. Man muß nicht immer deutlich mehr kaufen als man braucht. Ich hab mir jetzt noch nen Areca 1280 OEM besorgt, der skurilerweise nur 12 Ports hat (die 1280er gibts an sich nur ab 16) und der tuts noch locker, um die paar alten Platten zu beschäftigen und v.a. als Notreserve für ein (hoffentlich nie kommendes) potentielles Abnippeln meines 1231 zu dienen.Ansonsten hast Du auch völlig recht was das Limit Netzwerk angeht. Deckt sich völlig mit allen meinen Praxis-Erfahrungen.Cheers

    • #915613
      Zoldan
      Teilnehmer

      Ne hab ich nicht. Ich wollte das nur nochmal klar stellen. Nicht, dass jemand auf die Idee kommt, dass da wirklich ein Flaschenhals irgendwo ist. Ich steck in der Sache ja auch schon einige Zeit drin und hab mich vorm Kauf schon etliche Stunden informiert. Der Controller schafft locker transferraten von 800++MB/s (der 9265 so um die 1500) soweit ich mich noch erinnere. 10Gbit Ethernet wird vorerst eh nicht so schnell kommen ;)Du meinst dieses Forum in schwarz/rot? Wie hiess das nochmal. Mir fällts auch gerade nicht ein 😀

    • #915616
      Zoldan
      Teilnehmer

      Meiner tuts. Alles was neuer ist als die 9260 Serie von LSI sollte es eigentlich unterstützen. Für Consumer Platten gibts da allerdings nie ne Garantie und derzeit selbst für die professional 3TB nicht. Schau am besten in die Kompatibilitätsliste von den Controllern, ob da irgendeine 3TB steht, dann weisst du mit Sicherheit, dass es technisch zumindestens möglich ist.

    • #915631
      littledevil
      Teilnehmer

      Kompatibilitätsliste von älteren und somit günstigeren Controlelrn werden doch meist nicht aktuallisiert, oder?

    • #915632
      Zoldan
      Teilnehmer

      Ältere meist günstige unterstützen aber meist auch keine 3tb.

    • #915636
      littledevil
      Teilnehmer

      Hmm.. ich muß dann wohl noch warten..

    • #915642
      DrDoom
      Teilnehmer

      Moin Moin,

      ich würde diesen Thread mal gerne für eine kleine zwischenfrage hijacken ..
      nachdem mein 9650se-8lpml mit seinen 8x2TB jetzt an seine grenzen gestoßen ist muss ich langsam anfangen für den nachfolger zu sparen. DrDope seiner is ja nich ganz billig .. aber mit so einem gibt es dann erstma in absehbarer zeit (so um die 10-15jahre) keine probleme oder? also die unterstützen ja jetzt alle LBA48 was ja 128PiB pro platte sind oder? oder 128PiB pro RAIDset?
      gibs schon infos wie lange man platten noch so wie sie jetzt sind benutzen kann? weil irgendwann ist die ja nun schon über 30 jahre alte idee bestimmt ausgereizt ..

      MfG DrDoom

    • #915643
      littledevil
      Teilnehmer

      so weit in der zukunft schauen kann keiner, aber einer mit SAS 6Gb/s sollte erstmal min 5. Jahre reichen.

      Wenn Faktor 100 mittels Laser mal Serienreif ist, wird es aber zum Flaschenhals.

      Hitachi scheint ja in dieser Richtgung schon erste Schritte zu machen:
      Hitachi nutzt Laser für 2,5x höhere Datendichte

      Für reines Storage im RAID sollten da bei Beibehaltung der Standards aber auch nach 10 Jahren genügend Geschwindkeit möglich sein.

      Im reinen Storagebereich dürften sich hdds aus kostengründen noch sehr lange halten. Sobald man ne 1TB SSD für 100 EUR erhalten kann, dürfte der Mainstreambereich aber fast komplett auf SSDs umgeschwenkt haben.

    • #915649
      Zoldan
      Teilnehmer

      Das ist immer schwierig vorherzusagen, wann ein Elektronikbauteil jetzt durch bessere Technik ersetzt wird. Aber ich denke Festplatten wie sie heute sind halten sich sicherlich noch 5-10 Jahre. Bis irgendeine Entwicklung wie das mit dem Laser mal Marktreif und für die Serienproduktion ausreichend erforscht sind, dauert es ja auch nochmal einige Zeit. Wenn du dir was neues kaufen möchtest, achte auf die oben genannten Dinge. Sata 6Gb/s, irgendeine 3TB in der Kompatibilitätsliste (oder irgendwo im Internet bestätigte Funktion damit), dann solltest du auch noch die 10TB Platten in 4 Jahren sinnvoll anschließen können.1TB SSD für 100 Euro würde ich mir auch nicht kaufen als Datenhalde. Da werden herkömmliche Festplatten ein deutlich günstigeres Euro/TB Verhältnis haben. Als Bootplatte sicherlich interessant, aber für die Datenmenge lieber was günstigeres.

    • #915652
      littledevil
      Teilnehmer

      naja, bis SSD deultich im preis gesunken sind, erwartet man schon 1TB für ein normales Laufwerk, also für Fertig-PCs mit nur einem Laufwerk

    • #915656
      spokekiller
      Teilnehmer

      Mir wärs schon recht, wenn die Preise wieder auf “Vor-Sintflut-Niveau” gehen würden und WD und Seagate nicht noch dazu die Garantie auf 2 Jahre runtergeschraubt hätten. Teure Raid-Editions sehe ich nicht ein.Naja, so viele Platten habe ich auch noch nicht verloren…. da hats andere schon viel härter erwischt.Ich könnte mir vorstellen, das Plattengeschwindigkeiten in naher Zukunft eher stagnieren und dafür die Kapazitätsfrage wieder interessant werden. Bei dem Volumen, was heute ein moderner IT Betrieb halten muß, geschweige denn eine Versicherung oder Bank ist der Speed pro Drive eher sekundär.Unsere Kollegen arbeiten im Mittel mit einer 160/320GB Platte im Notebook. Wenige bekommen eine SSD… aktuiell sparen wir uns im wahrsten Sinne des Wortes krank. Aber das gehört nicht hierher.

    • #915657
      Renovatio
      Teilnehmer

      spokekiller;484339 said:
      Mir wärs schon recht, wenn die Preise wieder auf “Vor-Sintflut-Niveau” gehen würden und WD und Seagate nicht noch dazu die Garantie auf 2 Jahre runtergeschraubt hätten. Teure Raid-Editions sehe ich nicht ein.
      Naja, so viele Platten habe ich auch noch nicht verloren…. da hats andere schon viel härter erwischt.

      Ich könnte mir vorstellen, das Plattengeschwindigkeiten in naher Zukunft eher stagnieren und dafür die Kapazitätsfrage wieder interessant werden. Bei dem Volumen, was heute ein moderner IT Betrieb halten muß, geschweige denn eine Versicherung oder Bank ist der Speed pro Drive eher sekundär.
      Unsere Kollegen arbeiten im Mittel mit einer 160/320GB Platte im Notebook. Wenige bekommen eine SSD… aktuiell sparen wir uns im wahrsten Sinne des Wortes krank. Aber das gehört nicht hierher.

      Ja, da gebe ich dir Recht. Das Problem ist für 2Tb 100 Euro von einer WD Platte sehe ich nicht ein. Brauche um bedingt langsam mal neue Festplatten, da mein Speicher bei fast allen PC nur noch auf 20 GB sind und leider wird es auch nicht weniger. Wenn die Preise mal wieder gut sind, werden direkt erst mal 4 x 2 Tb eingekauft für den Server. ^^

      In diesen Sinne

      Andre

    • #915703
      spokekiller
      Teilnehmer

      Hab das Forum wiedergefunden. Besonders delikat ist der Storage-Angeber-Thread. Da kann ich echt einpacken.
      http://hardforum.com/showthread.php?t=1393939

    • #915704
      Zoldan
      Teilnehmer

      Ja genau, das schwarz rote ;P Da hab ich damals viel Info über den Supermicro Controller gezogen 🙂

    • #915709
      spokekiller
      Teilnehmer

      Ist natürlich OT, aber glaubst Du das:Ich stoß heute morgen dreimal ein R5-Build über drei 1.5 TB Platten an und das daaaauuuuert eeeeeewig, bis es mal die 5% Marke berührt. War schon ne Ewigkeit her, dass ich mal ein komplett neues aufgesetzt hab, also versuch ich mich an irgendwelche Sachen zu erinnern, die ich evtl falsch eingestellt haben könnte.Nur als Beispiel, mit 8 Drives R6 dauert ein Vollsync mal eben 6 Stunden, hier waren 3 Tage vorauszurechnen… also irgendwas nicht iO.Naja, letzlich googel ich wie ein Blöder, weil mich das nervt… und natürlich stoß ich auf so nen Thread von nem Typen mit nem 1880 und mördermäßig viel Drives mit nem ähnlichen Problem.Natürlich die typischen Sprüche wie “Anfänger”, “zu ungeduldig”, “na dann is Areca wohl doch Kacke”, etc ppUnd irgendwo zwischen drin sagt einer: “Ich hoff Du hast kein BBU dran, denn dann sind inits/builds ewig lahm – warum weiß keiner”… und da dämmerts… der neue 1231ML (den ich vor paar Tagen gebraucht aber teuer geholt habe) hat eines. Der alte keines.Runtergefahren, BBU abgeklemmt und jetzt flitzt das wie Luzie. Das hätt ich NIE gefunden, NIE. NIEEEE.Man lernt nicht aus. Ist wirklich was dran.

    • #915717
      drdope
      Teilnehmer

      spokekiller;484393 said:
      Und irgendwo zwischen drin sagt einer: “Ich hoff Du hast kein BBU dran, denn dann sind inits/builds ewig lahm – warum weiß keiner”… und da dämmerts… der neue 1231ML (den ich vor paar Tagen gebraucht aber teuer geholt habe) hat eines. Der alte keines.

      Runtergefahren, BBU abgeklemmt und jetzt flitzt das wie Luzie. Das hätt ich NIE gefunden, NIE. NIEEEE.

      Man lernt nicht aus. Ist wirklich was dran.

      Das liegt nur indirekt an der BBU.
      Bei installierter BBU wird per default der Cache der HDD deaktiviert.

      Da man eine BBU nur installiert, weil man die Daten des Controllercaches nicht verlieren will, bzw. um die Integrität der Cacheinhalte zu gewährleisten, macht ein aktivierter HDD-Cache bei vorhandener BBU eigentlich keinen Sinn.
      Man opfert dabei aber ein ganzes Stück Performance zugunsten von Sicherheit (deshalb dauern u.A: die Inits dann so lange).

      Will man max. Performace und Sicherheit sollte man statt einer BBU gleich ne USV an den Server hängen. Dann gibts auch keine Probs mit den Inhalten der HDD-Caches.

      Im Webinterface des Controllers läßt sich diese Verhalten btw. auch ändern -> “Disk Write Cache Mode” einfach von “Auto” (default) auf “enabled” setzten; dann spart man sich beim Init das Abbauen der BBU…

      btw das steht auch im Handbuch, aber warum da niemand rein schaut, weiß keiner…
      und hier stehts auch (unter XFS-Mountoptions/nobarrier)
      😉

    • #915753
      spokekiller
      Teilnehmer

      Danke Doc,ehrlich gesagt es mußte mal wieder schnell gehen. Ich hatte natürlich nicht ins HB geschaut.Das setting mit dem Disk Cache hatte ich zwar m.M. nach gesetzt, aber… naja kann mich auch täuschen.Dennoch danke für den Tip. Ich hätte wohl noch recherchiert. Da ich aber dieses WE auch ncoh was anderes machen wollte, als nur an der Kiste zu hocken, habe ich die schnelle Nummer gefahren.Tja, nicht alles läßt sich aus dem Bauch erledigen und die Herleitung erscheint ja auch schlüssig.Nu kann ich das BBU also wieder anstecken und mir eine Notiz in den Server legen, weil bis zum nächsten MAl habe ich das uU wieder vergessen.Das BBU hatte ich übrigens nicht gezielt mitgekauft, ich hatte keinen Wert darauf gelegt, aber es war eben im Preis mit drin. ;)Guten Start in die neue Woche…

Ansicht von 56 Antwort-Themen
  • Du musst angemeldet sein, um auf dieses Thema antworten zu können.
 
Zur Werkzeugleiste springen