Stromspar All-In-One Superserver
Willkommen in der Mk-Community › Foren › Energie & Stromspar – PC Systeme › Vorstellung von Stromspar – PCs › Stromspar All-In-One Superserver
- Dieses Thema hat 96 Antworten und 12 Teilnehmer, und wurde zuletzt aktualisiert vor 12 Jahren, 4 Monaten von simfight.
-
AutorBeiträge
-
-
16. Mai 2011 um 15:05 Uhr #499136simfightTeilnehmer
Moin!
Ich möchte an dieser Stelle meinen neuen Server vorstellen und während der Einrichtung darüber berichten.
Zunächst einmal das Vorwort:
Seit Beginn dieses Jahres warte ich auf die Sandy-Bridge Plattform wie nie auf eine Hardwareentwicklung zuvor.
Ein System mit so wenig Stromverbrauch bei gleichzeitig so viel Leistung war nie zuvor möglich, ebenso gab es vorher keine Stromsparhardware mit VT-d und AES-NI.Es war schnell klar, dass es ein i5 2500T werden wird.
Die anderen Varianten liessen sich nicht auf einen hinreichend niedrigen Verbrauch bringen und ein i3 käme aufgrund fehlendem VT-d nicht in Frage. Ein Quadcore sollte es aufgrund der umfangreichen Aufgaben sein und schon stand die Plattform fest.Ich setze auf ein günstiges Intel Board (DH67CLB3), da dieses sich in bisherigen Tests bewährt hat. Damit verzichte ich auf der H67 Plattform auf einen zweiten PCIe X16 (X4) slot zugunsten eines gegenüber zb einem Asus Boards deutlich besseren Stromverbrauches.
Es werden preisgünstige (~120€) 16GB DDR3 1333 verbaut und eine SSD kommt als Systemplatte zum Einsatz, für die Datenspeicherung wird ein Raid5 aus zunächst 5 stromsparenden WD20EARS zum Einsatz kommen. Backups laufen über den eSATA Port auf eine externe 2TB Festplatte und beinhalten System- und Nutzdaten.
Nun zu den genauen Hardwaredetails und zur Kostenübersicht:
Da der Prozessor in DE nicht verfügbar ist, wurde er in AU bestellt.
[CODE]1x Intel Prozessor Core i5 – 2500T, 2,30GHz, LGA1155, Quad-Core, tray
(Art.Nr.: V1805435881 / Herst.Nr.: CM8062301001910) Lagerstand: Artikel in 1 bis 2 Werktagen abhol-/versandbereit. € 183,00
Gesamtsumme:
Zwischensumme: € 183,00
Umsatzsteuer 20%: € 30,50
Versand-Kosten (Der Versand erfolgt mit der Post oder per Paketdienst): € 19,98
PayPal-Gebühren: € 6,10
Summe: € 209,08[/CODE]Der Rest wurde bei Avitos bestellt:
[CODE] Menge Artikel-# Bezeichnung Einzelpreis Summe
—————————————————————————–
1 663926 DIMM 16 GB DDR3-1333 Quad-Kit 127,96 EUR 127,96 EUR
1 826572 DH67CLB3 80,87 EUR 80,87 EUR
4 144631 WD20EARS 2 TB 61,93 EUR 247,72 EUR
1 49027 Gigabit CT Desktop Adapter 20,89 EUR 20,89 EUR
1 48853 TG-3468 6,80 EUR 6,80 EUR
1 131914 Freezer Xtreme Rev.2 24,89 EUR 24,89 EUR
1 142414 Arctic F12 Pro TC 3,84 EUR 3,84 EUR
1 131963 F12 Pro PWM 3,84 EUR 3,84 EUR
1 138386 F12 PWM 3,41 EUR 3,41 EUR
————–
Zwischensumme 520,22 EURLieferart : Standard
Lieferkosten : 7,90 EUR
————–
Gesamtsumme brutto 528,12 EUR
(inkl. 19% MwSt. 84,32 EUR)
==============
[/CODE]und die SSD gab es bei eBay:
Preisvergleich und Benchmark…
Es ist die schnellste PCI-e SSD, die man bezahlbar kaufen kann.
Besser wäre nur MLC Cache und dann natürlich eine professionellere Lösung, sprich native PCI-e Controller ohne PCI-X Bridge und damit PCI-e 2.0 Unterstützung – und natürlich SLC statt MLC Cache. Dann wären mit einem Raid0 aus 4 SSDs mit besserem Flash locker 2-4 GB/s möglich. Aber so viel brauche ich nicht.Ich habe mich bewusst für das RevoDrive entschieden. Eine Vertex3 hätte zwar eine ähnliche Performance wie ein altes RevoDrive, würde aber einen wertvollen SATA3 Port belegen. Und da alle 5 internen SATA Ports bereits mit HDDs belegt sind… So spare ich im Endeffekt einen Raidcontroller.
Sonstige Hardware:
Im Server wird es 2 PCI-ISDN Karten geben, welche mit VT-d an einen Asterisk Server durchgereicht werden.
Es werden insgesamt mindestens 4 Lananschlüsse benötigt, daher kommt eine PCI Dual-Gbit Lankarte (eigentlich PCI-X, geht jedoch auch mit Performanceeinbussen im Kleinen) und zwei Intel PCI-e 1x Lankarten.
Eine PCIe 4x 4-Port Lankarte war mangels zweitem PCI-e X4 Port leider nicht möglich, wäre sonst aber die erste Wahl gewesen.Das Ganze wird an einer PicoPSU betrieben, die direkt aus den Akkus der USV gespeist wird.
Die neue USV leistet nur 500VA und ist nicht dauer-aktiv, d.h. (um es ohne Fachbegriffe zu formulieren) sie springt nur dann an wenn der Strom ausfällt und erzeugt nicht ständig eine eigene Netzspannung.
Meine alte 3KVA USV hatte bereits durch den eigenen Sinus fast 20% Verlust und hat ohne Last bereits 30W verbraucht.
Die USV wird jetzt nurnoch die Peripherie (alle Switches und Modems im Haus sowie Notstrom) versorgen.
Als Energiespeicher dienen 3 48Ah 12V Bleigel Akkus, welche durch die USV dauerhaft geladen werden. Die Akkuüberwachung der USV (via USB oder Seriell) ermöglicht es Datenverlust durch Stromausfall zum Großteil auszuschliessen.Als WLAN Router kommt ein N-fähiger, mit Gigabit-Lan versehener TP-Link “Ultimate Wireless N Gigabit Router” mit ddwrt Software zum Einsatz.
Zum System – Teil 1: Aufgaben
Der Server wird alles in einem sein: Router, Firewall, Webserver, Datenspeicher, Downloadknecht, Streamer, Printserver, Telefonanlage, Gameserver und was sonst noch so anfällt.
Es werden verwaltet:
– VDSL 50/10 mit ISDN
– Kabelinternet 100/6 mit analogem Telefon
– 10 Clients (vom Arbeitsplatzrechner über den HTPC bis zum Androidphone)
– LAN und WLAN AnbindungZum System – Teil2: Software
VM-Host:
SL-Linux. Es wurde gewählt, weil CentOS in der Version 6 noch nicht verfügbar ist und natives RHEL nicht finanzierbar wäre. Eventuell wird noch auf ein anderes zu RHEL binärkompatibles System gewechselt, zunächst wird es aber dabei bleiben.Router/Firewall:
pfSense. Es wurde gewählt, weil ich eine robuste Routersoftware suche. Ich hatte zunächst ipCop, dann wegen VDSL ipFire genutzt. pfSense bietet jedoch von Haus aus ein Loadbalancing System, welches zum Einsatz kommt, um die Datenlast in alle Richtungen zu verwalten. Hier geht es um das Aufteilen von Upload und Downloadtraffic. Details dazu später.Webserver:
Ubuntu-Server. Es wurde gewählt, weil ich in der Debian-Welt “heimisch” bin und mich am Meisten daran gewöhnt habe. Zudem ist es bequem zu installieren und zu verändern, aber dennoch hinreichend stabil.Userspace-Server:
Ubuntu-Server. Es wurde gewählt, weil (siehe oben) und da mit einem X-Over-SSH Tunnel eine grafische Oberfläche zur Verwaltung zur Verfügung steht. Hier laufen Programme wie Torrent Clients und der jDownloader, manche Gameserver (Minecraft^^) und alles, was sonst noch nicht besonders stabil oder sicher ist. Da es zwei Administratoren gibt, wird es zwei solcher virtueller Server geben – sozusagen einer für jeden (um Konflikten vorzubeugen). Die benötigten Ressourcen stehen zur Genüge zur Verfügung.PBX:
Asterisk basierend, fertiges System mit grafischer Weboberfläche zur leichten Konfiguration (viele Customscripts werden ohnehin benötigt). Mehr dazu später.Zum System – Teil 3: Datenverwaltung
Der VM-Host übernimmt die Datenverwaltung und Zuordnung von Nutzspeicher.
Sein System liegt in einem abgegrenzten Bereich auf der SSD, er weist den Systemen aller VMs eine virtuelle Festplatte auf der SSD zu. Gemeinsamgenutzte Datenbereiche werden ebenso definiert wie abgegrenzte.
Er erzeugt ein Kernel-Raid5 mit den HDDs und berechnet die Parität dazu, sendet Signale an die Userspace-Server um automatisch Backup-Erinnerungen an die Administratoren zu senden zu senden (Backup manuell nach Erkennung des angesteckten Backup-Drives).….
So viel ersteinmal für’s Erste. Die Teile sind bestellt und noch nicht da. Über Empfehlungen, Lob und Kritik und auch sonstige Kommentare freue ich mich natürlich sehr!
PS:
Die 480GB SSD ist Overkill und unnötig, ich wollte eine mit 120GB kaufen als die Anfang des Jahres bei Mindfucktory im Angebot waren (189EUR incl Versand), die Schweinepriester haben mir meine SSD aber nicht geschickt und die Bestellung storniert. Dann kam das X2, ich wollte eine 240GB (wegen der 120.000 statt 100.000 IOPs und maximaler Datenrate) kaufen. Die habe ich dank PC-Absturz nicht für 350€ bekommen und bei dem Preis für 480GB musste ich einfach zuschlagen. Nutzdaten sind zwar nur maximal 100GB auf der SSD (Serverbetriebssysteme) aber so lassen sich einige Gigabyte temporäre Dateien auslagern. Wird zB ein Film per OCH geladen und entpackt, geschieht dies auf der SSD, erst danach wandert er ins Raid. Ebenso liegen alle Ramdisks der Serversysteme natürlich im Raid. Leider waren 32GB Ram mit rund 500-600 Euro einfach zu teuer. 16GB werden aber auch ausreichen – zumindest innerhalb der geplanten 5 Jahre Lebensdauer des Servers. Da ich für fast alle Linuxdistributionen als Verteiler im Torrentnetz dranhänge (ja keine Bandbreite verschwenden^^ Hatte >1TB Upstream letzten Monat…) können die auch auf die SSD, somit werden viele Lesezugriffe auf das Raid vermieden.
Ein Raid5 ist zwar gerade als Softwareraid ein CPU-Last und damit Performancetechnisches Disaster, jedoch ist alles andere entweder mit zu vielen HDDs (Stromverbrauch/Sata Ports) oder Verfügbarkeitseinbussen (kein Raid) verbunden.
Natürlich hoffe ich insgeheim darauf, dass es keinen Datenverlust gibt. Das Wichtigste ist aber auf Backups. Und das mehr als eine Festplatte ausfällt wäre zwar ärgerlich aber hätte dann den Vorteil, dass ich auf Dauer auf Raid6 umschwenke. Bräuchte ich nicht 8TB Nutzdatenspeicher wäre es auch so schon ein Raid6 geworden. -
16. Mai 2011 um 16:05 Uhr #890778littledevilTeilnehmer
Sehr runder leistungsstarker Server und mega fette ssd :shock::d:
Hast Du eine Möglichket den Verbrauch zu messen?
P.S. schöne detailerte Vorstellung des systems. wenn Du das mit Fotos auschmückst gibt es ein Bienchen 😉
-
16. Mai 2011 um 16:05 Uhr #890761RenovatioTeilnehmer
Sehr interessantes Projekt, welche ISDN Karte willst du den in den Rechner einbauen?Schön das du alles in einem Benutzt.
-
16. Mai 2011 um 16:05 Uhr #890782RenovatioTeilnehmer
simfight;457325 said:
Keine Sorge da kommt noch einiges!
Gerade ist der Prozessor angekommen – bin stinksauer, denn er ist gebraucht und hat deutliche Kratzer etc.Alles klar.
Warum hat der so viele Kratzer und warum hast du ihn gebraucht gekauft? -
16. Mai 2011 um 16:05 Uhr #890764simfightTeilnehmer
Müsste ich nachsehen.Habe die vor 5 Jahren von nem Bekannten gekauft und sie laufen super mit Asterisk, auch im “Server Mode”.PCI Karten gehen sowieso fast alle, nur die USB Teile machen Probleme mit Asterisk…
-
16. Mai 2011 um 16:05 Uhr #890779simfightTeilnehmer
Keine Sorge da kommt noch einiges!Gerade ist der Prozessor angekommen – bin stinksauer, denn er ist gebraucht und hat deutliche Kratzer etc.
-
16. Mai 2011 um 18:05 Uhr #890809MuhkuhTeilnehmer
ich denke nicht, dass er ihn gebraucht gekauft hat ;)hört sich auf alle Fälle interessant an
-
16. Mai 2011 um 18:05 Uhr #890817simfightTeilnehmer
Klar geht der Prozessor zurück!
Händlerlink
Da steht ausdrücklich:
[CODE]Dieses Gerät ist Neuware, selbstverständlich originalverpackt und wird mit dem vom Hersteller angegebenen Zubehör ausgeliefert.
Sie erhalten kein Vorführgerät, keine Ausstellungsware und auch keine B-Ware.
Bitte haben Sie dafür Verständnis, dass wir aus diesem Grund keine Geräte auspacken und/oder vorführen können![/CODE]
Der Prozessor kommt in einer gebrauchten AMD Hülle, hat Abdrücke der Pins eines Sockels (die wohl teilweise verbogen waren, weshalb Schäden nicht auszuschliessen sind), es sind Spuren von einem Wärmeleitpäd (schwarze Ränder) zu sehen und der Kühler wurde wohl nicht ordnungsgemäß raufgesetzt (diverse Kratzer am Heatspreader des DIE, insbesondere am Rand – sogar reichlich tiefe).Alles in allem fühle ich mich verarscht… Dann noch 20 Euro Versand und die Paypalgebühren kassiert (was gegen die Paypal AGB ist).
Dann wird eben in ner Woche beim deutschen Händler bestellt (Mix müsste die in 3-5 Tagen haben).
Dauert ohnehin weniger lang als ein Umtausch nach AU und zurück.
Zum Glück gibt’s in AU auch das Widerrufsrecht und ich habe die Paypal Absicherung.
Sowas ist mir noch nie passiert! Wenn ich überlege was es für ein Drama war eine gekaufte CPU umzutauschen weil die Box aufgerissen war (Prozessor offensichtlich nie eingebaut). Bei dem hatte ich erst als ich mir das Teil angesehen habe bemerkt, dass die 125W TDP nicht von meinem Board (95W TDP max) unterstützt werden. Und dann hatte der Händler auch noch das falsche Teil geliefert…
Laut Intel gibt es übrigens GARKEINE neuen Tray CPUs, da die nur an OEMs zur Eigenverwertung verkaufen. Also GARKEINE Intel Garantie auf Tray! Also ist es gut möglich, dass die Prozessoren aus zerlegten Fertigrechnern stammen. Na herzlichen Glückwunsch wenn da einer dran rumgepfuscht hat… Sowas kommt bei mir nicht in einen Server der 24/7 laufen soll.
Wenn ich B-Ware bekomme, will ich auch einen entsprechenden Preisnachlass. Klar ist das den Händlern gegenüber unfair wenn zB einer etwas kauf und widerruft und der dann das Ganze nur noch als B-Ware verkaufen kann. Aber so sind die Regeln und da hat man sich dran zu halten…
Habe hier zur Zeit 120 und 80W PicoPSUs (Rot+Gelb). Mal hoffen, dass die 120W reichen (HDD an anderem Netzteil).
Ich habe auf jeden Fall ein Auge auf die Verkaufsthreads hier was stärkere rote PicoPSUs angeht.
Und gemessen wird der Strom dann später an der gelben PicoPSU (auch ohne HDDs) und nem HiPro NT an nem Reichelt und Conrad Messgerät.
Natürlich mit Statistik wie sich der Verbrauch beim Undervolting und insbesondere durch das Hinzufügen der Komponenten ändert.
Am Liebsten wäre mir ein Vergleich 2500T -> 2500K gewesen (K wegen freiem Multi). Nur für 2 Prozessoren reicht das Geld nicht^^ Mal mit dem örtlichen Händler sprechen ob er da was machen kann… -
16. Mai 2011 um 18:05 Uhr #890819littledevilTeilnehmer
gebraucht? 🙄 Bei Avitos hatte ich bisher keien probleme, aber habe nicht so oft dort bestellt.
-
16. Mai 2011 um 18:05 Uhr #890813RenovatioTeilnehmer
Ich würde den direkt um Tauschen.
-
16. Mai 2011 um 19:05 Uhr #890847Obi WanAdministrator
@ simfightich finde solche Mega Server immer sehr interessant. Im ersten Beitrag hast du schön beschreiben, was die Kiste später leiten soll. Ich werde dein Projekt im Auge behalten … aber Fotos fehlen noch 😉
-
16. Mai 2011 um 20:05 Uhr #890856littledevilTeilnehmer
auch wenn OT ist. K&M ist bei mir schon länger durch. hab da früher viel kauft.
Wenn man aber Garantieansprüche anmeldet, sind die echt schwierig.Die krönung war ein defket maus, die nicht ein einziges mal funktioniert hat. Als ich dann nach 3-4 Wochen wieder mal in der gegend war, woltle ich die umtauschen – hatte diese maus aer nicht da. Bei geld zurück haben sie mir abnutzung abgezogen. War unbenutz und ohne nutzwert, da schon immer defekt.
Da war auch nix zu machen als ich einen Aufstand gemacht habe. Die haben auf die versch*****en paar Eur Wertverlust bestanden :!::roll::xx(
Seid dem exitieren die für mich nicht mehr [-X -
16. Mai 2011 um 20:05 Uhr #890849MuhkuhTeilnehmer
mir ist es mal bei K&M so gegangen zur nForce6 Zeit… da gingen ja bekanntlich einige Boards nicht egal welcher Hersteller ab Werk -> Bildschirm dunkel und kein murxdaraufhin eingeschickt und als austausch ein “NEU&OVP” bekommen… Siegel war aufgerissen, eine Schraube samt Abstandhalter war noch am Board, weil sich die Schraube gefressen hatte (ist halt doof wenn man grobes gewinde in eine feingewindebuchse dreht…) und es waren deutlich die Klebespuren vom Backplate eines nicht BoxedKühlers zu sehender Oberclou bei K&M war aber letztes Jahreine 5850 2GB Vapor-X bestellt, Liefertermin dauernd verschoben und dann kam sie… Auf der Schachtel ein 2GB Aufkleber (meines erachtens kein Originalaufkleber) nur auf der Graka selbst stand halt 1GB… Das war die Spitze und gab auch ne Anzeige wegen Betrug
-
17. Mai 2011 um 12:05 Uhr #890931go4hl80veTeilnehmer
ich bin mal auf die performance von der intel gbit ct gespannt. bei mir brachte die nur 75MB/s in empfangsrichtung – senden ging mit vollen 113MB/s.
-
17. Mai 2011 um 18:05 Uhr #890999simfightTeilnehmer
So heute ist die Avitos Teilekiste gekommen.Der Ösi-Prozessor funktioniert und ist eingebaut, werde ihn aber wohl nach knapp 2 Wochen Test zurückschicken (sobald ich den aus DE hab und wenn der neu ist).Alles in allem läuft das gut, mit dem Kühler scheinbar passiv.Mein Bruder hat ihn zum Testen und probiert etwas mit VMs herum.Ich melde mich hier wieder am Wochenende und lade dann alle Bilder hoch die ich gemacht habe.
-
17. Mai 2011 um 18:05 Uhr #891000RenovatioTeilnehmer
Alles klar. Vielleicht baue ich mir so was auch, wenn wir eine neue Leitung bekommen, jetzt lohnt es sich noch nicht, leider nur DSL 3000.
-
17. Mai 2011 um 22:05 Uhr #891029simfightTeilnehmer
Also die Temperatur habe ich nicht gemessen aber der Verbrauch liegt ohne Stromspareinstellungen bei rund 38W.Allerdings mit roter PicoPSU und 16V Notebooknetzteil.Das Notebooknetzteil wird am heissesten, danach kommt der Chipsatz (brauche unbedingt nen neuen Kühler), danach der Ram und zum Schluss der Prozessor.Selbst ohne Lüfter kommt der Freezer Extreme auf maximal 50° CPU Temperatur.Genaueres wie gesagt später^^Das Tempo ist aber schonmal berauschend und der Stromverbrauch leider noch suboptimal. Immerhin hängt nur eine alte SATA HDD dran und sonst nix.Edit:Das erste RIESEN DRAMA:Kein VT-d!Das machen laut Intel nur die Q-Chipset Reihe!http://www.intel.com/support/motherboards/desktop/sb/cs-030922.htmDamit wird wohl ein solches Board kommen:http://www.intel.com/cd/products/services/emea/deu/motherboards/desktop/DQ67OW/overview/469154.htmMit dem zweiten PCI-e X4 wäre sogar eine Quadport Gigabit Lankarte möglich, die 100 Euro für eine solche Intelkarte (eBay) werde ich auf jeden Fall investieren. Mehr Netzwerkperformance geht nicht!
-
17. Mai 2011 um 22:05 Uhr #891033littledevilTeilnehmer
16v hört sich nach ne alten ibm NT an…
-
17. Mai 2011 um 23:05 Uhr #891041ZoldanTeilnehmer
Ich hab 2 H55 Boards und beide können VT-d.
-
17. Mai 2011 um 23:05 Uhr #891043simfightTeilnehmer
Zoldan;457591 said:
Ich hab 2 H55 Boards und beide können VT-d.Schon probiert ein PCI-Gerät an eine VM durchzureichen?Bei “Vor- Sandy Bridge” war das auch noch unkompliziert, als ich anfang Januar bei Intel angerufen habe sagte man mir auch, dass das mit H67 ginge. Und heute geht’s nicht mehr, ist auf der Webseite aus der Kompatibilitätsliste verschwunden… Intel hatte wohl Probleme damit und hat es bei den meisten Chipsätzen deaktiviert. Herzlichen Glückwunsch, von dieser Planänderung habe ich nichts mitbekommen.Mal hoffen das der Widerruf klappt -.- Und dann gleich das andere Board her.Zwar werden dann rund 120€ für einen 4-Port Intel PCIeX4 Gigabit Lan Controller fällig, dafür habe ich dann aber auch das Feinste vom Feinsten *G*Und JA, es ist ein altes IBM Netzteil^^Mit Q67 muss es aber gehen.Was dann fehlt: – USB3 – ESata.Also sehr blöd, da ich dann keine Möglichkeit für ein Backup habe. Dann wird das Backup wohl über ein NAS laufen, was nur zu Backupzwecken angeschlossen wird. Nicht toll aber besser als garnichts…
-
17. Mai 2011 um 23:05 Uhr #891045littledevilTeilnehmer
Ist aber ne zickige Bitch -erst kein Sata dann sowas… :devil:
-
18. Mai 2011 um 8:05 Uhr #891065ZoldanTeilnehmer
Ja, sicher geht das durchreichen.
-
18. Mai 2011 um 10:05 Uhr #891079simfightTeilnehmer
Na toll es gibt ein paar Intel Q67 Boards aber jedem fehlt was:http://www.intel.com/cd/products/services/emea/deu/motherboards/desktop/DQ67OW/overview/469154.htm <- kein ESATA, kein USB3http://www.intel.com/cd/products/services/emea/deu/motherboards/desktop/DQ67SW/overview/469082.htm <- 2x ESATA, dafür nur 4 interne SATA Ports...Lediglich ein Board wäre "perfekt". Mal hoffen, dass ich das IRGENDWIE kaufen kann:RUBY-D712VG2ARWer träumt nicht davon:PCIe X16PCIe X8 (4x)PCIe X4 (1x)4x PCI2x Gbit OnboardVieeele Comports Genau das was ich brauche! Wenn es unter 200 Euro kostet ist es meins *g* Vorraussetzung: Ich bekomme ein einzelnes Exemplar und der i5 2500T funktioniert damit.
-
18. Mai 2011 um 11:05 Uhr #891082littledevilTeilnehmer
Wofür brauchst Du 4x PCI?Wie wärs mit dem ASUS P8Q67-M DO Rev 3.0, Q67 1x PCIe 2.0 x16, 1x PCIe 2.0 x4, 2x PCI4x SATA II RAID 0/1/5/10, 2x SATA 6Gb/sFalls die ssd im x16 läuft, könntest Du den x4 für eine 4x GBNIC Karte nehmen
da alle 5 internen SATA Ports bereits mit HDDs belegt
Auf Deiner liste sind nur 4 HDDs !?
-
18. Mai 2011 um 11:05 Uhr #891087simfightTeilnehmer
littledevil;457633 said:
Wofür brauchst Du 4x PCI?Wie wärs mit dem ASUS P8Q67-M DO Rev 3.0, Q67
1x PCIe 2.0 x16, 1x PCIe 2.0 x4, 2x PCI
4x SATA II RAID 0/1/5/10, 2x SATA 6Gb/sFalls die ssd im x16 läuft, könntest Du den x4 für eine 4x GBNIC Karte nehmen
da alle 5 internen SATA Ports bereits mit HDDs belegt
Auf Deiner liste sind nur 4 HDDs !?
Ist mir auch erst aufgefallen als die Bestellung schon raus war – irgendwie habe ich statt der 5 eine 4 im Warenkorb gehabt^^ Die fünfte Platte ist aber schon bestellt. Und mit Raid5 läuft das ERSTMAL, kaufe wohl in ein paar Wochen noch eine zusätzliche Platte um mit gleicher Kapazität auf Raid6 umzuschwenken.
Das mit der 4-Port Gigabit NIC war geplant, aber das sind mal locker 200 Euro extra.
Da komme ich mit ner x4 Dual-Port NIC für rund 20 Euro oder gar einzelnen Karten deutlich besser weg.Ich habe zwei ISDN Karten für Asterisk und es kommt noch eine FXO Karte rein um die analogen KabelD Telefon-Anschlüsse zu verwenden =)
Das alles via USB? Naja… USB Karten die bei ISDN im “Client Mode” laufen um die Verteileranlage ranzuhängen wird eng und ausserdem ist das wieder unnötige CPU-Last.Insbesondere wegen Asterisk bin ich ja auch so auf das VT-d angewiesen… Denn die wirklich guten Chips sind nunmal auf PCI Karten und nicht auf USB Teilen^^
Auch habe ich noch KEIN bezahlbares USB Modem gesehen, wellches Fullduplex fähig ist und einen guten Voice-Codec beherrscht.
Asus kommt wegen dem 8-10W höherem Verbrauch eh nicht in Frage und hat auch nur Nachteile gegenüber dem Intel-Board. Einen wertvollen PCI-e Slot durch eine PCI-e->PCI Bridge wegfallen zu lassen ist einfach trotz meinem erhöhten PCI-Bedarf nicht sinnvoll.
Spätestens wenn der Server mal erweitert werden soll (zB weitere Festplatten oder IO Karten) bin ich an einer ungewollten Grenze angelangt.
Da käme mir das verlinkte Board gerade recht! -
18. Mai 2011 um 15:05 Uhr #888116littledevilTeilnehmer
Hat ja keiner gesagt das es einfach wird:devil:
Weiß nicht, wie die vom Verbrauch sind und wann die käuflich erwerbbar sind, aber wie wärs mit nem “echten Profiboard” ?
1x PCIe 2.0 x16 (x16 oder elektrisch nur x8), 1x PCIe 2.0 x16 (elektrisch nur x8), 1x PCIe 2.0 x8 (elektrisch nur x4), 3x PCI, 1x PIKE-Slot
1x Management-Port (RJ45)4x Gb LAN (Intel 82574L)
4x SATA II RAID 0/1/5/10 (C206), 2x SATA 6Gb/s RAID RAID 0/1/5/10 (C206)
Die Pike Karten für 8 Weitere Sata-ports gehen auch noch vom preis
wenn dann kaufbar, ab 220?
edit: oder falls es doch einen weg um die PCI-Slot gibt, ein Intel S1200BTL, C204 ab 178 EUR kaufbar
produktseite1x PCIe 2.0 x16 (elektrisch nur x8), 3x PCIe 2.0 x8 (elektrisch nur x4), 1x PCI
2x SATA 6Gb/s RAID 0/1/5/10, 4x SATA II RAID 0/1/5/10
2x Gb LANIst leider recht happig mit pcie:
Dialogic Diva BRI-2 PCIE V1 aktive ISDN-Karte
Aber die Diva paßt gut zur Bitch :devil:Und eine Profi USB lösung?
-
18. Mai 2011 um 16:05 Uhr #891126simfightTeilnehmer
Nette Ideen aber DAS MUSS in den Server =)Das Asus Board hat ausserdem wahrscheinlich kein VT-d und die integrierte Grafik kann nicht genutzt werden.Selbige wird aber zum Konvertieren von TV-Aufnahmen und ähnlichem benötigt, da das nicht auch noch die CPU alleine machen kann.Dazu die Unklarheit, ob die CPU überhaupt unterstützt wird:Da steht nur was von Xeon und i3. Wenn der i5 2500T mit dem Asus Board laufen würde wäre das natürlich die perfekte Grundvoraussetzung – und der Preis ist ein Schnapper für Intel-Netzwerkchips. Genug SATA in Reserve wäre vorhanden und alle IO Karten könnten rein. Dann aber noch das Problem mit dem Stromverbrauch: Die Serverboards fressen nachher das Doppelte wie ein normales Board mit Zusatzkarten, habe da schon so meine Erfahrungen gemacht^^ Ich wollte schon unter 40-50W im Normalbetrieb incl. aller Festplatten bleiben und das müsste gut möglich sein.Beim Intel Board gefallen mir die vielen PCIe X8 (mechanisch) sehr gut. Da geht dann einiges an Karten rein^^ Ich träume von dual-10GB-Lan und nem Raid aus mehreren SLC-PCIe x4 SSDs… (rund 5GB/s)… Aber leider gibt es meine “Spezialkarten” nur als PCI Variante und als PCIe sind die Dinger halt unbezahlbar.Eine PCIe->PCI Bridge über eine Riser-Karte anzubinden wäre sonst eine alternative Möglichkeit.
-
18. Mai 2011 um 18:05 Uhr #891139littledevilTeilnehmer
simfight;457680 said:
Eine PCIe->PCI Bridge über eine Riser-Karte anzubinden wäre sonst eine alternative Möglichkeit.Wenn das einwanfrei funzt, wäre das wohl eine der wneiger möglichkeiten.Reicht denn auch ne pci riser die aus 1 slot 3 macht?Warum gibt es die Q67 eigentlich nur als matx?P.S. Du brauchst 8x FXO? 😯
-
18. Mai 2011 um 21:05 Uhr #891166simfightTeilnehmer
Die Riser, die mehrere Karten anbinden sind meist passiv und funktionieren mit keinem Mainboard so wirklich.Die Q67 gibts wohl nur als mATX weil die aus der Executive Series sind und damit für professionelle Anwender, ähnlich wie B für OEM.Die Riser wird aber wohl nicht so leicht zum Laufen zu bringen sein, ich hoffe also auf das 4x PCI Board.Und ich brauche keine 8FXO, aber habe hier ein Faxgerät und 5 Telefone, die ich gerne seperat anbinden würde (Mein Telefon, das meines Bruders, Wohnzimmer, Schlafzimmer meiner Eltern, Arbeitszimmer….) Dazu kommen 1x ISDN von der Telecom und 2x Analog von Kabel-D rein. Also wüde ich mit FXP/FXO gemischt locker ne Karte mit 8 Ports voll bekommen.An einen kommt evtl noch ein GSM Gateway, da die mit analogem Ausgang DEUTLICH (Faktor 10-20) billiger sind als welche die mit VoIP angebunden werden, evtl schaffe ich es aber auch einen Umts Stick in Asterisk einzubinden. Theoretisch müsste das gehen. Bleibt der Haken, dass im Keller kein Handyempfang ist -> Irgendwie USB Kabel über cat5e auf den Dachboden bringen.Wie du siehst ist das Projekt sehr umfangreich, genaugenommen stecken da 3 Jahre Planung drin und es ist bisher mein größtes.
-
18. Mai 2011 um 23:05 Uhr #891154littledevilTeilnehmer
Warum schaltest Du die VOIP accounts von KD nciht direkt aufs Asterix – man müte ja irgendwie an die zugsangsdaten kommen…
jedes telefon extra? Sind das analoge Telefone?
GSM Gateway (ich meine telefonie über GSM) wäre auch noch auf meiner wunschliste.
Für UMTS könnetst Du so eine Vodfonebox mit Stickaunetrstützung nehmen. Die kannst Du dann an einem Ort mit serh gtuem Empfang positionieren.
-
19. Mai 2011 um 6:05 Uhr #891215simfightTeilnehmer
littledevil;457741 said:
Warum schaltest Du die VOIP accounts von KD nciht direkt aufs Asterix – man müte ja irgendwie an die zugsangsdaten kommen…jedes telefon extra? Sind das analoge Telefone?GSM Gateway (ich meine telefonie über GSM) wäre auch noch auf meiner wunschliste.Für UMTS könnetst Du so eine Vodfonebox mit Stickaunetrstützung nehmen. Die kannst Du dann an einem Ort mit serh gtuem Empfang positionieren.Als GSM Gateways kommen natürlich VDF Sagem Gateways hin, zB das R300/RL302 für rund 10€ bei eBay (sprachquaali is mies aber billig) oder das aktuelle RL400/RL500…Dann ist der Weg GSM->Analog->PBX.Kabel Deutschland hat kein VoIP! Das ist ein eigenständiges “VoC” (Voice over Cable) Protokoll. Daher habe ich direkt den analogen Anschluss. Selbiges gilt bei der Telekom: Direktes ISDN. Ist ja kein 1und1 und ich bin ganz ehrlich froh darüber, dass Telefon vom Internet entkoppelt ist. Gab wohl bei KabelD mal mit der FB7270 VoIP… Nur 1. weiss man nicht ob das nicht nachher wie bei 1und1 über ne zweite Modemverbindung läuft und 2. ob das überhaupt woanders funktioniert. VoIP ist ja alles andere als nur Zugangsdaten…Und JA, die Telefone sind analog.Eventuell wird die alte Fritzbox ein paar mehr Aufgaben bekommen: Mit Asterisk kommt ein UMTS Stick dran, sie kommt nach “oben”, dient als zweiter WLAN AP im grünen Netz (also mit Radius für secure clients), stellt dann durch den Stick ein GSM Gateway dar, das direkt an VoIP angebunden werden kann (LAN) und was noch viel besser ist: Es können einige DECT-Telefone direkt angebunden werden – und dazu noch 2 analoge Ausgänge. Das würde das Arbeitszimmer, Schlafzimmer und das von meinem Bruder abdecken. Dann reicht auch die 4-Port Analogkarte aus. Noch ISDN über die Fritzbox einzubinden (VoIP) würde ich nicht machen. Erstens packt die nur 3 Gespräche, was bei der Brücke ISDN->Fritzbox->Asterisk->Fritzbox->DECT schon 2 Gespräche darstellt und die Geschichte in der Realität auf 2 gleichzeitige beschränkt. Wichtig ist, dass hier noch ein Telefon klingelt, wenn alle 4 Personen telefonieren.Die FritzBox hat zwar einige Erweiterungsmöglichkeiten, zB mit nem dafür gebauten Asterisk Server – aber die Ressourcen sind sehr begrenzt, sodass ich diese Brücke nicht zu sehr belasten will.Zusatz:Das Asus Board mit Serverchipsatz würde nicht nur nen E3 und ECC Ram unterstützen sondern voraussetzen.Das ist absolut unbezahlbar! Zwar wäre der E3-1260L mit 45W TDP sozusagen das Äquivalent zum i5-2500T aber wo zum Teufel bekäme ich bezahlbaren DDR3-ECC her?Hier ist man bei rund 300 Euro für 16GB (gut, 8GB Riegel und damit die 32GB Option aber die wäre nicht so wichtig wenn der Ram dann nur die Hälfte kostet).Außerdem ist der Ram ECC-Registered, der Chipsatz will aber nur ECC und kein Registered. Keine Ahnung wie es da mit Kompatibilität aussieht.Alles in allem würde der Server damit einfach zu teuer werden – 1500€ ok, aber keine 2000. (Mit allen Teilen)Dann noch den benutzen Ram zurückschicken? Ob sich der Händler darauf einlässt…Ich suche halt wirklich ein Board mit Q67 und nicht irgendwelche Chipsätze die inkompatibel zu der gekauften Hardware sind^^
-
19. Mai 2011 um 7:05 Uhr #891224littledevilTeilnehmer
Genau das H.323 habe ich in meiner FB 7270 -dachte, das ist standard… :-k
J,a das mit den weniegn VOIP Kanälen durfte ich vor kurzen auhc heraus finden 🙁 Die Firma wird wahrscheinlich 1-2 snom m9 VOIP einsetzen, da fast alles schnurlos laufen soll.
Wenn man mit Sip arbeitet, ist das Grandstream
GXW-4008 ne preisgünstige lösung mit 8 gleichzeitigen Kanälen. -
19. Mai 2011 um 8:05 Uhr #891227simfightTeilnehmer
Ein solches stromverschwendendes Gateway habe ich auch noch, die FXP/FXO Karte braucht nur ein Zehntel davon.Ausserdem ist das Gateway zu unflexibel, muss extra mit Strom versorgt und extern angebunden werden… Nichts als Fehlerquellen!Wirklich professionell ist nur eine PBX mit PCI-Karten.Wenn du Interesse an einem IAX Gateway (zwei Module werden untersützt, eins mit 4 Ports Analog ist vorhanden) hast, kann ich dich mit sowas totschmeissen^^Aber wer kauft bei Preisen um die 50 Euro für ein Android Phone noch VOIP-Telefone? Die WLAN Reichweite ist ja noch schlechter als die vom DECT der Fritzbox *g* Und das will was heissen!
-
19. Mai 2011 um 8:05 Uhr #891232ZoldanTeilnehmer
Android Phone kaufen, ins WLAN bringen, SIP App installieren und man hat ein günstiges VOIP-Telefon.
-
19. Mai 2011 um 8:05 Uhr #891230littledevilTeilnehmer
Um was für ein IAX Gateway handelt es sich? Wieviel evrbrauchen die denn so?
Das Snom M9 ist ein Dect :+ Hat aber 4 Kanäle statt nur 3 in der FB
Was meinst Du mit Android Phone?
-
19. Mai 2011 um 9:05 Uhr #891239littledevilTeilnehmer
Wo gibt es für 50 EUR ein Android Handy mit Wlan und Voip?
-
19. Mai 2011 um 12:05 Uhr #891188simfightTeilnehmer
ebay, aliexpress, dealextreme, priceangels etc =)Reicht ja eins mit rund 200mhz MTK.Da ich gerade eine Minute Zeit habe:Das Hier mit MTK6235 (208Mhz) ist nicht schnell, müsste aber bereits für VoIP ausreichen. Das sind genau 50 Euro…Mit MTK6516 und damit 416Mhz gibt es zB das hier für bereits 10€ mehr. Oder ein sehr bekanntes und häufig gekauftes DroidPhone: A3000 auch mit dem MTK6516 und sogar GPS etc…Für Firmen gilt: Jedes Mitarbeiterhandy sollte an die Telefonanlage der Firma angebunden sein, insbesondere im Firmenwlan. Alles andere ist unprofessionell und nicht mehr zeitgemäß.Gibt man rund 130-150USD (also ~90-120€) für ein A5000 mit kapazitivem Touchscreen aus, hat man ein nettes alltagsfähiges Dual-Sim Gerät. Wer nur eine Simkarte braucht ist mit nem “alten” ZTE Blade (Orange San Francisco, Lutea und wie es sonst noch genannt wurde) mit AMOLED Display besser bedient. Das gibt’s (ohne AMOLED) immerhin auch so für rund 120€ und es steckt ein “Markenchip” (kein MTK) mit >600Mhz drin.Übrigens: Selbst mein alter E65 Communicator kommt über EDGE, UMTS oder WLAN wunderbar mit VoIP zurecht! Und den habe ich vor einem Jahr für rund 20 Euro gekauft.Zum IAX Gateway:Ist ein Level One VOI-8000 mit einem 4x FXS Modul. Also doch kein IAX sondern nur h.323 – kleiner Irrtum^^ Auf jeden Fall funzt H.323 mit Asterisk. Stromverbrauch – keine Ahnung, wird zwischen 10 und 30 Watt liegen^^ Das Gateway macht H.323 und ist statisch zu konfigurieren, was dann enorme Vorteile bei der Anbindung an eine Telefonanlage (zB Asterisk) bietet. Hatte es von 2006-2009 im Betrieb und jetzt wird es einer integrierten Lösung (eben die PCI Karte) weichen. Leider habe ich keine FXO Karte für das Gateway…//edit:Das Revodrive ist da! Nigelnagelneu und damit noch eingeschweißt, 744MB/s lesen in Windows 7 64…Bilder etc sind gemacht und ich werde wohl auf E1260L und C204 (das Asus Board) umsteigen auch wenn ich dann auf die IGP der CPU verzichten muss. Die Vorteile sind einfach zu massiv.Es sei denn ich bekomme das Q67 Board zu einem guten Preis – habe mit einem netten Taiwanesen telefoniert^^
-
21. Mai 2011 um 8:05 Uhr #891558littledevilTeilnehmer
Eine IGP hat das Asus doch: Aspeed AST2050 with 16MB VRAMSollte doch für Deine zwecke genügen, oder ist das GPU BEschleunigt trancoding so wichtig??Was ist ein E1260L? Der Xeon E3-1220, 4x 3.10GHz dürfte gut apassen und ist bezahlbar. Leistungsmäßig dürfte der das transcoding dann auch gut packenE65 Communicator für 20 EUR würd ich auch nehmen. 😀 Wäre dann kompatibel zu meinen E61i
-
21. Mai 2011 um 9:05 Uhr #891560simfightTeilnehmer
littledevil;458126 said:
Eine IGP hat das Asus doch: Aspeed AST2050 with 16MB VRAM
Sollte doch für Deine zwecke genügen, oder ist das GPU BEschleunigt trancoding so wichtig??
Was ist ein E1260L? Der Xeon E3-1220, 4x 3.10GHz dürfte gut a
passen und ist bezahlbar. Leistungsmäßig dürfte der das transcoding dann auch gut packenE65 Communicator für 20 EUR würd ich auch nehmen. 😀 Wäre dann kompatibel zu meinen E61i
der E3-1260L ist das Derivat zum i5-2500T.
Wir sind hier immernoch beim Stromsparserver, da kommt nur eine CPU mit 45W TDP in Frage.
Und ja, genau wegen der GPU Beschleunigung wollte ich doch unbedingt das H67 Chipset nehmen (bzw jetzt Q67).
Leider gibt es kein C206 Board mit so viel Kram drauf wie das Asus.
Die CPU ist mit Traffic Shaping, Encryption und vielen anderen Aufgaben so belastet, dass es einfach ungünstig ist, sie auch noch mit dem Konvertieren von Videos zu quälen. Mal davon abgesehen, dass die Intel IGP in der Hinsicht die Nase vorn hat.Man muss sich einfach darüber im Klaren sein, dass Software Raid5, verschlüsseltes VPN und Traffic Shaping von insgesamt 166mBits, mindestens 5 Festplatten und bei einer 740MB/s SSD den Prozessor mit so hoher Grundlast versehen, dass die anderen Funktionen zwangsläufig die 100%-Last Grenze erreichen. Da eine Sat-Schüsel mit Aufnahmen über den Server in der Endplanung ist und Live-Konvertierung von zumindest PAL-Material in h.264 geplant ist, käme die IGP dem ganzen zu Gute.
Das was beim Asus Board drauf ist, ist Mist. Das ist genau das, was kein Mensch braucht! Die wertvolle CPU-IGP funktioniert nicht und eine stromfressende, nicht entnehmbare IGP auf dem Board ist vorhanden. Warum Asus da keinen C206 statt C204 verbaut hat werde ich wohl nie verstehen…
Ich bin natürlich gespannt, ob es beim “Business” Chipsatz und dann auch noch auf einem Asus Board überhaupt irgendwelche Stromsparmechanismen gibt.
Der Rechner sollte EIGENTLICH im Idle maximal 20W fressen (also nackt, natürlich wird es mit den ganzen Festplatten, der SSD und den vielen Erweiterungskarten locker das 2-3 fache davon).
Das zusätzliche Features Strom kosten ist aber völlig in Ordnung… Wenn ich bedenke, was ein externes Gerät für die selbe Aufgabe verbraucht, ist das immer noch sparsam.Eine CPU mit 80W oder mehr kommt aber nicht in Frage… Dann wäre es ja UNMÖGLICH ,den Rechner mit picoPSU zu betreiben.
-
21. Mai 2011 um 9:05 Uhr #891561ZoldanTeilnehmer
Du kannst die GPU doch eh nicht an deine VMs weiterreichen. Also brauchst du entweder kein VT-d oder keine GPU.
-
21. Mai 2011 um 10:05 Uhr #891568simfightTeilnehmer
Zoldan;458129 said:
Du kannst die GPU doch eh nicht an deine VMs weiterreichen. Also brauchst du entweder kein VT-d oder keine GPU.Womit das dann die erste (sorry) wirklich falsche Aussage hier wäre :p
Ich verstehe, worauf du hinaus willst aber du bist leider nicht tief genug in der Materie.
GPU-Beschleunigungsfunktionen lassen sich sehr wohl durchreichen.
Genaugenommen ist es fast das Selbe wie bei “VT”, denn da wird auch nicht die CPU direkt durchgereicht (die braucht ja der VM-Host), sondern eben die Instructions. Und das funktioniert über entsprechende Brücken auch mit der GPU! Natürlich ist das wegen der memory allocation etwas komplizierter, unter XEN habe ich das allerdings mal mit einer NVidia Karte und CUDA probiert – erfolgreich. Das Ganze sollte also problemlos mit einer Intel GPU funktionieren.Gerade da Windows bei meinem Server aussen vor bleibt, habe ich hinsichtlich VMs DEUTLICH mehr Möglichkeiten, da ich hier mit allen Möglichkeiten des Kernels arbeiten kann.
-
21. Mai 2011 um 13:05 Uhr #891589littledevilTeilnehmer
simfight;458128 said:
Da eine Sat-Schüsel mit Aufnahmen über den Server in der Endplanung ist und Live-Konvertierung von zumindest PAL-Material in h.264 geplant ist, käme die IGP dem ganzen zu Gute.Ich denke mal, das die E3-1260L mit 2,4 Ghz bei der Aufgabenlast überfordert sein wird. Ich befürchte das man bei einem Server Baord kein undervolting betreiben kann, um einen E3-1240 o.ä., zu zähmen.
Mi der richtigen Spannung sind 50W Vollast kein Ding.
DU ahst ledier nicht so viel Möglichkeiten. Entweder Du setzt ne kleine GRaka rein, mdie den evrrbauch nach oben treibt, oder Du nimmst eine CPU, die es allein packt.
Ichd achte es geht um transcoding jobs, die vor sich hin werkel – live trancoding macht das gnaz sehr ressourcen intensiv, da lags sofort auffallen.Mit 5 Feestplatten und denn ganzen anderen “zeugs” kannst Du eh nicht normal über ein 120W pico gehen. enn Du den 12v cpu strom direkt aus der usv nimmst, spielt das pico ja kaum eine rolle
Alternativ köntnest Du mit ner pcie<-> bridge und diesem baord arbeiten:
ASUS P8B WS, Intel C206
1x PCIe 2.0 x16, 1x PCIe 2.0 x16 (elektrisch nur x8 oder x4), 2x PCIe 2.0 x16 (elektrisch nur x4 oder x0), 1x PCIe 2.0 x1, 1x PCI
2x Gb LAN (Intel 82574L)
4x SATA II RAID 0/1/5/10 (C206), 2x SATA 6Gb/s (C206) -
21. Mai 2011 um 20:05 Uhr #891640simfightTeilnehmer
littledevil;458158 said:
simfight;458128 said:
Da eine Sat-Schüsel mit Aufnahmen über den Server in der Endplanung ist und Live-Konvertierung von zumindest PAL-Material in h.264 geplant ist, käme die IGP dem ganzen zu Gute.Ich denke mal, das die E3-1260L mit 2,4 Ghz bei der Aufgabenlast überfordert sein wird. Ich befürchte das man bei einem Server Baord kein undervolting betreiben kann, um einen E3-1240 o.ä., zu zähmen.Mi der richtigen Spannung sind 50W Vollast kein Ding.DU ahst ledier nicht so viel Möglichkeiten. Entweder Du setzt ne kleine GRaka rein, mdie den evrrbauch nach oben treibt, oder Du nimmst eine CPU, die es allein packt.Ichd achte es geht um transcoding jobs, die vor sich hin werkel – live trancoding macht das gnaz sehr ressourcen intensiv, da lags sofort auffallen.Mit 5 Feestplatten und denn ganzen anderen “zeugs” kannst Du eh nicht normal über ein 120W pico gehen. enn Du den 12v cpu strom direkt aus der usv nimmst, spielt das pico ja kaum eine rolleAlternativ köntnest Du mit ner pcie<-> bridge und diesem baord arbeiten:ASUS P8B WS, Intel C2061x PCIe 2.0 x16, 1x PCIe 2.0 x16 (elektrisch nur x8 oder x4), 2x PCIe 2.0 x16 (elektrisch nur x4 oder x0), 1x PCIe 2.0 x1, 1x PCI2x Gb LAN (Intel 82574L) 4x SATA II RAID 0/1/5/10 (C206), 2x SATA 6Gb/s (C206)
Das mit den Bridges ist blöd, habe mir das Board auch schon angesehen…Leider gibt es nicht sowas wie das Auss C204 Board nur mit anderem Chipset.Ich werde wohl auf die IGP verzichten und die Encoding-Aufgaben vom HTPC meines Bruders (IONIT2) übernehmen lassen.Mit dem Asus Board spare ich mir rund 150€ für eine 4-port Gbit PCIex4 Karte…Und dann gehen die i5 zurück und es kommt ein 45W Xeon.Der schafft übrigens rund 5GB/s Truecrypt und müsste auch die VPN-Last encoden können… (sind ja bei unverschlüsseltem WLAN mit VPN Tunnel eh maximal 300mbit/s).Ich hoffe mal, dass der Stromverbrauch zumindest erträglich bleibt…War ja alles nicht so geplant.Mit etwas Glück gibt es eine Rückmeldung von dem Hersteller des 4-port PCI Q67 Boards, damit wären alle Probleme aus der Welt geschafft.//editGerade die Verfügbarkeit oder der Preis (je nachdem) des E3-1260L macht mir doch Sorgen:Entweder um 200-250€ und nicht verfügbar oder um 350€ und verfügbar. So viel darf das Ding auf keinen Fall kosten, da kann ich ja das Intel Q67 Board mit ner 4-Port PCIeX4 Gigabit NIC und ne PCIeX1->PCI Bridge für kaufen…
-
12. Juni 2011 um 17:06 Uhr #894087simfightTeilnehmer
Auch wenn es etwas gedauert hat:Das Chinaboard bekomme ich nicht, Serverboard ist mir zu teuer:Nehme das Intel Q67 Board.Zur Zeit arbeite ich an der Verschlüsselung (ist etwas komplizierter), dann geht es weiter und es gibt ein paar sinnvolle Updates von mir…Habe für den Anfang eine 4port Gigabit PCI-X Karte bestellt und hoffe auf eine PCI-e X4 -> PCI-X Bridge oder eine günstige (eBay) 4Port PCI-eX4 Gigabit NIC.Dann noch die 4 oder 8 port FXS/FXO Karte in den Server und alles ist fein.Zur Stromversorgung:Werde mir wohl ein 12V-10A Netzteil nur für die HDDs besorgen und ein paar Stecker selbst basteln.Der Rest geht über die 120W PicoPSU und direkt an die USV (13,8V Quelle)Ich bin mal gespannt, wie die Effizienz von dem hier aussieht…Platz für ein ATX Netzteil ist im “Servergehäuse” ohnehin nicht =)
-
13. Juni 2011 um 15:06 Uhr #894174littledevilTeilnehmer
Ja, teste mal das NT – wenn das bei dem Preis auch noch sparsam ist, hol ich mir auch eins.
PCI-e X4 -> PCI-X Bridge hört sich abeneuerlich an. Günstig und x4 wird nicht einfach.
-
13. Juni 2011 um 16:06 Uhr #894182littledevilTeilnehmer
simfight;460941 said:
Gute Nachricht: Mit dem Intel Q67-Board kann man undervolten.Das ist selten bei intel :d:
Die EXSYS-EX-6074 wird wohl nicht passen!?
4x Karte für 80 EUR?
-
13. Juni 2011 um 16:06 Uhr #894178simfightTeilnehmer
littledevil;460937 said:
Ja, teste mal das NT – wenn das bei dem Preis auch noch sparsam ist, hol ich mir auch eins.PCI-e X4 -> PCI-X Bridge hört sich abeneuerlich an. Günstig und x4 wird nicht einfach.
Die ICs gibt’s überall für wenig Geld zu kaufen =) Nur ich habe absolut nicht die Zeit, mich wochenlang damit auseinanderzusetzen, was man für eine Schaltung um den IC herum aufbauen muss.
Bei den PCI-e Lankarten: Die von HP mit Intel Chip gehen um 80€ bei eBay weg, also ganz gut. Man muss nur Geduld haben *g*
Vorläufig nehme ich 2x 100mbit (PCI), onboard Gigabit und eine 100mbit USB Karte.Erste Ernüchterung:
VT-d funktioniert nur mit wenigen PCI-Karten, da die Karten selbst das auch unterstützen müssen. Hoffentlich wird das dann was mit asterisk (-.-)Zur Zeit läuft “Scientific Linux” (RHEL kompatibel) und pfsense wird eingerichtet…
Verschlüsselungskram fällt aus Zeitgründen erst einmal komplett weg.
Gute Nachricht: Mit dem Intel Q67-Board kann man undervolten.
Auch dazu werde ich wohl noch einiges hier schreiben… Dauert halt nur seine Zeit.Auf jeden Fall ist es lästig, dass unter BSD keine paravirtualisierten Netzwerkkarten laufen. Da muss ich wieder etwas an Patches für raussuchen. Denn die Performanceeinbußen müssen absolut nicht sein… Daher haben wir heute auch ein paar Stunden mit pfsense verschwendet ^^
-
13. Juni 2011 um 16:06 Uhr #894189simfightTeilnehmer
Realtek RTL8111C – nein Danke! (Die hatte ich schon länger im Blick da es auch PCIe X1 Dualport Karten für wenig Geld gab, aber sowas kommt mir nicht ins Haus)Die HP Karten zB mit Intel Chipsatz gehen für 80-150 Euro weg, meist rund 120. Wer lange genug sucht findet auch eine für 80^^ Auktionen natürlich und Gebrauchte – aber wen interessiert das *g*
-
13. Juni 2011 um 17:06 Uhr #894192littledevilTeilnehmer
Sowas kann/möchte man privat ja kaum neu bezahlen.
P.S. zwänge grad die cat7 kabel durch die leerohre – Schweinearbeit bei dem Wetter =;8-[
Todesmuting mache ich ejtzt eine Extrarohre für netzwerk, sat und Lautsprecher – kommt alles in ein m40 -
13. Juni 2011 um 20:06 Uhr #894231simfightTeilnehmer
Boah jetzt sitzen wir schon bestimmt drei Stunden an dem beschissenen IGMPproxy unter pfsense und es will einfach nicht klappen^^
VLAN8 bekommt keine ipv4 ip via dhcp und der igmpproxy frisst dann die config nicht… Ich könnte ausrasten^^PS:
Leerrohre sind toll. Bei uns waren die Wände dafür zu dünn^^
Und Cat7? Planst du 100gbit lan? Mitlerweile sind die Kabel wohl bezahlbar, “damals” bei uns war daran finanziell noch nicht zu denken. Und ich wette, 10gbit gehen auch über cat6 wenn man den richtigen Standard wählt (gibt zur Zeit ja unzählige verbreitete) -
13. Juni 2011 um 23:06 Uhr #894257littledevilTeilnehmer
Spaß ist, wenn man trotzdem lacht 😀
P.S. Das Wandproblem habe ich auch. Sind zwar insg. 35 cm, aber hohlmauerwerk d.h. innen nur 12cm und da möchte ich nicht rein stemmen bei den alten fugen. Die Leerohre habe ich in den Holzbalkendecke verlegt – ziemlich fummelig, aber die wändler bleiben unberührt.
Werd nicht überall Cat 7 machen, aber da wo viele gemischte kabel sehr eng beinenander sind, nehme ich lieber hochwertigere kabel – kostet auch nicht mehr soviel mehr. Im prinzip reiht für 10gbit ein gutes Cat6 aber auch (nicht grad die 250 Mhz billigkabel)
letzendlich hängt das von vielen Faktoren ab z.b. störquellen, leitungshäufung, Leitungslänge.
Die kabel solllen viele jahre reichen. Würde mich die krätze ärgern, wenn ich dann 2030 meinen Ultra High Definition 4320p TV nicht mit dem 24 Gbit/s Videosignal vom Kellerserver versorgen kann 😆 -
28. Juni 2011 um 12:06 Uhr #896261littledevilTeilnehmer
60% gesamtlast oder für einen Kern?
Die Asterisk-Karte würde ich dann gleich in pcie kaufen -irgendwann gibt es kein PCI mehr… -
28. Juni 2011 um 12:06 Uhr #896257simfightTeilnehmer
Tja das IGMP Problem lag an den Teibern (Virtualisierung) und ist nun dank Intel-Emulation oder inoffiziellem VirtIO Treiber behoben.Leider geht die CPU-Last bei pfsense (BSD) auf locker 60% wenn man etwas Traffic generiert – und da ist es egal ob 50, 100 oder 150mbit.Zur Zeit warte ich auf das 15A 12V Netzteil um den Anlaufstrom der Festplatten zu bewältigen, die 4x GBit Intel NIC ist bestellt (PCIe X4) und auch sonst läuft alles gut, ich überlege ob die Asterisk-Karte eine PCI oder PCI-e wird (PCI 80USD vs PCIe 160USD) und frage mich, ob die PCI-Karte mit VT-d durchgereicht werden kann.Die PCI-X Intel NIC, die ich vorläufig für 30eur bestellt hatte (4x gbit) läuft zwar prima im 32bit Slot, lässt sich jedoch leider nicht an die VM durchreichen.
-
28. Juni 2011 um 13:06 Uhr #896263simfightTeilnehmer
littledevil;463143 said:
60% gesamtlast oder für einen Kern?
Die Asterisk-Karte würde ich dann gleich in pcie kaufen -irgendwann gibt es kein PCI mehr…Naja PCIe kostet das Doppelte^^ Für 140USD krieg ich schon ne 8x Asterisk PCI Karte…
Und natürlich Gesamtlast – das ist ja das beängstigende.
Es wird nur der Ping schlechter, wenn ich der VM nur einen Kern überlasse.
Das Problem scheint die Virtualisierung zu sein: Für BSD gibt es “offiziell” keine VirtIO Treiber.
Habe leider noch keinen anderen Router als pfsense mit so vielen Features gefunden =(
IPFire lief virtualisiert immer nahezu perfekt. -
28. Juni 2011 um 16:06 Uhr #896297simfightTeilnehmer
Jup =) Hatte erst zwei Kerne und konstant 50%, also Volllast, dann alle 4 Kerne – und gut 60%. Teilweise sogar bis 70%.Und das bei Downloads über eine einzelne Verbindung (kein Loadbalancing). Natürlich mit Trafficshaping. Aber die queue dürfte nicht so viel CPU ziehen.Werde bei Gelegenheit mal die 64bit Karte in mein altes VIA-Board packen (C3 1,5Ghz) und schaun wie da die CPU belastet wird.Ich wette das liegt an den fehlenden VirtIO Treibern.
-
28. Juni 2011 um 16:06 Uhr #896292littledevilTeilnehmer
Die Karte kannst Du dann aber auch doppelt so lange nutzen :devil:
60% gesamtlast sind echt he:shock:ftig
-
28. Juni 2011 um 17:06 Uhr #896299loonyTeilnehmer
Was mich und bestimmt einige mehr interessiert, ist, wo du deinen Superserver einsetzen willst. Du hast sicherlich eine kleine Firma, in der er seine Arbeit verrichten soll, oder brauchst Server + 10 Clients only@home?
-
28. Juni 2011 um 17:06 Uhr #896315simfightTeilnehmer
loony;463184 said:
Was mich und bestimmt einige mehr interessiert, ist, wo du deinen Superserver einsetzen willst. Du hast sicherlich eine kleine Firma, in der er seine Arbeit verrichten soll, oder brauchst Server + 10 Clients only@home?Der macht nur privaten Kram…Im Prinzip für meinen Bruder und mich. Allerdings nutzen meine Eltern das auch mit und wir haben halt einige Geräte =)Wir wollen nicht einen Router und jeder den Rechner laufen lassen, daher der Server.Ich mache selbst viel am PC und der Server ist allein um die Downloads von diversem Kram zu koordinieren schon notwendig – ein Rechner ohne SSD wäre hier überlastet.Ich habe eine riesige Musiksammlung, die ich mitlerweile lossless digitalisiert habe. Die soll auf dem Server landen, damit ich von überall meine Musik streamen kann.Mein Bruder hat einen Rechner, der dank OC und dicker Graka locker 500W im Betrieb frisst. Ich habe nur ein Notebook im Betrieb.Da die Stromrechnung beängstigende Ausmaße erreicht hat soll sich was ändern =)Da ich gern mit den Telefonkosten trickse und viele Handyverträge mit Freiminuten und Netzflatrates habe und sowieso schon ewig eine ausgeklügelte Asterisk-Anlage plane ist das auch notwendig.Der Server übernimmt also keine “Business Funktionen” sondern stellt lediglich privaten Content 24/7 zur Verfügung und erledigt Aufgaben, für die man sonst einen stromfressenden Rechner einschalten müsste.
-
8. Juli 2011 um 2:07 Uhr #897553VelociraptorTeilnehmer
Hallo,
erstaunliches Projekt, besonders in der Größe. Allerdings für einen Privathaushalt der Aufwand? Ich sehe zur Zeit nicht wirklich den Sinn in dem Umfang. Was möchtest du denn zu Hause außergewöhnliches an Telefonsachen haben, dass du da so lange drüber brütest?
Und was mich noch mehr interessiert, was möchtest du mit den SSDs erreichen? Ich finde das Gerät komplett überdimensioniert. Kannst du für mich nochmal den genauen Zweck erläutern? Ich verstehe nicht, warum SSDs? Warum allgemein der Riesenaufwand mit dem Loadbalancing? Können die Drayteks das nicht ordentlich? Ich nehme an, du hast 10Gig-LAN zu Hause, aber selbst dann ist doch der Flaschenhals nicht bei nem RAID 5 oder 10 Verbund mit Stromsparplatten zu finden. Also würde mich sehr interessieren, was bei dir der Sollzustand ist und warum.Wie macht sich dein Virtueller Host so, ich überlege gerade an nem ESXi-System, aber wegen der Kompatibilitätsliste bin ich echt am überlegen nicht evtl auf Xen oder was anderes Umzuschwenken.
Auf jeden Fall nochmal Glückwunsch zu dem Monster 🙂
MfG
Jens
P.S. Bin total neidisch auf dein VDSL. Ich hab hier “nur” KD 100/6 und könnte dazu 1MBit DSL nehmen. Aber das lohnt sich dann nichtmal als Backupleitung…
-
8. Juli 2011 um 8:07 Uhr #897562littledevilTeilnehmer
Ist Vdsl denn besser als KD 100/6? :-k
-
8. Juli 2011 um 8:07 Uhr #897580simfightTeilnehmer
Velociraptor;464539 said:
nein, nur sind 6MBit+10MBit 16MBit Upload und das ist besser als die 6 allein von KD:):):)Naja gerade nicht:VDSL bedeutet IMMER konstante 10mbit Upstream! Konstant “hoher” Ping (~25ms), konstante 50mbit Downstream.KabelD bedeutet EVENTUELL 6mbit Upstream und fast immer 100mbit downstream.Zu den Fragen:Wenn man die Leitungen hat, bringt das alles ohne Loadbalancing nichts.Die SSD ist unvermeidbar, da einige VM-Hosts auf dem Server laufen. Die Betriebssysteme haben auf dem Daten-Raid nichts verloren, also bekommen sie sowieso ein extra storage. Und da käme nur ein Raid10 in Frage, da ein Stripe nicht redundant genug und Spiegelung nicht schnell genug wäre, ein Raid5 hingegen ist bei verteilten Schreibzugriffen zu langsam. 10gbit LAN nutze ich nicht, da die Karten 1. zu viel Strom fressen und 2. kein Notebook das besitzt. 10gbit LAN wäre für dedicated Gaming interessant: Der Server könnte das Spiel laden und das Bild tunneln. Dafür fehlt es aber bei Weitem an Sinn, Zweck und Rechenleistung. Ein einzelner Client kann 10gbit LAN selten ausreizen, spannend wäre das mit vielen gBit Clients und einem Switch mit 10gbit Uplink. Doch da die Daten natürlich im Raid liegen und das ohnehin nicht allzugroße Geschwindigkeit besitzt, ist das überflüssig. Zudem ist 10gbit LAN nur zum Kopieren größerer Datenmengen interessant. Das wäre also ein Widerspruch in sich: Ziel ist es doch gerade, alle Daten auf dem Server zu haben. Wozu sollte man dann die Daten auf den Client kopieren? Der Client soll streamen! Klar, einige wichtige Daten werden auf der SSD, dem Raid, dem Backup und dem Client liegen – schön (bis auf das Backup) der Redundanz zu Liebe mit subversion synchronisiert. Da handelt es sich dann aber eher um meine Uni Sachen und wichtige Dokumente, insgesamt vielleicht 50GB, absolut keine Datenmenge. Da wird sich auch gbit LAN nicht störend auswirken.Das es so ein Monster an SSD geworden ist liegt einfach am günstigen Einkaufspreis. Geplant war wie gesagt das preiswerte “alte” RevoDrive mit 540MB/s und 120GB für 190€. Jetzt hat die Vertex3 aber schon die selbe Leistung, eine SATA3 SSD kommt nicht in Frage und die Vertex3 ist zu teuer. Also kam das X2 mit 480GB…Beispiel: Ich lade eine gepackte 50GB Datei herunter und entpacke sie auf dem Server. Das kostet eine Menge Schreibzugriffe. Auf dem Raid5 wäre das eine enorme CPU-Last und Lahmlegung des Servers. Auf der SSD ist das eine minimale Belastung. Der Start jeder VM ist X-Mal so schnell, gleichzeitige Zugriffe auf SSD-Daten sind kein Problem… Die SSD ist im Prinzip der Speicher für alle VMs und ein riesiger Zwischenspeicher für sich schnell verändernde Daten – also Datenbanken, temporäres uvm.Natürlich ist das Ganze kein Muss, es zeigt aber was auch mit realistischem Budget im Privathaushalt möglich ist.Als VM-Host kann ich für Linux realistisch gesehen nur KVM, also qemu basierende Systeme empfehlen. Am Besten eignet sich wohl etwas RHEL kompatibles wie zB ScientificLinux oder CentOS (wobei SL aktueller ist als COS).Zur Virtualisierung gibt es nette fertige Pakete.Die Konfiguration erfolg dann dank X-over-SSH-tunneling mit einem X11 Client von jedem beliebigen Rechner.Zur Zeit läuft das Ganze noch nicht so toll:Durch Load-Balancing bin ich von IPFire auf pfsense umgestiegen. Das bedeutet aber einen Umstieg von Linux auf BSD. Und für BSD gibt es keine virtio Treiber. Daher eine übermäßige CPU-Last.Es ist also gut möglich, dass ich das Loadbalancing streiche und die Clients (ist sowieso nur für den Server wichtig) dazu bringe die Last auf beide Leitungen zu verteilen. Zur Zeit tendiere ich zumindest eher dazu – der Dauerlast zu Liebe. Eine PCIe X4 4-Port GBIT Karte ist unterwegs und wird direkt mit VT-d zum Router durchgeschleift, es folgt ein Ressourcengewinn durch vollständigen Wegfall von Netzwerkvirtualisierung an dieser Stelle. Virtuell bleibt nur das “orangene” Netz und das “güne” Netz, wobei am orangenen ohnehin nur virtuelle Computer und am Grünen zwangsläufig eine Bridge zwischen “echtem” und virtuellem Netzwerk hängt.Da meine Leitung ständig zu 100% im Upstream ausgelastet ist (zB torrents, VPN-Tunnel zum Handy etc), ist ein effizientes Routing-System Pflicht. Und damit das Raid5 nicht die ganze Zeit ackern muss, kommen zB die ganzen Linux Images und CC-Kram auf die SSD. Das minimiert Zugriffe auf die mechanischen “Datengräber” um ein Vielfaches. Alleine das Wegfallen eines Rechners, der hin und wieder nur für Downloads angeschaltet wird rechtfertigt hier den Mehrverbrauch.Viele Leute haben so unzählige Geräte zu Hause:Einen Router, ein NAS, eine Telefonanlage, einen Rechner der Downloads und sonstige Rechenaufgaben erledigt…Hier macht das alles EIN Server. Und zwar besser als alle anderen Geräte zusammen =)Ich würde behaupten, dass allein das was ich an Asterisk-Routing betreibe komplexer ist als das, was sich auf allen Rechnern vieler einzelner zusammen befindet *g*
-
8. Juli 2011 um 8:07 Uhr #897575VelociraptorTeilnehmer
nein, nur sind 6MBit+10MBit 16MBit Upload und das ist besser als die 6 allein von KD:):):)
-
8. Juli 2011 um 10:07 Uhr #897600littledevilTeilnehmer
Da haben sich ja zwei gefunden 😀
5TB Traffic schaffe ich nicht mal im Jahr 😆
hast Du den Anspruch alles HDFilme der Welt zu besitzen oder was überträgst Du da den ganzen Tag :-k ❓Die Ausfallproblematik ist bei eine Fritzbox ja auch nicht besser bzw. man kann ja eine als Backuplösung einsetzen.
Wenn man es ganz sich braucht, könnte man ein Notsystem einsetzen, welche regulär als surf-pc dient und das gleich board + ne abgespeckte CPU enthält. Da kann man dann mit ner 500GB spiegel-hdd im notfall mit veringererter Performace weiter machen.
-
8. Juli 2011 um 10:07 Uhr #897590VelociraptorTeilnehmer
Hallo,
naja eben doch, zu Mindest aus meinen Erfahrungen her. Wenn mein KD irgendwas kann, dann 6MBIT Upload (na gut, manchmal sinds 5,5) liefern und das zu jeder Tages- und Nachtzeit. Den Downstream teste ich nie, da ich sowieso nur mit WLAN am Client bin und den Server misbrauche ich nicht zum Testen. Meine Versuche mit VDSL waren da nicht so zuverlässig im Upstream, deswegen bin ich sehr froh über KD.
OK, also das mit der SSD sehe ich zwar immernoch anders, aber für mich ist Redundanz auf der Systemplatte Voraussetzung, bei dir ist Ausfallsicherheit scheinbar nicht so wichtig. Wird interessant, wenn deine SSD mal abkackt, dann geht zu Hause tagelang nichts mehr 😉
Hmm das war auch meine Frage wegen der Anwendung, wenn du öfter mal eine 50GB Datei entpacken musst, ist die SSD sicher sinvoll. Warum sinkt durch eine SSD die CPU-Last beim entpacken? Warum musst du VMs öfter starten und stoppen?RHEL für deinen Anwendungsbereich finde ich übertrieben. Du bist nen kleiner Heimuser und kein Großunternehmen, dass spezielle Software und jahrelange Updates braucht.
Hmm, der Artikel hilft dir sicher nicht, oder?OK, KVM habe ich noch nie probiert, XEN hatte ich mal vor Jahren genutzt, war unglücklich. ESXi fand ich dagegen sehrsehr geil.
Finde deine Leistungsansprüche immernoch viel zu teuer und gehoben für die gebrauchten Dienste 😉 Trotzdem nochmal Glückwunsch zum System.
Mir ist der Vorteil eines Gerätes statt mehrerer durchaus bewusst, ich will ja auch mal dahin (bis auf Router) bzw bin eigentlich schon da. Allerdings ist bei nem Ausfall kein Dienst mehr bei dir verfügbar. Und die Wiederherstellzeit, gerade bei nem SSD-Vollcrash, liegt bei dir doch mindestens bei einem Tag und mehr. Ein Tag lang kein Inet, kein Telefon, keine Fileservices, da würde ich, beim Inet richtig eingehen.
-
8. Juli 2011 um 10:07 Uhr #897594simfightTeilnehmer
Velociraptor;464554 said:
Hallo,naja eben doch, zu Mindest aus meinen Erfahrungen her. Wenn mein KD irgendwas kann, dann 6MBIT Upload (na gut, manchmal sinds 5,5) liefern und das zu jeder Tages- und Nachtzeit.Nicht bei der künstlichen Drosselung diverser Dienste… Kommt natürlich auf den Wohnort an. Bei insgesamt 50mbit Upstream und 100 Usern kann nicht viel rumkommen.
OK, also das mit der SSD sehe ich zwar immernoch anders, aber für mich ist Redundanz auf der Systemplatte Voraussetzung, bei dir ist Ausfallsicherheit scheinbar nicht so wichtig. Wird interessant, wenn deine SSD mal abkackt, dann geht zu Hause tagelang nichts mehr 😉
Wieso tagelang?2TB Backup-Platte mit wöchentilchem Ghost-Backup der SSD, dazu Synchronisierung der Backup Ordner. Da ich zwei Backup Platten habe, die “rotiert” verwendet werden ist beim Blitzeinschlag Datensicherheit gewährleistet.Redundanz ist bei einer SSD zu vernachlässigen: Das Netzteil fällt im Schnitt deutlich häufiger aus, es müsste also ein Server in vollständig doppelter Auslegung existieren bzw. ein Servercluster welche über >100mbit in beide Richtungen mit einander verbunden sind. Mehr Sicherheit als mit einer SSD liefert nicht einmal ein Raid6, da auch hier wohl der RaidController genauso häufig ausfallen wird wie die SSD. Und sobald manuell Hardware getauscht wird kann man nur noch von Teilredundanz regen, die hier hier ja gegeben (eine 500GB Platte in den Server zu packen und das Backup aufzuspielen sollte auch nur 5 Minuten dauern). Ich bezweifel aber, dass die SSD kaputt geht *g* Dann eher ein paar andere Komponenten im Server.
Hmm das war auch meine Frage wegen der Anwendung, wenn du öfter mal eine 50GB Datei entpacken musst, ist die SSD sicher sinvoll. Warum sinkt durch eine SSD die CPU-Last beim entpacken? Warum musst du VMs öfter starten und stoppen?
Ein Kernel Raid5 erzeugt vergleichsweise hohe CPU Last. Insbesondere beim Entpacken (gemischte Schreib/Lesezugriffe in hoher Intensität) ist das ein “Lahmlegen” des gesamten Systemes. Die SSD muss dabei dank internem raid0 deutlich weniger leisten.
RHEL für deinen Anwendungsbereich finde ich übertrieben. Du bist nen kleiner Heimuser und kein Großunternehmen, dass spezielle Software und jahrelange Updates braucht.Hmm, der Artikel hilft dir sicher nicht, oder?
Das sehe ich anders.RHEL ist außergewöhnlich stabil. Andere Plattformen sind deutlich instabiler – insbesondere auf Microsoft Systeme kann man sich absolut garnicht verlassen. Debian ist von häufigen Updates und Inkompatibilität geplagt. Gerade der VM-Host, bei dem doch Stabilität das A und O ist – und Updates vernachlässigbar sind – gibt es keine bessere Lösung als RHEL kompatible Syseme. Denn hier muss ich nicht auf Updates verzichten und habe über einen langen Zeitraum aktuelle Softwareupdates. Das gewährleistet Stabilität und Sicherheit.
OK, KVM habe ich noch nie probiert, XEN hatte ich mal vor Jahren genutzt, war unglücklich. ESXi fand ich dagegen sehrsehr geil.
XEN ist teils veraltet, träge, ineffizient. Lediglich für größere Cluster (>10 Server) kann XEN sinnvoll sein, dann allerdings nicht das “alte Freie” sondern natürlich eine Enterprise-Lizens. Bei Paravirtualisierung ist XEN etwas schneller als KVM, geizt dafür aber nicht gerade mit Ressourcen. ESX hingegen ist eine untaugliche Spielerei, die bereits bei einem Windows-fremden Host in Bedrängnis kommt. Das einzige was für die beiden Systeme spricht ist, dass man Support billig kaufen kann. Die Lösungen sind jedoch weder besonders effizient noch stabil und lohnen sich nur für ganz große Serverpaks.
Finde deine Leistungsansprüche immernoch viel zu teuer und gehoben für die gebrauchten Dienste 😉 Trotzdem nochmal Glückwunsch zum System.
Genaugenommen ist das System noch fast unterdimensioniert. Bei einem monatlichen Traffic von rund 5TB muss einiges durch die Leitung gepumpt werden.
Mir ist der Vorteil eines Gerätes statt mehrerer durchaus bewusst, ich will ja auch mal dahin (bis auf Router) bzw bin eigentlich schon da. Allerdings ist bei nem Ausfall kein Dienst mehr bei dir verfügbar. Und die Wiederherstellzeit, gerade bei nem SSD-Vollcrash, liegt bei dir doch mindestens bei einem Tag und mehr. Ein Tag lang kein Inet, kein Telefon, keine Fileservices, da würde ich, beim Inet richtig eingehen.
Wie oben geschrieben: Widerherstellungzeit ist minimal, im Falle eines SSD Crashes wäre auch über ein tägliches SSD-Backup auf das Raid denkbar. Notfall-Boot-Sticks existieren ohnehin. Eine Rückholung der Daten dauert selbst von der Backup-Platte nur wenige Stunden – je nach Datenvolumen.Und bei mehreren Geräten sieht das deutlich schlimmer aus:Die Wahrscheinlichkeit, dass ein Gerät von vielen ausfällt ist ungleich größer. Funktion ist beim Ausfall eines Geräte aber auch nicht mehr gegeben! Keine Telefonanlage mit VOIP funktioniert ohne Internetanbindung, kein Fileserver erlaubt externen Zugriff ohne Internetanbindung und diese billigen Fertiggeräte sind sowieso deutlich anfälliger als hochwertige Hardware.PS:Ich habe stets einen alten IGEL Thinclient mit 233Mhz Geode und 3x 100mbit LAN, auf dem ich m0n0wall betreibe betriebsbereit. Das bedeutet: Auch bei Totalausfall des Servers reicht es, 4 Kabel umzustecken und ich kann zumindest mit 100mbit ins Internet.Vollständige Redundanz kostet viel Strom und doppelte Hardwareauslegung, 99,97% Verfügbarkeit reichen mir und keine Firma ist so ausfallarm wie meine Heimserver *G*
-
8. Juli 2011 um 11:07 Uhr #897611simfightTeilnehmer
littledevil;464564 said:
Da haben sich ja zwei gefunden :D5TB Traffic schaffe ich nicht mal im Jahr :lol:hast Du den Anspruch alles HDFilme der Welt zu besitzen oder was überträgst Du da den ganzen Tag :-k ❓5TB im Monat schaffe ich ja schon bei vollständiger Auslastung der 16mbit Upstream^^Rechenbeispiel (vereinfacht ohne Overhead und Ausfallzeiten):16mbit/8bit*3600sec*365days/12months/1024(gb)/1024(tb)~5TB/monthDann laufen noch die TV Streams über das Internet, jede Woche 2-3 50GB Filme könnten auch drin sein…Neulich habe ich für einen Kumpel eine 2TB Platte mit Serien gefüllt (er ist beim Bund mitten im Nichts und braucht Beschäftigung) und so schaffe ich sogar ganz selten Monate mit über 10TB Gesamttraffic.
Die Ausfallproblematik ist bei eine Fritzbox ja auch nicht besser bzw. man kann ja eine als Backuplösung einsetzen.Wenn man es ganz sich braucht, könnte man ein Notsystem einsetzen, welche regulär als surf-pc dient und das gleich board + ne abgespeckte CPU enthält. Da kann man dann mit ner 500GB spiegel-hdd im notfall mit veringererter Performace weiter machen.
Tjo und das wär mir zu teuer =) Habe sowieso Garantie auf die Komponenten, da kann ich auch zwei Wochen auf den Austausch warten. Mal abgesehen davon, dass bei mir noch nie eine SSD, ein aktuelles Board (solid capacitors) oder ein Prozessor gestorben ist. Lediglich Netzteile (Kondensatoren), billige Mainboards (kondensatoren) und Ram ist bei mir gelegentlich gestorben. Leider habe ich keinen ECC-Ram gekauft, jedoch zeigen sich Ram-Defekte schon ziemlich deutlich und beim Berechnen der Paritäten im Raid würde das ohnehin sofort auffallen.Ich würde fast behaupten, dass ich mir lediglich um die Festplatten und das Netzteil Sorgen machen muss. Und eine 2TB Platte zum Raid-Rebuild lässt sich schnell auftreiben, genauso wie ich ein zustätzliches Netzteil in Reserve habe.Aber ich freue mich, dass nächstes Jahr hier in Hannover FTTH kommt – 200mbit down, 100mbit up =) Und Eventuell sogar Gigabit Internet (eine Testfamilie hat das ja *g*)Schon krass, wenn dann von meinem Server zwei VDSL50 Anschlüsse versorgt werden können.
-
8. Juli 2011 um 12:07 Uhr #897629VelociraptorTeilnehmer
Nicht bei der künstlichen Drosselung diverser Dienste… Kommt natürlich auf den Wohnort an. Bei insgesamt 50mbit Upstream und 100 Usern kann nicht viel rumkommen.
Wie kommst du auf diese Zahlen? Ich weiß zwar nicht, wie KD das mit den Kanälen macht, aber ich würde mir da eher um den Downstream sorgen machen…
Zum Thema SSD-Ausfall: 1. Weiß ich natürlich nicht, ob das nur erfundene Märchen der Mechanikplattenhersteller sind, aber SSDs fallen auch aus und das angeblich nichtmal selten. 2. Hinkt der RAID6-Vergleich natürlich total. RAID-Controllerausfälle sind doch nie so häufig, wie Ausfälle vonn SSDs. Sicher hat da jeder seine Erfahrungen, aber das halte ich für absolut falsch. Ich suche mal nach Zahlen, vlt finde ich was…3. Mal ein Ausfall der optimal für dich läuft: Du bist zu Hause, bemerkst den Ausfall sofort, machst eine Diagnose und merkst, die Daten auf der Platte sind nicht zu retten. Du fährst schnell zum nächsten Mediamarkt, kaufst dir eine X-beliebige Mechanische Platte, baust sie ein und sicherst dein Backup, dass kurz vorm Absturz durchgelaufen ist, zurück. Die VMs fahren alle wieder sauber hoch, alles funktioniert super. Das schaffst du nie unter 5 Stunden. Mal als Gegenbeispiel: Du bist nicht zu Hause, bemerkst den Ausfall erst nach einigen Stunden, musst dein Date absagen, um schnell noch ne Platte zu kaufen. Mist, sit schon nach 22Uhr, heute wird das wohl nichts mehr. Gleich nächsten Morgen, kaufst du sie aber, baust sie ein, wird nicht erkannt, fummelst am RAID-Controller, endlich wird sie erkannt. Du sicherst die Daten zurück doch Norton sagt kurz vor Schluss, dass die Daten inkonsistent sind. Na gut, nimmst du das andere Backup, ziehst das durch, geht. Doch irgendwie bootet der nicht richtig, du fummelst an grub umher, bis es irgendwie geht, da hat wohl Ghost ******* gebaut. Naja, endlich ist KVM oben, doch der verdammte Router lässt sich niht hochfahren. Du fummelst nochmal 2 Stunden, bis dus gefunden hast. Jetzt geht auch der Router. Das waren dann 30 Stunden voller Leid und Unglück. Die freundin ist weg und hat sich einen geholt, der nen RAID bei den Systemplatten hat, die beiden wurden glücklich bis ans Ende ihrer Tage :p 4. Würde ich mal gerne reelle Zahlen über SSDs Crashes haben. Und dann sollen die auch deutlich kleiner sein als von Platterplatten mit Business Critical Eigenschaften.Da glaube ih nciht dran, schon garnicht bei deiner extremen Nutzung der SSD als Zwischenpuffer für alles.
Hast du so viel Erfahrungen mit Windowssystemen? Ich meinte zum Thema RHEL eigentlich nur, dass es ja auch ein einfaches Debian oder Ubuntu sein kann.
Meine Erfahrung sagt mir, dass dein Server locker 170MBit/s handlen können wird, deswegen ist der Flaschenhals nicht der Server….:p
Ich verstehe zwar nciht, wie du so schlecht über ESX reden kannst, aber naja, ich traue da doch eher meinen Erfahrungen und meinen Exkollegen, die damit Tag und Nacht arbeiten dürfen (auch an 1Servermaschinen), die sind ganz froh kein XEN oder KVM nutzen zu müssen.
Letzten Endes hast du recht, fällt Internet aus (egal ob jetzt wegen des Routers oder so) geht auch recht wenig. Allerdings kommt jeder im Netz noch an seine Daten, kann Drucken usw…Ich wette, der Stromverbrauch von nem Drayek mit nem kleinen AMDsystem liegt etwa gleichauf mit deinem jetzigen System, hält genauso lange und ist deutlich günstiger in der Anschaffung. Das einzige, was er nicht so gut kann, ist deine 50GB Dateien so schnell zu entpacken…Dafür kann das ganze Aber Load Balancing :p
MfG
P.S.
Das mit den 5TB habe ich schon öfter gehört, kann mir aber absolut nicht vorstellen, mit was für (legalen) Daten man sowas erreicht.
-
8. Juli 2011 um 12:07 Uhr #897627simfightTeilnehmer
littledevil;464589 said:
Ok, TV fällt bei mir vom Himmel 😎Kann man sich bei der Tcom eigentlich anzeigen lassen, welche traffic tv verursacht?
Von einem schönen DVB-S2 Tuner träume ich auch noch =) Das wird dann bei mir aber auch vom Server digitalisiert und im Heimnetzwerk verteilt.
Zum Thema IPTV Traffic:
Da die Telekom auf VLAN-Switches setzt, um die IGMP-Broadcasts vom Internet zu trennen und es sich bei IGMP-Paketen um “ständigen Beschuss” handelt, muss man den Traffic im IGMP-Proxy messen.
Genaugenommen reicht hierfür ein IGMP-Packet-Counter am passenden Interface im Softwarerouter. Wie man das anders löst – keine Ahnung.
Für mich war das Problem aber eher das Trafficshaping. Die meisten Shaper sind direkt auf die Interfaces (zB WAN) ausgelegt. Dank VDSL mit “Zielnetz” (wie kann man VLAN Tagging nur so nennen^^) stößt da jeder Router an seine Grenze, da ethx_vlan7 für WAN und ethx_vlan8 für IPTV gilt. Ich habe daher das Traffic-Shaping auf das gesamte ethx ausgeweitet und trenne mit einem seperaten Shaper PPPOE von IGMP Paketen. Damit ist zwar IPTV über allem anderen Traffic – das ist aber nicht so wichtig, da in der Praxis maximal 20mbit davon belegt werden. -
8. Juli 2011 um 12:07 Uhr #897625littledevilTeilnehmer
Ok, TV fällt bei mir vom Himmel 😎
Kann man sich bei der Tcom eigentlich anzeigen lassen, welche traffic tv verursacht?
-
8. Juli 2011 um 13:07 Uhr #897630littledevilTeilnehmer
Wovon träumst Du nachts VR? :lol:Muß aber ne “besodnere” Frau sein, die wg. fehlenden RAID weg läuft :DBeide Szenarios lassen sich durch die besagte 500Gb spiegel-hdd deutlich vereinfachen. Die kann man zur not auch per esata anschließen.Die 170MBit/s sind bei großen Dateien machbar, aber bei kleinen Dateien bricht das doch stark ein. Bis auf fehlerhafte Serien/Modelle dürften die Ausfallequote lt. meiner Glaskugel sehr gering ausfallen.Die hohe Schreiblast ist da völlig egal, da die defekten Zellen aussortiert werden und man ja bei vielen Modellen den Gesundheitszustand leicht in Erfahrung bringen kann. Bis die 480GB “abgenuddelt” sind, ist die SSD eh kaum etwas wert und wurde längst ersetzt. Wenn man noch 15% Sicherheitsreserve läßt, also die alles komplett formatiert wird das im privaten Bereich “ewig” ausreichen.Da der Server permanent läuft, dürfte die Platine auch eher länger halten, da es kaum den schädlichen “Kalt-heiß” Wechsel gibt
Von einem schönen DVB-S2 Tuner träume ich auch noch =) Das wird dann bei mir aber auch vom Server digitalisiert und im Heimnetzwerk verteilt.
Nur weil es so oft falsch gesagt wird. Digitalisiert wird es vom CCD/CMOS chip. Du würdest ja wahrscheinlich nur den Digitalen MPEG2 Stream ans Endgerät weiterleiten bzw. ggf ein transcoding vornehmen
-
8. Juli 2011 um 13:07 Uhr #897633VelociraptorTeilnehmer
http://www.golem.de/1012/79989-3.html
und solche artikel scheint es noch nen paar mal zu geben…
-
8. Juli 2011 um 14:07 Uhr #897635simfightTeilnehmer
Velociraptor;464593 said:
Wie kommst du auf diese Zahlen? Ich weiß zwar nicht, wie KD das mit den Kanälen macht, aber ich würde mir da eher um den Downstream sorgen machen…Na dann werde ich wohl mal etwas kabeltechnisches Know-How spreaden =)Der Downstream läuft beim üblichen DOCSIS Kabelinternet auf ungenutzten hohen Frequenzen. Die erreichbare Bandbreite ist dabei enorm hoch. Beim Upstream hingegen werden die selben Frequenzen verwendet, die auch für das analoge Kabelfernsehen herhalten müssen. Das ist der Grund dafür, dass in recht naher Zukunft kein analoges Fernsehprogramm via Kabel mehr verbreitet werden wird. Digitales Kabelfernsehen kann hingegen von der hohen Downstreambandbreite für den Kunden profitieren.http://de.wikipedia.org/wiki/Ultrakurzwellehttp://de.wikipedia.org/wiki/Data_Over_Cable_Service_Interface_SpecificationGehen wir von einem aktuellen DOCSIS 3 Netz aus, bei dem im Upstream maximal 108mbit/s pro Kanal erreicht werden. Dazu gehen wir mal von realistischen 16 nutzbaren Kanälen aus. Das schafft eine Netzbandbreite von (bei optimaler Auslastung, da jedes Modem maximal 4 Upstream-Frequenzen wählen kann ist das nicht immer garantiert) knapp 1,7gbit/s.Sagen wir mal, an einem solchen Netz hängen in einer Großstadt 5 Wohnblocks mit je 200 Studentenbutzen. Das macht dann 1000 Anschlüsse (Beispiel).Dadurch ergibt sich für jeden eine Bandbreite von 1,7mbit/s.Und nun zu dem eigentlichen Problem:Im Kabelnetz werden “Zeitschlitze” vergeben, in etwa wie bei GSM. Das bedeutet: Sendet ein Kabelmodem eine Anfrage (Upstream), so tut es dies “blind”. Je mehr Modems also gleichzeitig Anfragen senden, um so wahrscheinlicher ist es, dass sie sich gegenseitig stören. Die effektiv nutzbare Bandbreite sind auf ein unterdurchschnittlich niedriges Niveau. Die Station teilt jedem Modem, welches eine erfolgreiche Anfrage gestellt hat einen Zeitschlitz zum Senden zu. Dieser darf nicht von anderen Modems gestört werden, jedoch vergeht hier viel Zeit, bis ein Modem wieder eine Anfrage stellen kann. Die Effizienz der Upstream-Auslastung ist im Kabelnetz bei Vollast auf unter 25 Prozent gesunken.Beim Downstream sieht das anders aus: Hier verteilt die Station die Daten, jedes Modem empfängt das, was es zugeteilt wird.Das Problem ist folglich, dass es im Kabelnetz kein richtiges Trafficshaping geben kann (prinzipbedingt).Es folgen enorme Drosselungen, die von vielen Anbietern bekannt sind.Dazu kommt, dass es im für den Upstream genutzten Freqzenzband deutlich mehr freie Frequenzen gibt – und vor allem deutlich höhere Bandbreiten erzielt werden.”Auf dem Lande” ist das zwar relativ wurscht, wenn aber in einer Großstadt zum Beispiel pünktlich zum Wochenende alle den Esel anwerfen, kann ich nicht einmal mehr irgendwelchen fremden Schwanzbilder schicken. LOL
Zum Thema SSD-Ausfall: 1. Weiß ich natürlich nicht, ob das nur erfundene Märchen der Mechanikplattenhersteller sind, aber SSDs fallen auch aus und das angeblich nichtmal selten. 2. Hinkt der RAID6-Vergleich natürlich total. RAID-Controllerausfälle sind doch nie so häufig, wie Ausfälle vonn SSDs. Sicher hat da jeder seine Erfahrungen, aber das halte ich für absolut falsch. Ich suche mal nach Zahlen, vlt finde ich was…
Och das ist nur eine Frage von logischem Denken.Ein Ausfall von Raidcontroller, SSD Controller oder HDD Controller ist ungefähr gleichwahrscheinlich. Daran gibt es nichts zu rütteln – das sind elektronische Bauteile mit sehr ähnlicher Charakteristik. Der Vergleich ist also genau richtig.Beschränken wir also die Problematik “Lebendauer” auf die Attribute “Flash Speicher” und “Festplattenmechanik”.Und da gibt es ein paar wesentliche Faktoren: – Eine SSD “altert” nur bei Schreibvorgängen – Eine HDD “altert” insbesondere bei Random-Seek, also bei Justage des Lese/Schreibkopfes -> Auch beim lesen.Allein das sollte ausreichen, um das Problem zu verstehen:Eine HDD, bei der STÄNDIG Daten gelesen werden – so wie das bei den Torrents die ich seede der Fall wäre – würde die HDD sozusagen 24/7 unter Vollast stehen. Bei der SSD hingegen verursacht das Lesen zumindest auf Leaking der Speicherzellen bezogen keinen Verschleiss.Von immensen Stromverbrauch (5 oder 6 Festplatten vs eine SSD) mal abgesehen.Dann die Ausfallsymptomatik: Das Wear-Leveling lässt sich auf’s Byte genau bestimmen. Bei Festplatten kann man mit SMART zwar auch defekte Sektoren und damit Festplattenabschnitte lokalisieren und ersetzen, ein mechanischer Ausfall kommt aber häufig spontan.Und da wären wir bei dem, was beim Ausfall passiert: Eine “defekte” SSD (Wear leveling hat das Limit erreicht, keine freien beschreibbaren Flash-Zellen vorhanden) lässt sich noch problemlos auslesen. Es könnten Daten gelöscht werden und die SSD mit weniger genutztem Speicher weiterverwendet werden. Eine “Umsortierung” der Daten kann Wunder bewirken, da Bereiche der SSD, die lange Zeit nur Datenlager waren nun mit häufigen Schreibvorgängen belastet werden können. Bei einer HDD, die hingegen einen Defekt in der Mechanik besitzt, ist ohne teure und langfristig andauernde Maßnahmen garkeine Datenrettung möglich. Dazu sind beschädigte Platter in Folge von sonstigen HDD Defekten nicht gerade selten.
3. Mal ein Ausfall der optimal für dich läuft: Du bist zu Hause, bemerkst den Ausfall sofort, machst eine Diagnose und merkst, die Daten auf der Platte sind nicht zu retten. Du fährst schnell zum nächsten Mediamarkt, kaufst dir eine X-beliebige Mechanische Platte, baust sie ein und sicherst dein Backup, dass kurz vorm Absturz durchgelaufen ist, zurück. Die VMs fahren alle wieder sauber hoch, alles funktioniert super. Das schaffst du nie unter 5 Stunden. Mal als Gegenbeispiel: Du bist nicht zu Hause, bemerkst den Ausfall erst nach einigen Stunden, musst dein Date absagen, um schnell noch ne Platte zu kaufen. Mist, sit schon nach 22Uhr, heute wird das wohl nichts mehr. Gleich nächsten Morgen, kaufst du sie aber, baust sie ein, wird nicht erkannt, fummelst am RAID-Controller, endlich wird sie erkannt. Du sicherst die Daten zurück doch Norton sagt kurz vor Schluss, dass die Daten inkonsistent sind. Na gut, nimmst du das andere Backup, ziehst das durch, geht. Doch irgendwie bootet der nicht richtig, du fummelst an grub umher, bis es irgendwie geht, da hat wohl Ghost ******* gebaut. Naja, endlich ist KVM oben, doch der verdammte Router lässt sich niht hochfahren. Du fummelst nochmal 2 Stunden, bis dus gefunden hast. Jetzt geht auch der Router. Das waren dann 30 Stunden voller Leid und Unglück. Die freundin ist weg und hat sich einen geholt, der nen RAID bei den Systemplatten hat, die beiden wurden glücklich bis ans Ende ihrer Tage :p 4.
Sorry, mehr Blödsinn hättest du echt nicht auf einer Seite vereinen können. Die Wahrscheinlichkeit, dass alle 3 existierenden Backups defekt sind und plötzlich alle im Haus befindlichen Festplatten defekt oder verschwunden sind ist mit Sicherheit nicht größer als die einer atomaren Katastrophe… Da müsste es schon das Haus wegspülen.Wenn ich unbedingt bei einem SSD Ausfall an das Raid müsste (zB. für das tägliche Quickbackup), so würde das der im Tresor befindliche Notfallstick erledigen. Das Problem wäre eher, dass ich nach dem Abrauchen des Servers erstmal die ganzen platten in einen anderen Rechner strecken müsste. Und da nur der von meinem Bro 6 Sata-Ports hat, wäre der dann am Meckern, weil er den Tag nicht Zocken kann. Das sollte aber das größte erreichbare Problem sein.
Würde ich mal gerne reelle Zahlen über SSDs Crashes haben. Und dann sollen die auch deutlich kleiner sein als von Platterplatten mit Business Critical Eigenschaften.Da glaube ih nciht dran, schon garnicht bei deiner extremen Nutzung der SSD als Zwischenpuffer für alles.
Dann mal ein Rechenbeispiel:Gehen wir von meiner 480GB SSD aus. Die SSD hat 10% Reserven für verbrauchte “Zellen”. Ich hätte also 528GB Speicherzellen. Jede davon kann ich (weil es billiger MLC Flash ist) nur 10.000 Mal beschreiben. Das macht also 5156,25 TB Schreibzugriffe.Sagen wir, ich generiere durch temporäres, Logdateien, Auslagerungsdateien etc. unrealistische 50GB am Tag. Dann würden die Speicherzellen der SSD bis zum Status “nicht mehr beschreibbar” schlappe 105600 Tage leben. Das wären ohne Schaltjahre knapp 290 Jahre.Ich denke, mit so einer Lebensdauer komme ich klar.Vielleicht ein praktisches Gegenbeispiel:Ich habe mir den Spaß erlaubt, auf einer SATA2 Festplatte mit 250GB seit Beginn ihres “Lebens” die gelesenen und geschriebenen Daten zu dokumentieren. Es waren insgesamt keine 20TB, die Festplatte hat “nur” 3 Jahre im Dauerbetrieb gehalten und ist danach plötzlich mit akutem Datenverlust kaputt gewesen.
Hast du so viel Erfahrungen mit Windowssystemen? Ich meinte zum Thema RHEL eigentlich nur, dass es ja auch ein einfaches Debian oder Ubuntu sein kann.
Die Erfahrungen, die ich mit Windowssystemen habe sine keine guten. Es ist langsam, Ressourcenfressend, zu nichts kompatibel und kaum erweiterbar. Kurzum: Unflexibel.Natürlich verwende ich kein “echtes” RHEL sondern Scientific Linux, welches wie CentOS binärkompatibel zu RHEL ist. Die Vorteile sind allerdings sehr ähnlich, da das gleiche Konzept v erfolgt wird. Debian oder Ubuntu (ist das nicht irgendwie das Selbe?) kann es doch gerade aus den genannten Gründen nicht sein! Wer nach einem üblichen Debian Update plötzlich den Webserver und die halben Startup-Scripts erneuern musste weiß, wovon ich rede. Debian/Ubuntu ist einfach zu kurzlebig. Für die durchschnittliche Desktop-Maschine mag das gut sein, für einen Server, der über mehrere Jahre hinweg ohne Neustart laufen soll ist das aber absolut nicht richtig.
Meine Erfahrung sagt mir, dass dein Server locker 170MBit/s handlen können wird, deswegen ist der Flaschenhals nicht der Server….:p
Unter Linux schafft man damit auch locker 1gbit/s…
Ich verstehe zwar nciht, wie du so schlecht über ESX reden kannst, aber naja, ich traue da doch eher meinen Erfahrungen und meinen Exkollegen, die damit Tag und Nacht arbeiten dürfen (auch an 1Servermaschinen), die sind ganz froh kein XEN oder KVM nutzen zu müssen.
Na dann viel Spass mit einem Webserver ohne Sicherheitslücken (also keine Windowslösung) und vielen Datenbankzugriffen ohne Paravirtualisierung (also kein XEN oder KVM) … Wenn man das bisschen Spielerei, bei dem ESX noch nicht an seine Grenzen kommt als Erfahrung bezeichnen will – bitte. Ich würde das aber nicht so nennen.Zur Erfahrung gehört es stets, alle – oder zumindest die am weitesten Verbreiteten – auf dem Markt befindlichen Systeme zu kennen.Und ESX kommt nun einmal mit freien Systemen so gut klar wie der “Führer” mit den Juden.Solange auf einem VMHost keine VMs mit wichtigen Aufgaben laufen, ist das alles kein Problem. Ich empfehle vielen Windows 7 Nutzern auch VMWare, um mal in andere Systeme reinzuschnuppern. Da kann man dann aber weder von Performance noch von Zuverlässigkeit sprechen: Das ist eine Spielerei. Es ist leicht zu bedienen und wenig angemessen.Hat eine Firma inkompetente Administratoren oder eine reine Windowsumgebung, bietet sich ESX vielleicht auch noch an. Bei einem größeren Serverpark kann ich mir aber nicht vorstellen, dass man sich für ESX und damit gegen freie Software entscheiden kann.Sicher, viele Firmen machen das. Man sieht aber sofort, wo das in sachen Sicherheit, Flexibilität und IT-Kosten hinführt.
Letzten Endes hast du recht, fällt Internet aus (egal ob jetzt wegen des Routers oder so) geht auch recht wenig. Allerdings kommt jeder im Netz noch an seine Daten, kann Drucken usw…Ich wette, der Stromverbrauch von nem Drayek mit nem kleinen AMDsystem liegt etwa gleichauf mit deinem jetzigen System, hält genauso lange und ist deutlich günstiger in der Anschaffung. Das einzige, was er nicht so gut kann, ist deine 50GB Dateien so schnell zu entpacken…Dafür kann das ganze Aber Load Balancing :p
Gleicher Stromverbrauch aber nur ein Billiardstel der Möglichkeiten? Dann noch für ein Zehntel des Preises? Da kann ich mich nicht mit anfreuden. Das ist ja wie ein Einrad mit Direkteinspritzung als Ersatz für nen aufgemotzten T3^^Wahrscheinlich würde mit dem AMD System die Performance schon wegen Truecrypt einbrechen, was bei mir hier selbst mit 740MB/s SSD Belastung keine 30% CPU Last verursacht *g*Mir fallen da auf die Schnelle mehr Sachen ein, die jeder käuflich zu erwerbende “Router” nicht kann, als ich in Euro beim Kauf sparen könnte.
Das mit den 5TB habe ich schon öfter gehört, kann mir aber absolut nicht vorstellen, mit was für (legalen) Daten man sowas erreicht.
Da ich mit der freien Bandbreite einige größere Linuxdistributionen und eine Menge CC-lizensiertes Material bei Torrent-Seeds unterstütze, ist 100%ige Auslastung des Upstreams unabhängig von sonstigen Up- und Downloads gegeben.
-
8. Juli 2011 um 14:07 Uhr #897636simfightTeilnehmer
littledevil;464594 said:
Wovon träumst Du nachts VR? :lol:Muß aber ne “besodnere” Frau sein, die wg. fehlenden RAID weg läuft :DBeide Szenarios lassen sich durch die besagte 500Gb spiegel-hdd deutlich vereinfachen. Die kann man zur not auch per esata anschließen.Die 170MBit/s sind bei großen Dateien machbar, aber bei kleinen Dateien bricht das doch stark ein. Bis auf fehlerhafte Serien/Modelle dürften die Ausfallequote lt. meiner Glaskugel sehr gering ausfallen.Die hohe Schreiblast ist da völlig egal, da die defekten Zellen aussortiert werden und man ja bei vielen Modellen den Gesundheitszustand leicht in Erfahrung bringen kann. Bis die 480GB “abgenuddelt” sind, ist die SSD eh kaum etwas wert und wurde längst ersetzt. Wenn man noch 15% Sicherheitsreserve läßt, also die alles komplett formatiert wird das im privaten Bereich “ewig” ausreichen.Da der Server permanent läuft, dürfte die Platine auch eher länger halten, da es kaum den schädlichen “Kalt-heiß” Wechsel gibtGenaugenommen hat die SSD bereits 10 Prozent Reservespeicher zu den 480GB. Wie sehr diese benutzt werden kann man (zumindest unter Linux) sehr leicht überprüfen. Ist in etwa wie mit dem “Health” Balken beim HDD-SMART. Denn auch da gibt es Reservesektoren für derartige Defekte.Zum Thema “wovon träumst du nachst”:Mal ein paar Einblicke in meine Realität.Ich habe mit meiner damaligen Freundin im Dorf bei einer Bekannten gesessen. Ein Ort unweit von Zweibrücken, mitten im Nichts. Wir waren in der Videothek, haben da eine Stunde lang Filme gesucht, nichts sagte uns zu. Dann fiel mir ein guter Film ein, der lag leider bei mir zuhause (Hannover). Ich habe dank O2 und ländlicher 7,2mbit selbigen binnen wenigen Minuten hergezaubert und alles war gut^^Jetzt ein paar Jahre in Richtung Gegenwart:Ich plane einen Heimkinoabend, frage vorher, wer welchen Film sehen möchte. Plötzlich entscheidet sich die “Meute” um, wir wollen aber in 5 Minuten anfangen. Kein Problem sage ich mir, denn 5GB in 720p habe ich in 3 Minuten geladen.Während der “Raptorianer” also noch auf seine Daten (oder das Entpacken selbiger) wartet, streame ich schon den dritten Film von meinem Server.Die Welt kann ja so schön sein.Das war übrigens auch eine Überlegung bei der “großen” SSD:Ich wollte nicht nur die HDDs schonen, ich dachte mir auch: Je größer das Laufwerk, desto weniger problematisch ist eine große Zahl an Zugriffen.Es hat sich zB immer wieder bewährt, bei USB Sticks als Bootmedium in Softwareroutern eine Nummer Größer zu nehmen.Der (uralte und billige) 1GB USB Stick hat mit dem 1GB IPFire Image nur anderthalb Jahre gehalten, ein (auch billiger) 8GB Stick hält mit dem selben Image bei einem Bekannten schon deutlich länger.Intel erzählte bei der 80GB X25 mal etwas von mindestens 5 Jahren Lebensdauer bei 20GB/tag. Die 20GB am Tag sind natürlich “ungewöhnlich hoch”, werden jedoch schnell erreicht. Allein der Minecraftserver kann so viele Chunkupdates produzieren – weshalb die Map wohlmöglich doch lieber in den Ram wandert und nur stündlich synchronisiert wird.Das ich jeden Tag mehr als 20GB lade ist also gut möglich, das ist ja nichtmal ein BluRay Film – genaugenommen wäre ein Film von 50GB im Rar-Container eine Schreiblast von 100GB (wenn nicht direkt auf die HDD entpackt wird). Das kann dann also schon etwas mehr werden.Da ich im Gehäuse auf Überdruck und einen Staubfilter beim Einsaugen der Luft geachtet habe schließe ich Schäden durch statische Überladung auch aus. Der Server steht im keller, dort sind recht konstante 80% Luftfeuchtigkeit und 15°c, der Luftstrom in den Server hält sich in Grenzen. Die CPU ist passiv gekühlt, lediglich der Abtransport warmer Luft durch die “Ritzen” im Gehäuse sorgt für Abkühlung. Konstanttemperatur im Gehäuse schon einige Tage bei 35°… Festplattentemperatur 35°, CPU Temperatur 60°, Chipsatz bei 70° (der bräuchte nen fetten Kühler^^)Im Prinzip kann den Server nur ein Produktionsfehler oder ein Blitzeinschlag “töten”. Gegen Netzüberspannung bin ich abgesichert und ohne äußere Einflüsse lebt “normale” Hardware nun einmal ewig. Das einzige was (wie gesagt) hin und wieder stirbt ist RAM. Was hingegen ständig stirbt sind Festplatten.Und daher:JA, es ist ein Märchen, dass SSDs schneller sterben als HDDs.Das stammt noch aus Zeiten von schlechten, billigen USB Sticks. Selbst billiger MLC-Flash ist mitlerweile deutlich langlebiger als eine durchschnittliche HDD.Und der Vergleich Revodrive – Consumer HDD hinkt nicht einmal!Denn eine Serverplatte wäre deutlich teurer. So sähe es aber auch bei einer “Server SSD” aus, die dann wohl aus SLC Flash bestünde und wahrscheinlich bereits ohne Raid0 ihre 700MB/s schaffen würde. Die wäre dann aber auch wieder um Längen teurer als das Revodrive… Also lassen wir Serverkomonenten mal aus dem Spiel und beschränken uns auf die Lebensdauer von Consumerplatten im Serverbetrieb.
Von einem schönen DVB-S2 Tuner träume ich auch noch =) Das wird dann bei mir aber auch vom Server digitalisiert und im Heimnetzwerk verteilt.
Nur weil es so oft falsch gesagt wird. Digitalisiert wird es vom CCD/CMOS chip. Du würdest ja wahrscheinlich nur den Digitalen MPEG2 Stream ans Endgerät weiterleiten bzw. ggf ein transcoding vornehmen
Sorry, schlechte Angewohnheiten aus dem analogen Zeitalter =) Ich meinte natürlich, dass ich den digitalen Stream weiterleite und bezog das digitalisieren nur auf das zur Verfügung stellen einer Transportplattform wie zB MythTV/Mythbuntu
-
8. Juli 2011 um 14:07 Uhr #897638littledevilTeilnehmer
Danke für die Lehrstunde am Fr-Nachmittag :respekt:
Jetzt weiß ich endlich, wie meine 2 KD Anschlüsse funktionieren.Ich nehme mal an er meine 170 MB -Megabyte
simfight;464599 said:
Meine Erfahrung sagt mir, dass dein Server locker 170MBit/s handlen können wird, deswegen ist der Flaschenhals nicht der Server….:p
Unter Linux schafft man damit auch locker 1gbit/s…
wäre sonst arg wenig :fresse:
@vr Mein Französich sit etwas eingrostet zw. nie vorhanden gewesen
Leider werden einzelne SSD-Modelle nicht getrennt betrachtet.
Die Zahlen schließen nicht aus, dass es Ausreißermodelle gibt, die besonders häufig ausfallen.
Meine Persönlichen Erfahrungen(*sehrkräftigaufholzklopf): keinerlei HDD-defekte bei Platten >500GB bei 3,5″ alle meine 3 SSDs laufen problemlos
-
8. Juli 2011 um 15:07 Uhr #897645go4hl80veTeilnehmer
wobei das revodrive in sachen ausfallsicherheit eigentlich schlecht dastehen sollte:- ein bis zwei raidcontroller, die ausfallen können- massenhaft FLASH-chips, die auch durch andere einflüsse ableben können (eine kalte lötstelle tut’s auch, es muss nicht immer abnutzung der speicherzellen sein)- firmware-updates….^^in richtung firmware-updates und fehlkonfiguration wirst du recht gut bedient sein, da beim server ja nur einmal eingerichtet wird. danach läuft die kiste halt so lang wie möglich.zu glauben, dass SSDs dennoch ewig halten, finde ich etwas voreilig. warum glaubst du, stirbt dir der RAM ab?warum betreibst du die CPU eigentlich passiv? im keller hebt es doch ohnehin niemand an, ob da ein lüfter mehr mit 1000rpm säuselt. und 60°C ist verdammt heiß (für ein stromsparsystem mit niedriger rechenlast). der haltbarkeit halber lasse ich bei mir lieber nen lüfter laufen.
-
8. Juli 2011 um 15:07 Uhr #897644VelociraptorTeilnehmer
@devil: nein ich meinte 170MBit/s, 150 Downstream, 16 Upstream macht ca 170MBit/s :p Das muss, nach meinem Kenntnisstand sein Server verarbeiten können, nun gut jetzt kommt er ja auch langsam mit der Sprache heraus, was er nochkönnen sollte. Das meinte ich mit Überdimensioniert. Für nen Downloadserver mit Telanlage brauchst du keinen SandyBridge. Virtualisierung braucht nur RAM :p
Richtig, dann kauf doch mal die SSD mit keinen Ausfällen :p Hoffentlich erwischst du die Modellreihe, die selten ausfällt, statt häufig.
Ich kann mich dem fast anschließen. Von 200MB-Platte bis 1TB-Platte ist mir einmal ne 2GB Platte total ausgefallen. Das sind jetzt also 15 und mehr Jahre geballte Plattenerfahrung :p Aber nur Privat, dienstlich, hatte ich da nicht so viel Glück, als Hardwaretechniker…
-
8. Juli 2011 um 15:07 Uhr #897647VelociraptorTeilnehmer
kauf mal samsung-platten. dann darfst du auch zu hause austauschen
bei mir sind die dinger alle ausgefallen. aufgrund defekter ersatz-platten hatte ich sogar mehr ausfaller als ursprünglich gekaufter platten1-2 jahre im normalbetrieb liefen sie aber meistens.
okok, danke für den tipp. ich hatte früher nur seagate oder wd gehabt. jetzt war mal ne toshi in meinem nobo drin. bei den ganz alten unter 4gc weiß ich nicht mehr, was ich hatte…
-
8. Juli 2011 um 15:07 Uhr #897650simfightTeilnehmer
Velociraptor;464608 said:
OK, also TrueCrypt ist dann wirklich DAS Argument, was dann nen ordentlichen Prozi braucht, das sehe selbst ich ein ;).
Naja Truecrypt ist DAS Argument, warum man AES-NI braucht *g*
Hmm, welche Aufgabe kann denn ein Draytek oder noch besser ein OpenWRT Router nicht, die du haben willst. Die sind auch recht flexibel und können Load Balancing, ohne dass man stundenlang nach ner Lösung sucht :p:p:p Ich verstehe, was du meinst, der Forscherdrang und die Flexiblität ist unübertreffbar, aber manchmal solls auch einfach nur funktionieren und das möglichst günstig.
Das scheitert eigentlich an allem.
Übermäßige Netzwerklast wenn alles über einen Router läuft (virtuelle Netzwerke sind mit >1gbit belastbar), fehlende Features…
Ich fände es etwas krass, einen Server und eine Router-Box hinzustellen^^
Denn dann würden vom Server zur Router-Box schonmal 3 Lankabel laufen, die Router-Box müsste 6Gbit Lan (oder mehr) besitzen, dazu müsste sie eine MENGE Rechenleistung für 8-Kanal PBX besitzen, 4-8 analoge Telefonanschlüsse (FXS und FXP), entsprechende VPN Unterstützung, nicht nur Load-Balancing sondern auch Traffic-Shaping (was wieder Rechenleistung kostet) und so einiges mehr.
Das Problem ist da primär die Kombination der Dienste und wie diese verbunden werden. Ich bevorzuge die Technik RAID -> VMHost -> VM -> Virtueller Datenträger (verlustfreier Direktzugriff) -> Virtuelle Netzwerkkarte -> Virtueller Switch -> Echte Lankarte -> Echter Switch -> PC.
Bei einer Lösung mit kleinem AMD System als Server und einer Router Box sähe das etwas enrviger aus: RAID -> ServerOS -> Direktzugriff auf den Datenträger -> Echte Netzwerkkarte (Server) -> Echte Netzwerkkarte (Router) -> Routing -> Echte Netzwerkkarte (Router) -> Echer Switch -> PC.
Man hätte also deutlich häufiger eine Lankarte dazwischen *G*
Dann die jetzige Trennungzwischen Green, Blue, Orange und Red – also Lan, WLAN, DMZ und WAN. Ich trenne den Webserver nicht ohne Grund vom lokalen Netzwerk, Streaming etc. geht nur im LAN, externe Clients werden stets über VPN Tunnel an Green angebunden. Das ermöglicht mir nicht nur bequem von überall, egal ob Handy oder Laptop auf mein Netzwerk zuzugreifen, es garantiert mir einiges an Sicherheit.
Selbst ein kompromittiertes Gastnetzwerk kann mir beim Zugriff auf die heimischen Daten dank VPN-Tunnel nichts anhaben.Velociraptor;464609 said:
Für nen Downloadserver mit Telanlage brauchst du keinen SandyBridge. Virtualisierung braucht nur RAM :pOh doch, den braucht man. Vor allem, wenn der Server noch so viele “Nebenaufgaben” macht.
Allein das Routing mit Traffic-Shaping und Loadbalancing schafft eine beachtliche Grundlast. Virtualisierung schafft in erster Linie Sicherheit – und zwar sowohl was den Datenschutz als auch die Ausfallsicherheit angeht. Außerdem schafft das Flexibilität.
Alle Dienste die ich benutze gibt es nicht einmal für ein einziges Betriebssystem =)Ich kann mich dem fast anschließen. Von 200MB-Platte bis 1TB-Platte ist mir einmal ne 2GB Platte total ausgefallen. Das sind jetzt also 15 und mehr Jahre geballte Plattenerfahrung :p Aber nur Privat, dienstlich, hatte ich da nicht so viel Glück, als Hardwaretechniker…
Also ich habe da deutlich mehr an Ausfällen zu verzeichnen, allerdings nur mit 10 Jahren Erfahrung. Dafür hatte ich selbst stets einige Festplatten im Betrieb *G*
Ausgefallen ist bisher so gut wie jede irgendwann.go4hl80ve;464610 said:
wobei das revodrive in sachen ausfallsicherheit eigentlich schlecht dastehen sollte:
– ein bis zwei raidcontroller, die ausfallen können
– massenhaft FLASH-chips, die auch durch andere einflüsse ableben können (eine kalte lötstelle tut’s auch, es muss nicht immer abnutzung der speicherzellen sein)
– firmware-updates….^^in richtung firmware-updates und fehlkonfiguration wirst du recht gut bedient sein, da beim server ja nur einmal eingerichtet wird. danach läuft die kiste halt so lang wie möglich.
zu glauben, dass SSDs dennoch ewig halten, finde ich etwas voreilig.Kalte Lötstellen an den Flash-Chips hätte ich gesehen^^
Das RevoDrive ist ja nun relativ offen zugänglich *g*
Faktisch ist ohne mechanische Zerstörung nicht von einem außergewöhnlichem Defekt auszugehen.
Die SSD hält garantiert länger als eine Festplatte.
Der einfache Grund: Es ist im Prinzip eine Festplatte – ohne den Nachteil der mechanischen Anfälligkeit. Die Lebensdauer des MLC-Flash Speichers ist so immens, dass niemand sie bei normalem Betrieb in einem durchschnittlichen Serverleben erreichen könnte.warum glaubst du, stirbt dir der RAM ab?
Billige Speicherzellen und Verschleiß. Ram unterliegt den selben Problemen wie eine übertaktete CPU: Mit der Zeit zerstört der ständige Stromdurchfluss die winzigen Kondensatoren. Irgendwann ist Schicht im Schacht, es gibt Pagefaults. Das hatte ich schon sehr, sehr häufig – immer nur bei Rechnern mit hoher Laufzeit.
warum betreibst du die CPU eigentlich passiv? im keller hebt es doch ohnehin niemand an, ob da ein lüfter mehr mit 1000rpm säuselt. und 60°C ist verdammt heiß (für ein stromsparsystem mit niedriger rechenlast). der haltbarkeit halber lasse ich bei mir lieber nen lüfter laufen.
Ein Lüfter kostet Strom, die 60° sind natürlich im Volllastbetrieb gemessen und warum die Luft im Gehäuse umherwirbeln? Ich bin so dreist zu behaupten, dass der Unterschied zwischen 20 und 60° Betriebstemperatur bei einer CPU nicht mal ein Tag Lebensdauer sein wird.
Sobald ich Zeit finde, mich um das Undervolting zu kümmern wird es wahrscheinlich noch kälter.Allgemein zu Festplattenausfällen:
Man sollte mich echt lieber fragen, welche HDD noch nicht ausgefallen ist.
Eine fast neu 240GB WD Scorpio Blue (IDE), diverse fast neue 640GB SATA Samsung Notebookplatten, unzählige IBM “Deathstar” Platten, Maxtor und Seagate mit je 200GB (IDE), dann eine 250GB SATA Platte (Samsung), 2 500GB SATA Platten (Samsung), bei einem Bekannten 5 750GB Seagate Platten (Firmwarefehler, Raid an einem Tag erledigt, ich hatte ihm geraten unterschiedliche Platten zu kaufen), dann eine 1,5TB WD “Datenplatte”, die nach einem Jahr Dauerbetrieb gestorben ist…
Alles in Allem hat keine Platte mehr als 2-4 Jahre überlebt.
Die alten Platten haben wohl nur länger gelebt, weil ich bis 2004 noch deutlich festplattenschonender war *G* -
8. Juli 2011 um 15:07 Uhr #897651VelociraptorTeilnehmer
deswegen nutzt man fürs raid auch keine 2 gleichen platten 😀 wenn man sone rattenserie hat, sind schnell mal 2 platten kaputt und dann hilft auch kein (einfaches) raid mehr.
Ich möchte keinen E350 mit 8GB un mehreren Systemen erleben
hehe, den tausche ich gerne gegen meinen scenic d :p das ist ja eine esxivariante von mir, ich denke selbst mit win 2003 (vlt sogar 2008) laufen da 3 maschinen ganz vernünftig drauf, die haben ja kaum last…
wie istn das bei ssds? ich dachte immer, da sind fw-updates sinnvoll weil höhere geschwindigkeiten.
na gut, das ssd-thema ist denke ich hier auch durch. der server ist ne schöne aufgabe, mich interessieren die leistungswerte und der durchschnittliche verbrauch.
-
8. Juli 2011 um 15:07 Uhr #897646go4hl80veTeilnehmer
Velociraptor;464609 said:
Ich kann mich dem fast anschließen. Von 200MB-Platte bis 1TB-Platte ist mir einmal ne 2GB Platte total ausgefallen. Das sind jetzt also 15 und mehr Jahre geballte Plattenerfahrung :p Aber nur Privat, dienstlich, hatte ich da nicht so viel Glück, als Hardwaretechniker…kauf mal samsung-platten. dann darfst du auch zu hause austauschen 😉
bei mir sind die dinger alle ausgefallen. aufgrund defekter ersatz-platten hatte ich sogar mehr ausfaller als ursprünglich gekaufter platten^^1-2 jahre im normalbetrieb liefen sie aber meistens.
-
8. Juli 2011 um 15:07 Uhr #897643VelociraptorTeilnehmer
Hallo,
genau deswegen habe ich ja gesagt, dass ich nicht weiß, wieviele Kanäle KD für den Upload benutzt. Nimm doch einfach mal deine Zahlen, die du genannt hast. 1,7MBit bei 1000 Haushalten. Bedeutet also, dass alle Haushalte Tag und Nacht mit voller Bandbreite arbeiten müssten, passiert das nicht, was ja in der Praxis der Fall ist, dann steigt die Rate umso mehr. Und selbst wenn man dann nur sehr langsames Internet vom Kabel hat, kann man dann gerne auf DSL umsteiegen und mit BIS zu 6MBit/s surfen. Jede Technik hat ihre Schwächen, egal ob nun SDSL, VDSL, Kabel oder LTE, die Probleme sind die gleichen unterscheiden sich eben nur die Gründe.
Zur SSD scheiden sich die Geister. Nein eigentlich garnicht, ich will ja auch eine haben, wenns preislich mal besser läuft. Trotzdem setzt du einen RAID-Verbund HDDs mit einer SSD beim Thema Ausfallsicherheit gleich. Lies dir mal meinen Link durch, die häufen sich im Internet. Die Ausfallsicherheit ist sicher bei den HighEnd SSDs besser als bei HighEnd HDD, aber kommt doch nie an einen RAID-Verbund ran. Ich verstehe deinen theoretischen Einwand auch absolut. Allerdings sieht das praktisch eben scheinbar doch anders aus. Wenn selbst Notebookhersteller sagen, dass die Rückläufer von SSDs höher sind als die von HDDs, dann scheint was nicht hinzuhauen. Und das wird sicher nicht sein, weil 5% Speicherplatz fehlt, weil einzelne Zellen hin sind. In der Praxis ist die SSD in den Kinderschuhen und die HDD schon sehr weit entwickelt, da ist es normal dass die Kinderkrankheiten ausgemistet werden müssen. Langzeittests und co gibt es noch garnicht, Fehler müssen gefunden werden. Eine SSD ersetzt kein RAID! Darauf wollte ich hinaus.
Vorbildlich von dir, dass du dein Backup im Safe aufbewahrst 😉 Interessiert mich aber mal, wie du die 480GB der SSD sicherst. Ich nehme an Magnetplatten?Meine Beispiele waren mal 2 relative Extreme für gut oder ganz schlecht. Jeder weiß doch, was passiert, wenns wirklich kommt. Dann funktioniert eben meist nicht alles ordentlich. Und dann dauerts länger. Ich halte 1Tag Wiederherstellzeit der kaputten SSD für recht realistisch, wenn man bedenkt, dass du nicht immer zu Hause bist usw…
Ich kenne jetzt deine Praxisrelevanten Erfahrungen von Windows, ich kenne sie nur bei Mittelständischen Unternehmen und habe da nie die großen Stabiprobleme, wenn das System mal ordentlich installiert ist. Bei den anderen Sachen gehe ich mit. Aber hey, jedes OS hat Vor- und Nachteile.
Ich kenne das Problem mit dem Update auf Ubuntu 🙂 Auf einmal lief der Samba nicht mehr 😉 Zum Glück nur bei mir zu Hause. Aber gerade zu Hause sehe ich nicht die wichtigen Gründe, warum du immer auf dem neusten Updatestand sein musst. Zu Hause reicht mir deswegen auch nen Stinknormaler Ubuntuserver.Nochmal zu meinen VIrtualisierungskenntnissen: Die sind rudimentär. Ich habe ein wenig mit ESXi rumgefummelt und mit Xen. Das sagte ich ja. Ich beziehe mich ja nur auf die Meinung meiner Kollegen, die damit täglich Arbeiten und sowas einrichten.
Und wer klar Markführer ist, hat sicherlich auch nen bissl was zu bieten. Auch wenn Unternehmen gerne Geld herauswerfen. Es hat seinen Grund, warum Unternehmen 5- und 6-stellige Beträge nur für die VMWare Lizenzen ausgeben.Hmm, welche Aufgabe kann denn ein Draytek oder noch besser ein OpenWRT Router nicht, die du haben willst. Die sind auch recht flexibel und können Load Balancing, ohne dass man stundenlang nach ner Lösung sucht :p:p:p Ich verstehe, was du meinst, der Forscherdrang und die Flexiblität ist unübertreffbar, aber manchmal solls auch einfach nur funktionieren und das möglichst günstig.
OK, also TrueCrypt ist dann wirklich DAS Argument, was dann nen ordentlichen Prozi braucht, das sehe selbst ich ein ;).
-
8. Juli 2011 um 15:07 Uhr #897648littledevilTeilnehmer
120er WD sind bei mir massig verreckt. Die kleineren modelle mit 60,80,100 aus der gleichen Serie halten teilweise heute noch.
aufgrund defekter ersatz-platten hatte ich sogar mehr ausfaller als ursprünglich gekaufter platten
😆
Ausfallquote von 150% :fresse:Wer ständig mit irgendwelche >Firmwares rummachen muß, ist selbst schuld. meine SSDs sind alle im orig. zustand :d:
Ach das mit den 170MBit/s hatte ich auf das RAID bezogen 😆
aufgrund defekter ersatz-platten hatte ich sogar mehr ausfaller als ursprünglich gekaufter platten
Virtualisierung braucht nur RAM
Ich möchte keinen E350 mit 8GB un mehreren Systemen erleben 😀
-
8. Juli 2011 um 16:07 Uhr #897655VelociraptorTeilnehmer
simfight;464615 said:
Naja Truecrypt ist DAS Argument, warum man AES-NI braucht *g*
Das hatte ich überlesen, bzw jetzt wo du es sagst, kommts mir wieder bekannt vor. Dass du auch immer so viel schreiben musst :p
Und nochmal: mit Router meine ich das NATing zwischen Internet und Netzwerk.
Was du dann dahinter machst, hat damit doch garnichts zu tun. Ob du nun ein virtuelles BSD als Router nutzt oder irgend ne Box, sit doch beim NATen total Latte. Du kannst auch mit nem AMD virtualisieren.
Ob du deinen Server in ne DMZ stellst oder gleich im LAN spielt bei dem Fakt Router im Server oder extra eher weniger ne Rolle. Bei einigen Routern kannst du auch extra Gäste-WLANs machen, das wäre doch Ideal. Heutzutage ist mit den Boxen ne Menge möglich. Ist dir das GBit LAn vom Router zu langsam, nimmst du nen Switch, ich verstehe da nicht wirklich dein Problem :psimfight;464615 said:
Oh doch, den braucht man. Vor allem, wenn der Server noch so viele “Nebenaufgaben” macht.
Allein das Routing mit Traffic-Shaping und Loadbalancing schafft eine beachtliche Grundlast. Virtualisierung schafft in erster Linie Sicherheit – und zwar sowohl was den Datenschutz als auch die Ausfallsicherheit angeht. Außerdem schafft das Flexibilität.
Alle Dienste die ich benutze gibt es nicht einmal für ein einziges Betriebssystem =)Ich trau mir mal zu sagen, dass selbst der öfter genannte E350 deine Aufgaben schaffen würde (Bis auf TrueCrypt und wenn RAID vom Controller gemacht wird). Läuft nen Windows drauf, wirds evtl nichts, aber normale Kopierarbeiten und geroute schafft selbst so eine kleine Box :p
Na gut, mach dein Ding ohne RAID, Murphy wird dich schon ereilen :p. Irgendwoher müssen die Ausfälle der SSDs ja kommen. WEnn selbst Intel 0,6% Hatte und damit vlt 3mal weniger als normale HDD Hersteller, dann hat das schon seinen Grund. Lernen durch Schmerzen 😀
Da muss ich zugeben, dass meine Platten nur im Nobo durch mechanische Schläge stark belastet wird, ansonsten, machen und machten die eher weniger. Esel und co war nie mein DIng.
-
8. Juli 2011 um 23:07 Uhr #897681littledevilTeilnehmer
Velociraptor;464616 said:
wie istn das bei ssds? ich dachte immer, da sind fw-updates sinnvoll weil höhere geschwindigkeiten.Tja, aber womit erkauft man sich das bischen benchmarkaugepeppel?
Ich denke mal, das es allerhand “fehlerhaft” SXSD geben wird, wo der User nicht gnaz unschuldig war…:+“Deathstar” hatte ich genau eine – Ausfallquote 100% 🙄
Ich bin so dreist zu behaupten, dass der Unterschied zwischen 20 und 60° Betriebstemperatur bei einer CPU nicht mal ein Tag Lebensdauer sein wird.
Aber der mehrverbrauch durch höhere Temp. wird höher sien, als der verbrauch eines sparsamen langsma drehenden Lüfters… :devil:
-
22. September 2011 um 14:09 Uhr #902779simfightTeilnehmer
Weil es so lustig ist:Habe mir ein schönes Gehäuse und das hier empfohlene Netzteil gegönnt, dazu habe ich den Unterschied zwischen WD20EARS und WD20EARX gefunden: Sata2 vs Sata3 =) (eine Sechste Festplatte wurde angeschafft)Allerdings:Das Mainboard von Intel (Q67) hatte eine Macke, hat dann den i5 2500T und alle 5 Festplatten getötet… Nur der Ram lebt noch…Daher Umstieg auf Asus P8B WS und E3-1260L.So langsam nervt mich das – erst ständige Abstürze, dann entgültiger Defekt…Jetzt dauert es wahrscheinlich eine Ewigkeit, bis die Platten getauscht sind…
-
23. September 2011 um 8:09 Uhr #902803littledevilTeilnehmer
Bei sata3 ist die dann bestimmt 0,1 % schneller 😆
Ui, das ist ja heftig. Was hatte das Baord denn, das die Hdds sterben?
Bin mal auf den VErbrauch vom P8B gespannt [-o<
-
23. September 2011 um 9:09 Uhr #902804IwanTeilnehmer
Wie sieht denn dein Backup-Konzept genau aus?Ich lese da nur was von wöchentlichen Ghost-Backups der SSD oder ich habe etwas übersehen.
-
23. September 2011 um 10:09 Uhr #902808littledevilTeilnehmer
Die wichtigen Daten sind bei mir nicht mehr als 30GB.
Über eine automatische gut verschlüsselte Netzspiegelung habe ich auch schon nach gedacht. Da würden auch 2GB genügen und wenn das 1x pro tag differenziell läuft, gibt es kaum noch ein Risiko.
-
23. September 2011 um 10:09 Uhr #902805simfightTeilnehmer
Iwan;470319 said:
Wie sieht denn dein Backup-Konzept genau aus?Ich lese da nur was von wöchentlichen Ghost-Backups der SSD oder ich habe etwas übersehen.Naja die wichtigsten Daten sind auf der SSD, sind ja nicht so viele.Die werden bei niedriger Last min. 1x täglich auf das Raid kopiert (einfaches Backup), der gesamte SSD Inhalt und 1,5TB weitere “auserwählte” Daten vom 10TB Raid dazu werden zudem einmal die Woche auf eine 2TB Platte gesichert, die SSD als Ghost-Backup. Eine einfache 1TB Festplatte liegt bereit, um das Backup im Falle eines SSD Defektes einzuspielen und den eingeschränkten Betrieb zu sichern. Habe 2 USB3 1TB Platten, die immer abwechselnd für Backups benutzt werden. Wenn eine beim Backup stirbt (Blitzeinschlag, böses Mainboard, kp) ist die andere immer noch am Leben.Ich denke noch darüber nach, zumindest die wichtigsten Daten (rund 2GB Dokumente) im Internet zu deponieren (zB auf dem Server eines Bekannten), damit ich auch eine externe Absicherung habe, falls ich mal kein manuelles Backup machen kann.Also genug Sicherheit.Die 10TB bekommen kein extra Backup, das ist jetzt das erste Mal das mir so viele Platten auf einmal sterben und da war definitiv ein anderes Teil schuld.Sooo wichtig sind die Daten auch nicht, Ausfallabsicherung gegen eine Festplatte muss reichen. 10TB Backupsystem wäre zu teuer und im schlimmsten Fall wird das Backupsystem auch noch gegrillt, während das Raid stirbt – also wenig sinnvoll.Mit meinen schlappen 16mbit Upstream ist es ohnehin nicht sinnvoll, 10TB “nach außen” zu synchronisieren, gegen Brände und Netzüberspannung bin ich abgesichert… Die einzige Gefahr ist wirklich, dass bei einem Blitzeinschlag etwas passiert oder das irgendwas im Server alle Festplatten auf einmal tötet, das ist unwahrscheinlich genug um bei unwichtigen Daten auf eine Sicherung zu verzichten.Solange ich vom Mailserver, Webserver, Asterisk, Datenbank, Musik und so weiter anständige Backups habe ist das ausreichend.Ich behaupte, dass ist mehr als 99,99% aller Privathaushalte für die Absicherung tun.Meine Daten vom Notebook werden mit dem Server synchronisiert, sodass Uni Sachen auch abgesichert sind.Habe mal drei Tage am Stück an meiner Facharbeit gesessen und dann crashte die Festplatte, eine extra Sicherung hatte ich noch nicht – das passiert mir nie wieder.
-
23. September 2011 um 15:09 Uhr #902827simfightTeilnehmer
Man muss bei den Daten halt schauen, wo man Prioritäten sitzt.
Finanzielles (Firmendaten), Steuerkram und Unisachen sind das Wichtigste, dazu Scans aller Rechnungen und so was sich hier ansammelt, damit man bei einem Brand auf der sicheren Seite ist auch wenn der Ordner mit wegkommt…
Das sind zusammen vll. 2GB…Dann kommen Bilder und Videos die mir wichtig sind, vll 500GB…
Und so ein paar andere Sachen =)
Die Filmesammlung, Software und was sonst noch so auf dem Raid liegt, darf ruhig sterben, wenn der unwahrscheinliche Fall eintritt, dass etwas verschwindet.
Wenn ich überlege, dass die meisten ihre wichtigsten Daten nichtmal auf nem USB Stick “sichern” wird mir ganz schlecht…
Das einzige, wovor es mich graust ist, dass alle 5 (so viele sind es mitlerweile) USB Sticks mit dem Schlüssel für die Daten verloren gehen *G*
-
23. September 2011 um 17:09 Uhr #902836littledevilTeilnehmer
Dann kann man sich die verschlüsselung gleich sparen 😀
-
23. September 2011 um 17:09 Uhr #902832loonyTeilnehmer
Du sicherst die Schlüssel auf USB Sticks? 😡
Na Prost Mahlzeit, diese Teile gehören aber wenn denn auf jeden Fall in einen Safe, oder? -
23. September 2011 um 17:09 Uhr #902837loonyTeilnehmer
littledevil;470354 said:
Dann kann man sich die verschlüsselung gleich sparen 😀Ja, ausser er speichert den Safecode auf einem Stick, der dann in einem Schliessfach auf dem Bahnhof deponiert wird :).
-
23. September 2011 um 23:09 Uhr #902851littledevilTeilnehmer
Wo er dann praktischerweise gleich um die Ecke wohnt, um den bei jem Zugriff zu holen O:-):fresse:
-
13. November 2011 um 0:11 Uhr #905663MalkavienTeilnehmer
Ich baue auch gerade einen Server auf Basis dieser CPU. Ich habe nur 4TB, aber dafür nochmal 4TB extern, als Backup.Die Backup-Platten liegen in einem Sentry-Safe: http://www.sentrysafe.com/Products/175/KS2100_KEEPSAFE_Fire_Chest
– VDSL 50/10 mit ISDN- Kabelinternet 100/6 mit analogem Telefon
DAS ist echt dekadent=)
-
25. November 2011 um 5:11 Uhr #906787mauorrizzeTeilnehmer
Finde so ein eierlegende-Wollmichsau-Projekt auch sehr spannend.Mein Athlon II X4 dient als File-Server (Linux-Raid5 aus WD Greens), TV und Mediaserver (TVheadend, XBMC), Test-Webserver und manchmal Router für VPN-Verbindungen. Aber gerade was den HTPC-Teil angeht bekommt er langsam kleine Macken (5.1-Digitalaudio stockt, onboard-GPU zu schwach für die immer besser gewordene GPU-Beschleunigung unter Linux) und vt-d reizt mich schon lange. Daher war die Überlegung mit Sandy Bridge und Q67 was schönes zu basteln, aber einerseits ist die Auswahl nicht so groß und der virtuelle HTPC-Gast soll am liebsten Windows sein, der exklusiven Zugriff auf Grafik- und Soundkarte erhält, am besten onboard. Das ist dann aber doch noch etwas utopisch, ich käme wohl um ein XEON-Setup mit dedizierter Grafikkarte für den Gast nicht herum, dann war’s das aber mit Stromsparen.Daher mein Ausweichplan: erstmal einen minimalen Fusion oder Sandy-HTPC bauen (TV-Karte bleibt im Server) mit Windows drauf und später dann den Server auf ein ebenfalls einfaches Intel-vt-d-System aufrüsten – in dem Fall müsste mir ein Desktop-Board der Q-Serie langen.Frage wegen Virtualisierung und ZFS: was haltet ihr von einem FreeBSD/Solaris-Klon als Gast (Host egal welches Linux, ob mit Xen oder KVM), der den onboard SATA Controller durchgereicht bekommt um darauf ein stabiles ZFS Raid laufen zu lassen? System-SSD würde dann ein RevoDrive werden – danke an den Threadersteller für die Idee ;).Aber würde man die (Stabilitäts-)Vorteile von ZFS durch die Virtualisierung wieder gefährden? Ich finde ZFS interessant und zudem habe ich letztens 1 Woche (unwichtige) Daten verloren, als mein Server im laufenden Betrieb abgestürzt ist, beim Neustart das Linux Raid inkonsistent war und nach Reparatur ext4 mal eben alle oder viele Änderungen der letzten Woche verworfen hat. (Vielleicht hätte man das retten können, aber wie gesagt, war nicht soo wichtig, die wichtigen Daten werden hin und wieder auf externe Platten kopiert)Oder müsste ich dann auf einen UNIX-Host setzen der dann Einschränkungen bei der Virtualisierung mitbringt? Allerdings ist -theoretisch- mit dem ausgelagerten HTPC der VM-Bedarf nicht mehr so hoch (Router, Test-Webserver, ?). Ist dann mehr so ein “weil’s geht”-Ding ;-)Bin auf Meinungen und Updates gespannt.Ach ja, auf DIE Internetanbindung bin ich mit meinem 3000er Dorf-DSL auch ein ganz kleines bisschen neidisch.
-
25. November 2011 um 9:11 Uhr #906801simfightTeilnehmer
Also HIER läuft alles unter Linux…
Einfach deswegen, weil Windows nur Probleme macht =)
Der HTPC fürs Wohnzimmer ist verworfen, da der Fernseher DLNA packt und unser aktueller Mediaserver auch upnp-fähig ist.
Grundsätzlich würde ich immer empfehlen, Server und HTPC zu trennen und auf ein Client-Server Modell wie MythTV zu setzen – MythTV hat den Nachteil, dass der Client gar nicht mehr geht, wenn der Server down ist…
Als HTPC reicht dann unter Linux ein Atom mit ION, auf AMD würde ich wg. Treiberproblematik lieber verzichten.Die Server-GPU kann leider unter Linux nicht wirklich genutzt werden – das könnte nur der Host und da geht mir Sicherheit doch vor. Bei der Leistung meines E3-1260l halte ich das jedoch für unnötig.
Zum ZFS:
Copy-on-Write ist sehr interessant, ich empfehle dazu, dir mal btrfs anzusehen.
Wir haben uns jedoch dagegen und für ext4 entschieden, da dies bereits ein Reperaturtool mitbringt und Datenverluste unwahrscheinlich sind.
Die Stabilität sehe ich durch die Virtualisierung nicht gefährdet. Wir setzen eigentlich ausschliesslich auf NFS (also Server-interner Traffic) und das Ganze läuft über VirtIO Treiber mit gebenchmarkten 8GB/s… (100% CPU Last)
Das Raid kommt aber wie bekannt ist nur auf <600MB/s, die SSD macht auch nur 720MB/s und somit haben wir maximal 25% CPU-Last durch virtuellen Netzwerktraffic (Theoretisch).
Selbst Truecrypt würde parallel dazu noch funktionieren (mehrere GB/s AES...)Ich empfehle allerdings dringenst, eine einzelne VM einzusetzen, die NUR storage zur Verfügung stellt - also alle Daten, die von mehreren VMs oder externen Rechnern genutzt werden gehören auf diese VM.
NFS ist schnell und einfach Traumhaft wenn man unter Linux arbeitet - Windows kann man damit aber vergessen. Mir sind aber ehrlich gesagt meine 100MB/s mit NFS im gigabit Lan deutlich lieber als die 15MB/s mit Samba...Also:
Ich habe keine ZFS Erfahrung und halte ein solches System für ein "Datengrab" für schlichtweg "überdimensioniert" - man hat nicht so dermaßen viele sich verändernde Dateien. Die Vorteile von ZFS zeigen sich also gar nicht. Dafür hat man mit einem System zu tun, das einem u.U. (wie bei mir) Fremd ist - und Fehlkonfigurationen sind die Ursache für Abstürze und Instabilitäten, keine fehlerhafte Software oder Virtualisierung.
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.