Die Berkeley Open Infrastructure for Network Computing (BONIC) ist eine Software-Plattform für verteiltes Rechnen.Die BOINC-Plattform wird an der Universität Berkeley entwickelt und ermöglicht es, vielen tausend Computern über das Internet oder Intranet verfügbar zu machen. Dies geschieht in Form von Projekten, die meist gemeinnützig arbeiten und von Universitäten oder anderen Institutionen betreut werden.
Der Super-Boinc-Rechner mit 16 Grafikkarten?
- Dieses Thema hat 613 Antworten und 41 Teilnehmer, und wurde zuletzt aktualisiert vor 6 Jahren, 8 Monaten von Neron.
-
AutorBeiträge
-
-
13. November 2012 um 17:11 Uhr #929271
-
13. November 2012 um 17:11 Uhr #929268RenovatioTeilnehmer
Hey,eine sehr geile Idee. Mit dem runden Gehäuse machen wir alles richtig und bietet sicherlich dann auch genug Platz. Schön das auch die Beiträge im Forum sowie der Gruppe einbezogen wurde und das daraus was gemacht wurde. An welche Boards mit CPUs denkt ihr für die Grafikkarte einzusetzen?Andre
-
13. November 2012 um 17:11 Uhr #929269konfettiTeilnehmer
hm, das erinnert mich ja irgendwie an die Cray-1Wo soll der dann stehen?
-
13. November 2012 um 17:11 Uhr #498901ulvTeilnehmer
Nachdem unsere CPU Version mit 84 Kernen mittlerweile schon über 1 Jahr läuft wird es langsam Zeit über die Grafikkarten-Version nachzudenken:
phil68 und ich haben mal ein wenig rumgesponnen wie ein würdiger Nachfolger aussehen könnte:
Ein rundes Gehäuse mit
4 x ITX
4 x PCIe Splitter
16 x GT640 alles an
1 x Netzteil mit einem
600er Lüfter
Das Bild war leider zu groß für den Scanner – es geht natürlich rund rum weiter.PS: Die Splitter sind schon erprobt und bremsen BOINC nicht aus.
-
13. November 2012 um 17:11 Uhr #929270KiroTeilnehmer
die Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀
-
13. November 2012 um 18:11 Uhr #929273ischTeilnehmer
GPUs sollten schon SingleSlot sein.Bei den CPUs kann ja ja nur so was wie der i7 3770 oder Xeon E3-1245V2 oder Xeon E3-1240V2Und der Splitter bremst das ganze nicht aus?Der muss ja ständig 4 Karten mit Daten versorgen.Für welche Projekte soll der dann laufen?
-
13. November 2012 um 19:11 Uhr #929275ulvTeilnehmer
Ist ja nur ein Entwurf.Jemand eine Idee wie wir das mechanisch überhaupt lösen können?Das muss ja möglichst einfach zu fertigen sein. Aber dennoch stabil genug.
-
13. November 2012 um 19:11 Uhr #929277schannallTeilnehmer
Hmm. Fräsen würde ich sagen. Aus einem Stück. Wenn ihr Irgendwo ein Riesen Alu/Metallblock rumliegen habt. Ansonsten Kirschholz o.ä. mit vielen Schrauben..Aber EIN Netzteil für 16 GraKas? Wird eng :)sC
-
13. November 2012 um 19:11 Uhr #929278ischTeilnehmer
Wenn ich am WE etwas Zeit habe mache ich mal ein paar Zeichnungen mit Sketchup.Macht es denn nicht mehr Sinn die Karten so wie die ITX zu Platzieren?Also vor jeden ITX 4 Karten.Dann sind zwar die ecken leer aber so sollte sich das besser kühlen lassen.
-
13. November 2012 um 20:11 Uhr #929280phil68Teilnehmer
@ulvGenau so hatte ich mir das auch vorgestellt 🙂 Ich würde nur die Grakas parallel zum ITX verbauen. Graka würde ich diese nehmen: http://geizhals.de/794563… CPU siehe isch :d:
Aber EIN Netzteil für 16 GraKas? Wird eng
Die GT 640 verbraucht optimiert ca. 30W, sodass die Kiste ca. 700W(grob geschätzt)[eher weniger] verbrauchen wird.
Für welche Projekte soll der dann laufen?
POEM wäre natürlich in Bezug auf Credits der Hammer… zumal das ein Projekt ist, welches ich mehr als unterstützenswert halte. Das wären dann für den Rechner etwa 5-6Mio/Tag… selbst bei PG schmeißen die Karten immernoch ca. 1,8Mio/Tag… und wir hätten immernoch 16 Kerne für CPU Projekte :DGrüße Dirk
-
13. November 2012 um 20:11 Uhr #929285ischTeilnehmer
Dei ATi7750 sind mit den neuen Beta Treibern auch nicht zu verachten.Sollten von der c/W Performens her noch besser sein als die 640 aber brauchen halt etwas mehr.
Wenn WCG zu ende ist werde ich mal testen was da so geht 🙂
-
13. November 2012 um 21:11 Uhr #929289GillianTeilnehmer
Die Idee finde ich super…Bitte nicht gleich auf mich einschlagen, aber wenn je CPU vier Kerne eh für die GraKa’s ‘rechnen’ müssen, wäre dann nicht die Bulldozer Architektur auch interessant für uns? Preislich ja auf jeden Fall, oder wegen der TDP eher nicht?GrußGunnar
-
13. November 2012 um 21:11 Uhr #929288ulvTeilnehmer
Hübsch wäre es schon, aber ……. ich hab mal eben nochmal nach ATX mit >= 4 PCIe geschaut:MB 100€ + CPU 30€Das kostet ja nicht mal die Hälfte vom Splitter alleine! :roll:4 solche und ein Lüfter und alles wäre sofort gut.Und weil die GT640 keinen Strom-Stecker hat wäre nicht ein einziges Kabel nötig.Was meint Ihr? Wie viel darf das Design kosten?
-
13. November 2012 um 22:11 Uhr #929292ischTeilnehmer
@ ULV die CPU kannst vergessen.Bei 4 GPU braust 8 Kerne/Threads mit mindesten 3,3GHz sonst verhungern dir die GPUs.Die neuen Graka Projekte brauch leider teils viel CPU um die WU zu berechnen.@Gillian Die Bulldozer verbrauch leider viel zu viel.Das kannst fast 2 i7 betreiben.
-
13. November 2012 um 22:11 Uhr #929298ischTeilnehmer
Eine Karte braucht ca 30W sind also 120W:Ist sogar noch weniger als eine von deinen ATIs.DOPPELTE GENAUIGKEIT wird ja nur für einige wenige Projekte gebraucht.
-
13. November 2012 um 22:11 Uhr #929297VTG01Teilnehmer
Die Idee finde ich gut, dennoch gilt es von Beginn an zu bedenken:
– Wie versorge ich die Grakas mit Strom – vom Board her wird das nichts werden mit so vieln GRAKAS, auch wenn die nur wenig Watt haben.
– Ich wurde eine Art von “Rack” vorschlagen, die man teilen kann und auf verschiedenen Standorten betreiben kann. Ich halte es für problematisch eine weitere Maschine mit 700W im Dauerbetrieb zu finanzieren. z.B. 4 Gehäuse mit je 4 Karten, die über LAN koppelbar und als 1 Rechner zu betreiben sind. (Betriebskosten /4, bzw. Energieeinsparung durch trennen von Gehäusen) Auch Kühlung und Bastelarbeit sollten sich dadurch in Grenzen halten ….
– Grundsätzlich stellt sich die Frage in wie weit die DOPPELTE GENAUIGKEIT bei Berechnungen eine Rolle spielt oder nicht. Meine 5 Garkas rechnen in 3 Rechnern (seit gestern Abend) und alle für doppelte Genauigkeit ausgelegt.
– Im gegensatz zu Prozessoren stelle ich mir den Aufwand für Kühlung deutlich schwieriger vor wenn man leistungsstarke Karten hat. Die Karten strahlen auch auf der “Rückseite” ordentlich Wärme ab, was dazu führt das der “Hintermann” deutlich mehr Aufwand für Kühlung hat. Ich rege an auf Querlüftung – also im rechten Winkel zu den Karten – die Hauptlüftung zu machen. In wie weit das Kabelgewirr und die Switche hier den Luftstrom hindern gilt es zu prüfen.
-
14. November 2012 um 8:11 Uhr #929301Obi WanAdministrator
warum wollte ihr diese Graka nehmmen -> GeForce GT 640 ?hat das einen Grund ?
-
14. November 2012 um 9:11 Uhr #929303Sc0rpTeilnehmer
Re,
Kiro;499028 said:
die Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀Wie kommst du darauf?GTX460 = 907 GFlops SP und 75,6 GFlops DP (bei 160W)GT640 = 691,2 GFlops SP und 28,8 GFlops DP (bei 34W)Also die GTX460 (Werte hier ohne OC) schlägt bei der reinen Rechnenleistung die GT640. Allerdings sieht das bei Performance/Watt natürlich wesentlich besser für die GT640 aus, aber das erwartet man ja auch von einem zwei Generationen besseren Chip, oder?Den runden PC finde ich mal richtig innovativ – allerdings erzeugt das auch heftige Probleme, besonders beim Betreiben / Aufstellen. Bauen ist nicht das Problem (wenn mal kurz drüber nachdenkt was für Profis hier im Forum unterwegs sind *auf die DKM schiel*). 700W ist auch super für so ‘ne Maschine, hört sich für mich alles sehr stimmig an.Wenn man die GraKa’s parallel setzt, könnte man auch ein PICMG-Gehäuse (19 Zoll) nutzen, die haben auf der Rückseite mehr Slotbleche – und die ITX-Boards würden bequem übereinander passen (mit popeligen Abstandsbolzen ;)).Oder man nimmt dieses hier, und moddet die Rückwand (mehr Slots) und baut in die Front zwei 140er (160er) Lüfter …Sc0rp
-
14. November 2012 um 16:11 Uhr #929307littledevilTeilnehmer
ITX + Splitter halte ich auch für zu kostspielig.
Etwas mit matx und 3-4 Steckplätze sollte gut passen:
MSI Z68MA-G45 (G3) / MSI Z68MA-G45
Mit 3 Steckplätze und evtl. recht sparsam und vor allem schönkompakt:
ASUS P8H61-MXWie verhält es sich von der Performance zw. i5 und i7? Lohnt der i7 wirklich oder dann besser nur 2-3 Karten pro blade?
Ein i5-3350P, 4x 3.10GHz sieht preislich sehr gut aus. -
14. November 2012 um 19:11 Uhr #929310Sc0rpTeilnehmer
phil68;499067 said:
Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).
Grüße Dirk
Jo Dirk … und was wäre bei OC?
Bzw. überhaupt der ganzen Takterei?
Woher nimmst du die Werte?
Ach ja, nicht zu vergessen: bei POEM only? Oder ist das generell so?
Wie sieht es (ganz aktuell) bei WCG-HCC@GPU aus?Das Thema interessiert mich ganz besonders, hab ja ‘ne EVGA GTX460SC am Laufen – und 30W vs. 160W sind schon ‘ne Hausnummer. Geplant ist ein GraKa-Upgrade auf eine GTX670 … da ich nebenbei auch zocke. Wenn sich eine GT640 fürs BOINCen rentiert, könnte ich die ja auch noch irgendwo reinklemmen …
Sc0rp
-
14. November 2012 um 19:11 Uhr #929311ischTeilnehmer
Es sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.@Sc0rp bei WCG rennen die ATI 7xxx besonders gut.
-
14. November 2012 um 19:11 Uhr #929308phil68Teilnehmer
Sc0rp;499062 said:
Re,Kiro;499028 said:
die Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀Wie kommst du darauf?
GTX460 = 907 GFlops SP und 75,6 GFlops DP (bei 160W)
GT640 = 691,2 GFlops SP und 28,8 GFlops DP (bei 34W)
Also die GTX460 (Werte hier ohne OC) schlägt bei der reinen Rechnenleistung die GT640. Allerdings sieht das bei Performance/Watt natürlich wesentlich besser für die GT640 aus, aber das erwartet man ja auch von einem zwei Generationen besseren Chip, oder?Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.
Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).
Grüße Dirk
-
14. November 2012 um 20:11 Uhr #929314Sc0rpTeilnehmer
Re,
isch;499072 said:
Auch bei POEM/WCG mit den neuen Karten?Hat nix mit dem Projekt oder der Hardware an sich zu tun, sondern mit der Art wie GPGPU funktioniert – GPGPU braucht keine extravaganten Texturen zwischen Festplatte/Hauptspeicher und GraKa zu tauschen, daher braucht man hier keine breitbandige Anbindung. Die Steuerbefehle bzw. Daten die bei GPGPU ausgetauscht werden sind dagegen lachhaft klein …
Bildlich: kleines Arbeitspaket wird an die GraKa geschickt, die rechnet mordsmäßig und vor allem parallel das Paket durch (evtl. wird es im GraKa-RAM etwas aufgeblasen -> trotzdem lächerlich), dann geht ein kleines Ergebnispaket zurück …
Sc0rp
-
14. November 2012 um 20:11 Uhr #929312Sc0rpTeilnehmer
Re,
isch;499070 said:
Es sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.Wurde bereits positiv getestet … durch Jabba (sofern ich mich richtig erinnere) -> es reicht Dicke. Die Rechenleistung bei GPGPU wird nicht durch den peripheren Bus gebremst.
isch;499070 said:
@Sc0rp bei WCG rennen die ATI 7xxx besonders gut.Jo, angeblich noch besser mit Beta-Treibern … aber ich werde auf meinem SCHLUMPF (AMD-System mit HD5850 für die Stube bzw. Frau) kein Beta-Treiber draufmachen und ganz sicher kommt MEIN Workstation-GraKa-Update vor dem meiner Frau :devil:!Sc0rp
-
14. November 2012 um 20:11 Uhr #929313ischTeilnehmer
Sc0rp;499071 said:
Re,isch;499070 said:
Es sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.Wurde bereits positiv getestet … durch Jabba (sofern ich mich richtig erinnere) -> es reicht Dicke. Die Rechenleistung bei GPGPU wird nicht durch den peripheren Bus gebremst.Sc0rp
Auch bei POEM/WCG mit den neuen Karten?
-
14. November 2012 um 21:11 Uhr #929316phil68Teilnehmer
Sc0rp;499069 said:
phil68;499067 said:
Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).
Grüße Dirk
Jo Dirk … und was wäre bei OC?
Bzw. überhaupt der ganzen Takterei?
Woher nimmst du die Werte?
Ach ja, nicht zu vergessen: bei POEM only? Oder ist das generell so?
Wie sieht es (ganz aktuell) bei WCG-HCC@GPU aus?Das Thema interessiert mich ganz besonders, hab ja ‘ne EVGA GTX460SC am Laufen – und 30W vs. 160W sind schon ‘ne Hausnummer. Geplant ist ein GraKa-Upgrade auf eine GTX670 … da ich nebenbei auch zocke. Wenn sich eine GT640 fürs BOINCen rentiert, könnte ich die ja auch noch irgendwo reinklemmen …
Sc0rp
Hi Chris 🙂
Die Werte für die GTX460 hab ich vom Projekt selbst(nach GTX460 gesucht). Die Werte der GT640 hab ich aus eigenem Bestand(2 Stück).
Weitere Tests hatte ich noch bei PG gefahren…
GTX560ti vs. GT640
160k vs. 115k pro TagFür die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.
Grüße Dirk
-
15. November 2012 um 15:11 Uhr #929324konfettiTeilnehmer
11 Minuten? – meine GTX260 rechnet im schnitt bissl über 8 Minuten pro HCC GPU WUansonsten find ichs trotzdem interessant 😉
-
15. November 2012 um 16:11 Uhr #929328ulvTeilnehmer
Da die laufenden Kosten bei 24/7 der größte Kosten-Anteil sind ist es extrem wichtig, dass der Rechner viele Credits/Watt macht. Nur danach sollten wir die GPU aussuchen.
Zur Verdeutlichung: Bei 20 Cent/Watt kosten 500 Watt Dauer-Last im Laufe von 2 Jahren fast 2000€!
-
15. November 2012 um 16:11 Uhr #929327littledevilTeilnehmer
konfetti;499083 said:
11 Minuten? – meine GTX260 rechnet im schnitt bissl über 8 Minuten pro HCC GPU WBei welchem, VErbrauch? 😆
-
15. November 2012 um 17:11 Uhr #929329Sc0rpTeilnehmer
Re Dirk,
phil68;499075 said:
Für die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.Meine GTX460SC braucht zwischen 00:04:55 und 00:07:44 pro WCG-HCC@GPU-WU 😉 – klar, im Verbrauch schlägst du mich – aber nicht bei der absoluten Zeit 😉 -> schnella!
Wie kann man die GT640 eigentlich tunen? Kann man an der was “schrauben”? Preislich gehen die grade ab ca. 70€ über den Tisch, da könnte ich 2-3 noch in den Server schrauben ;).
Sc0rp
-
15. November 2012 um 18:11 Uhr #929331phil68Teilnehmer
Wie verhält es sich von der Performance zw. i5 und i7? Lohnt der i7 wirklich oder dann besser nur 2-3 Karten pro blade?Ein i5-3350P, 4x 3.10GHz sieht preislich sehr gut aus.
Wenn dann sollten wir einen I7 nehmen… Wenn es nur 4 Kerne sein sollen, kann man auch zum wesentlich billigerem I3 greifen. Der I3 3220 läuft sogar mit 3,3GHz und dürfte kaum langsamer(bei BOINC) sein als der I5(6MB Cache gegenüber 3MB des I3) :-k
Sc0rp;499088 said:
Re Dirk,phil68;499075 said:
Für die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.Meine GTX460SC braucht zwischen 00:04:55 und 00:07:44 pro WCG-HCC@GPU-WU 😉 – klar, im Verbrauch schlägst du mich – aber nicht bei der absoluten Zeit 😉 -> schnella!Wie kann man die GT640 eigentlich tunen? Kann man an der was “schrauben”? Preislich gehen die grade ab ca. 70€ über den Tisch, da könnte ich 2-3 noch in den Server schrauben ;).Sc0rp
😀 Ja, aber wie schon geschrieben… die GT640 braucht ohne Optimierung ca. 30Watt. Wenn dann mal das passende BIOS und Flash Tool auf den Markt kommt, lässt sich da sicher noch etwas mehr Effizienz rauskitzeln. Bei POEM schafft eine GTX 680 ca. 1Mio k pro Tag bei etwa 180 Watt und einem Anschaffungspreis von ca. 430€ !Die GT640 macht ca. 370k bei 30 Watt und kostet 70€ !!Mehr muss ich wohl nicht dazu sagen :+ d.h. halbe Anschaffungskosten… halber Preis… selbe Leistung!!!(um ähnliche Credits zu erreichen) So ist das eben bei BOINC… wir wollen, wie ulv schon geschrieben hat, die max. Credits bei so wenig wie möglich Verbrauch.Grüße Dirk
-
15. November 2012 um 20:11 Uhr #929337ischTeilnehmer
Passen in den Splitter Dualslot Karten? man kann das auf dem Bild so schlecht erkennen und im Text habe ich auch nichts gelesen ( Oder verstanden 🙂 )
-
15. November 2012 um 20:11 Uhr #929335phil68Teilnehmer
isch;499093 said:
Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Bei nur 4 Kernen würde da ein Stau entstehen und die Credits würden sich fast halbieren.
Genau… ganz vergessen, dass wir ja 4 Karten haben 🙂
-
15. November 2012 um 20:11 Uhr #929338Sc0rpTeilnehmer
Re,
isch;499096 said:
Passen in den Splitter Dualslot Karten? man kann das auf dem Bild so schlecht erkennen und im Text habe ich auch nichts gelesen ( Oder verstanden 🙂 )Das ist ein PCIe-Splitter, der die Lanes aufteilt – ist hier irgenwo im Forum schonmal diskutiert und beschrieben worden. Der macht dann z.B. aus einem PCIe x4 viermal PCIe x1 und Stromversorgung könnte man quasi direkt an den Splitter löten. Es gibt welche mit einer festen Platine und welche mit Flachbandkabeln …EDIT: Google ist dein Freund: http://www.amfeltec.com/products/x4pcie-splitter4.phpSc0rp
-
15. November 2012 um 20:11 Uhr #929334ischTeilnehmer
Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Bei nur 4 Kernen würde da ein Stau entstehen und die Credits würden sich fast halbieren.
-
15. November 2012 um 21:11 Uhr #929339VTG01Teilnehmer
@isch
Das mit dem Verbrauch stimmt, meine beiden 5870er laufen leicht übertaktet bei 875mhz. Selbst bei diesen Aussentemperaturen ist eine Raumtemperatur von unter 20°C nicht möglich! Leistungsaufnahmetest mache ich am WE
@phil, @isch
Es kommt immer darauf an welche Projekte gerechnet werden und welches Ziel da ist. Ein GPU-Cruncher muss einfach nur GPU-Projekte rechen können. Dummerweise brauchen die aber doch immer wieder deutlich CPU. Somit schlage ich vor die einzelnen Grakas die in Frage kommen auf mehreren Projekten zu testen und mit den “Dauerbrennern” a la 5870, GTX… zu vergleichen. So kommt man dann relativ schnell auf ein Projekt bei dem eine deutlich “schwächere” Karte bei BOINC deutlich effizienter ist als die “Dauerbrenner”. Vielleicht ist es möglich dass sich ein paar Personen an den Tests beteiligen. Ich stelle mich mit dem I7, einen Q9400, sowie einen x4 gerne in die Testreihe mit einer 5850er, 5870er und der doch schon deutlich schwächeren 5770. 4 Rechner, 3 Karten 8 Projekte (oder mehr) können durchaus ein Ergebnis darstellen.
@ulv
Dein Hinweis zum Stromverbrauch finde ich ganz toll. Bei einem günstigen Board, günstigen Prozzi und günstigen Grakas sind die Betriebskosten innerhalb weniger Jahre bereits höher als die Anschaffungskosten!Frage in die Runde:
An einem Picu 160xt mit einem 190er Netzteil sollte es doch möglich sein 2 30Watt Grakas zu betreiben – der Rechner braucht Spitze um die 65 Watt. Habt ihr das schon mal probiert? Wenn ich in Geizhals schaue brauchen die GT640er jedoch alle um die 65 Watt, ihr sprecht oben vom 30 Watt – wie das?Ich könnte mir durchaus vorstellen in mein MSI Z77A-G45 an stelle der 2 5870 ein paar (nicht 2 sondern mehr) GTX 640 oder 7750er rein zu bauen. Ob wirklich 7 rein passen glaube ich nicht. 3x über PCIe x16 sind sicher kein Problem, aber die 4 über PCIe x1 brauchen doch auch noch Strom. insgesamt 7*30 Watt = 210 Watt sollte noch gehen aber 7* 60 Watt (lt. Datenblatt)= 420 Watt ist dann schon ein bisserl viel über den 2xP4 + 24Pin Stecker am Board. Auch das Netzteil mit 580Watt hat da ein bisserl Probleme da die Schienen nicht zusammengeschaltet werden können. Najy – vielleicht doch ein wenig Hirngespinst. 😆
-
15. November 2012 um 21:11 Uhr #929340ischTeilnehmer
Das prinzip ist mir schon klar wollte nur wissen ob in diesen 4er x1 Tower Dualslot Karten passen oder nur Singleslot.
VTG01;499098 said:
@phil, @ischEs kommt immer darauf an welche Projekte gerechnet werden und welches Ziel da ist. Ein GPU-Cruncher muss einfach nur GPU-Projekte rechen können. Dummerweise brauchen die aber doch immer wieder deutlich CPU. Somit schlage ich vor die einzelnen Grakas die in Frage kommen auf mehreren Projekten zu testen und mit den “Dauerbrennern” a la 5870, GTX… zu vergleichen. So kommt man dann relativ schnell auf ein Projekt bei dem eine deutlich “schwächere” Karte bei BOINC deutlich effizienter ist als die “Dauerbrenner”. Vielleicht ist es möglich dass sich ein paar Personen an den Tests beteiligen. Ich stelle mich mit dem I7, einen Q9400, sowie einen x4 gerne in die Testreihe mit einer 5850er, 5870er und der doch schon deutlich schwächeren 5770. 4 Rechner, 3 Karten 8 Projekte (oder mehr) können durchaus ein Ergebnis darstellen.Das Problem bei den ATI 7xxx und NV 6xx Karten ist das bislang nur POEM und WCG davon Profitieren.Bei anderen Projekten sieht es dann nicht mehr ganz so rosig aus.
VTG01;499098 said:
Frage in die Runde:An einem Picu 160xt mit einem 190er Netzteil sollte es doch möglich sein 2 30Watt Grakas zu betreiben – der Rechner braucht Spitze um die 65 Watt. Habt ihr das schon mal probiert? Wenn ich in Geizhals schaue brauchen die GT640er jedoch alle um die 65 Watt, ihr sprecht oben vom 30 Watt – wie das?Ich habe eine und phil auch (siehe meine teste).Eine 7750 habe ich auch hier und wird nach der WCG Challenge ausführlich getestet.
-
16. November 2012 um 10:11 Uhr #929352littledevilTeilnehmer
isch;499093 said:
Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Wieviel Mehrleistung haben denn die 4 Pseodokerne tatsächlich?Es kommt ja auf dei tatsächliche GEschwindigkeit an und nciht nru dei Kernanzahl, oder?P.S. was haltet Ihr vom Asus P8P67 Pro B3 ?Da hat ein bucht-Händler ne ganze Menge da. Denke mal, das man die günstig schnappen könnte – habe die grad in Beobachtung3 Karten direkt stecken und die vierte über einen Riser auf x16
-
16. November 2012 um 16:11 Uhr #929374ischTeilnehmer
littledevil;499116 said:
isch;499093 said:
Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Wieviel Mehrleistung haben denn die 4 Pseodokerne tatsächlich?Es kommt ja auf dei tatsächliche GEschwindigkeit an und nciht nru dei Kernanzahl, oder?P.S. was haltet Ihr vom Asus P8P67 Pro B3 ?Da hat ein bucht-Händler ne ganze Menge da. Denke mal, das man die günstig schnappen könnte – habe die grad in Beobachtung3 Karten direkt stecken und die vierte über einen Riser auf x16
Ist ja egal wie viel Mehrleistung die 4HT Kerne haben.Wenn nur die 4 echten das sind werden auch nur 4 Threads ausgeführt und somit kannst nur auf jeder Graka 1 WU laufen lassen.Asus und Stromsparen widerspricht sich doch eigentlich.
-
16. November 2012 um 21:11 Uhr #929386ischTeilnehmer
Ja cpu power wird benötigt.da bringt ein hoher takt abhielfe.Bei 2 wus hast du fast die doppelten Kredits weil eine wu die GPU kaum auslastet.
-
16. November 2012 um 21:11 Uhr #929383littledevilTeilnehmer
Hattest Du nicht geschrieben, das da recht viel CPU power benötigt wird?
wieviel weniger Output hat dieGPU, wenn nur eine WU pro GPU gerechnet wird?
Vom verbrauch her bin ich mit meinem Asus P8H61-M LE/USB3 sehr zufrieden.
Ist vielleicht kein Rekordhalter, aber man kompfortabel undervolten ohne irgendwelche MOD-BIOS Tricks… 😀
Auf nem P8P67 Pro mit nem i7 könnte man dann 4 GPUs betreiben.
Hast Du mal versucht eine Graka mit x1 zu ebtreiben, um sicher zu gehen, das der Busspeed kaum eine Rolle spielt?
-
16. November 2012 um 22:11 Uhr #929387ulvTeilnehmer
Hier mal ein Bulldozer-Board wo definitiv 4 dual-Slot-Grakas ohne Basteln laufen: http://geizhals.de/646940
AMD CPUs sind im Vergleich zu Intel ja günstig… http://geizhals.de/761214
Das wären 350€ für Mainboard und 8-Kern-CPUIrgendwie ist mir das aber nicht recht, dass wir für das Mainboard mehr zahlen als für die Grakas. Auch verbraucht hier das Board vermutlich schon so viel Strom wie zwei der Grakas. Das macht doch keinen Sinn.
Wenn wir es doch mit Single Slot versuchen. :-k
30 Watt müsste doch gehen, wenn man den Lüfter weg schraubt, die Slotbleche weg schraubt und einfach von hinten dagegen bläst. Selbst mit Slotbelch sollte das mit einem Luft-Kanal bei so einer Low-Profile Karte doch gehen – oder? 🙄
Die Sparcle z.B: http://geizhals.de/796257Vorher müsste man aber noch prüfen, ob 7 oder 8 Karten von Boinc unter Linux (bzw. Windows) erkannt werden. Bei den Nvidia unter Linux könnte ich mir das schon vorstellen, weil die ja auch ohne X-Server, Dongle etc. laufen.
Und dann bleibt noch der Stromverbrauch im Non-PEG-Slot. Die haben ja nur 25 Watt nach der Spec.
3 (bzw. 4) der Karten müsste man also modden, damit sie die 12 Volt direkt aus dem Netzteil ziehen. Das wäre aber nicht so schwer zu machen. Ganz ohne Löten ist ja dann doch langweilig. O:-)@Dirk
Soll ich mal zum testen 2 oder 3 GT610 Modden (oder GT620) und dir zum testen schicken?
@All
Hat sonst jemand ein Board mit mehr als 4 PCIe (x16 physikalisch) und möchte das testen? -
16. November 2012 um 23:11 Uhr #929385littledevilTeilnehmer
Ob ein AMD 8-Kerne es schafft, 4 Karten halbwegs sparsam zu versorgen? :-kBei nem i7 1155 sehe ich da eher ne Chance z.b. ASUS P8P67 WS Revolution Rev 3.0 – wenn es ohne basteln sein mußWobei ein Riser-kabel nu auch nicht das Problem sein sollte. Da kann man dann gleich die Stromversorgung drüber laufen lassen… ;)Wenn man eh ne Stromversorgung basteln muß und x1 genügt: ASRock H61DEL
-
16. November 2012 um 23:11 Uhr #929391ischTeilnehmer
AMD verbraucht einfach zu viel und fällt meiner Meinung nach komplett raus (leider :-((( )@ ULV Singleslot Karten gibt es doch wie Sand am Meer.Drück mich fest.Von den 610,620 und 630 Karten rate ich ab da das nur umgeläbelte 5xx Karten sind.Die werden auch noch in 40nm Hergestellt.Bei diesem Sockel 1155 Board gibt es:5x PCIe 3.0 x161x PCIe 2.0 x161x PCIe 2.0 x1Sind also schon mehr Slots als wir brauchen.Tante Edit:Hier ist mal ein erster versuch mit Sketchup.Ich hoffe man erkennt was es sein soll.Da ich nich sie Slotabstände vom Splitter kenne habe ich den Graka Block 25cm breit gemacht.Das kann noch mehr oder weniger sein was sich ja auf das außen maß der Gehäuses auswirkt.Jetzt hat es einen Durchmesser von 1m und ist 17cm hoch.
-
17. November 2012 um 11:11 Uhr #929395littledevilTeilnehmer
Falls man das Board tatsächlich für ~100 eur bekommt, wäre das Sapphire PURE Black P67 Hydra
sehr interessant.Bei 4 Karten und nem i7 kämen man dann etwa mit 750 EUR pro blade exl. Netzteil heraus
-
17. November 2012 um 12:11 Uhr #929396ischTeilnehmer
Ja das sollte auch gehen.Nur wie sieht es bei den Boards mit dem verbrauch aus ?Müsste man ja vorher mal testen.Soll es jetzt doch ohne Splitter werden???
-
17. November 2012 um 13:11 Uhr #929399VJoe2maxTeilnehmer
Darf ich mich da mal bezüglich des Gehäusebaus einschalten?Mit den kleinen 7,5mm Alfer-Combitech-Profilen und Verbindern habe ich in anderer Sache mal was angefangen und bin erstaunt wie schnell und doch solide man damit eine Art Gehäuserahmen bauen kann. Für nicht tragende Wände bieten sich Hartschaumplatten an. Tür tragende Wände Alu-Platten. Die Verbindung erfolgt über Vernieten oder mit Einpressmuttern und Schrauben. Das Material lässt sich ist über den Shop schnell bestellen und wenn mal was fehlt, gibt´s viele Teile auch im Baumarkt. Ein sechseckiger Grundriss mit sechs ITX-Bords um einen Mittelblock und ein weiteres größeres Sechseck außen herrum, an dem die Grakas sitzen, wäre z.B. ne feine Möglichkeit, um sogar noch mehr Ausbaumöglichkeiten zu haben. Man könnte auch nur vier oder fünf aktive Abteilungen machen und die restlichen zum Anschließen nach außen hin oder zur Frischluftversorgung nutzen. Außen rund halte ich dagegen für recht schwierig machbar. Lasst es mich wissen, wenn es an ein Grundgerüst für das Gehäuse geht, falls es denn mit einer solchen Rahmenkonstruktion machbar sein sollte. Hab da jetzt einiges an Erfahrung gesammelt und könnte evtl. entweder das ganze Grundgerüst oder zumindest den Zusammenbau beisteuern ;). Ne Kappssäge zum exakten Ablängen der Profile (auch auch auf Gehrung in versch. Winkeln) habe ich ebenfalls da. Da ich inzwischen auch nicht mehr weit von München entfernt wohne, gäbe es auch kein Versandproblem etc. (gehe jetzt mal davon aus, dass das neue Gerät wieder seinen Standort in München haben wird).
-
17. November 2012 um 14:11 Uhr #929401littledevilTeilnehmer
Spitze Joe 🙂 6-Eck dürfte auf jeden Fall einfacher zu realisieren sein, als rund.
@isch Splitter würden ja nur bei ITX Sinn machen, da wir rein CPU-mäßig ja eh nicht mehr als 4 GPUs pro i7 Versorgen können.
Da ein Splitter + Board aber 2-3x soviel kostet, wie ein Board, wäre es gut, wenn wir drauf verzichten könnten.
Vielleicht kann ja mal jemand bzgl. Sponsoring bei der Firma anfragen [-o< Das Sapphire P67 sieht zumindest nicht so vollgefrachtet mit Zusatzoptionnen und extrem OC-Features aus - köntne sich positiv auf den Verbrauch auswirken O:-) -
17. November 2012 um 17:11 Uhr #929409ischTeilnehmer
littledevil;499169 said:
@isch Splitter würden ja nur bei ITX Sinn machen, da wir rein CPU-mäßig ja eh nicht mehr als 4 GPUs pro i7 Versorgen können.Jein mit etwas tricksen an der App.info kannst auch 16 WUs laufen lassen wodurch aber die Wu Laufzeiten sich verlängern.Damit das nicht passiert müsste man wieder OC was den verbrauch ja wieder nach oben Treibt.Ob man dann mehr C/W bekommt müsste man testen.Das ASRock Z77 WS hat ja 6 x16 Slot die man bestücken könnte.Dafür bräuchte man 6Kerne/Threads und man könnte 12 WUs gleichzeitig rechen.Der CPU Takt müsste dann aber auf 4GHz.Vielleicht sollten wir uns erst mal einig werden ob mit Splitter oder Boards mit vielen Steckplätzen.Dann kann man sich auch mal Gedanken ums Gehäuse machen.
-
17. November 2012 um 20:11 Uhr #929418ischTeilnehmer
Pro WU 1 Kern bei 2 Wu pro Graka =2 Kernmit etwas Tricksen in der app.info2 WU pro Graka =1 Kern den eingesparten Kern kannst aber durch OC mit hohen Takt wieder ausgleichen.
-
17. November 2012 um 20:11 Uhr #929417littledevilTeilnehmer
Benötigt man nun pro GPU 1 oder 2 Pseodo-Kerne?
-
18. November 2012 um 11:11 Uhr #929427littledevilTeilnehmer
Wie verteilt sich das bei 6 GPU und 8 Kernen?Ich denk mal, das 4 Karten pro Blade ein gute Kompromiss sein dürften.Sind eigentlcih alle Asrock B75 sparsam?ein andere Ansatz köntne sein, ein das kompakte ASRock P75 Pro3 zu nehmen und dazu 2 preisgünstige x1 und x16 riser.Damit könnt eman die Abstände für die Belüftung entpsrechend gestalten. Evtl. kann auch eine karte obne drüber querP.S: Fall man 6 Karten sinnvoll und effizient betreiben kann: MSI Z77A-G45 + 3 x1 -> x16 riser (Da würden soagr 7 KArten gehen)
-
18. November 2012 um 12:11 Uhr #929432ischTeilnehmer
0,125 für CPU? Sind in 20 Minuten etwa 8+2+4=14 Tasks mit 5 KartenIch schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt
-
18. November 2012 um 12:11 Uhr #929431VTG01Teilnehmer
Mit meinen Karten fahre ich zur Zeit im Verhältnis i7: 0,125 CPU: 0,25 GPU (2x5870er) braucht ca. 20-23 Minuten (Board:MSI Z77A-G45)Q9400: 0,5 CPU: 0,5 GPU (1x5850er) braucht um die 20 Minuten je Taskx4 9750: 0,25 CPU: 0,5 GPU (2x5850er) braucht um die 20 Minuten je TaskSind in 20 Minuten etwa 8+2+4=14 Tasks mit 5 Karten wobei die Karten insgesamt nur 3 Cores verwenden. Die anderen 13 Cores sind für CPU-Projekte reserviert.Daneben läuft LEIDEN bzw am i7 die MP-YOYO’s in voller Speed.Sobald es wieder WU’s für WCG gibt werde ich am i7 für WCG 4 CPU-Kerne zur Verfügung stellen.Anmerkung: unter Collatz mache ich mit der Kombi etwa 12 WU’s je Stunde = 36.000 Credits je Stunde bzw. 850.000 am Tag, daneben rennen noch 16 Cores für Leiden oder YOYO. Vielleicht schaffe ich es noch und messe den Energiebedarf für Collatz und WCG am i7. Ich habe den Eindruck, dass WCG deutlich weniger Strom benötigt (es ist kühler im Raum):p
-
18. November 2012 um 12:11 Uhr #929434VTG01Teilnehmer
isch, welche Karte hast du und was leisten die? Ich habe in Erinnerung dass du eine NV640 und einer ATI7750 hast. Wie ist der Vergleich zwischen den beiden Karten?
Kommt es bei WCG auf den Speichertakt der Karte an? Bei Collatz ist der nahezu egal – bzw. ist nicht messbar, da zählt nur der GPU-Takt.
Bei meinen Konstruktionen ist der CPU voll beschäftigt…. Ich denke die GPU langweilt sich zwischendurch. Speziell am Beginn und am Ende geht die Auslastung weit runter – teilweise sogar auf NULL (Afterburn).
Gibt es single-slot Karten die die bevorzugen würdest?
-
18. November 2012 um 13:11 Uhr #929436ischTeilnehmer
Ist eine 7870.Speichertakt ist glaube ich egal war jedenfalls bei POEM so.GPU Takt bringt da mehr.Das die Auslastung am Anfang und ende untergeht liegt daran das da der CPU Teil berechnet wird.Für die Challange wurden bei WCG 2 WUs in einer gepackt so das CPU|Graka|CPU|CPU|Graka|CPu gerechnet wird.Hatte mich am Anfang gewundert das die bei 49,x% immer anhalten und dann nach einer weile doch wieder weiter liefen.
-
18. November 2012 um 14:11 Uhr #929441VTG01Teilnehmer
hmm, 7870er gibt es nicht im Single-Slot Design und ausserdem ist die mir zu teuer.:roll:
-
18. November 2012 um 14:11 Uhr #929442
-
18. November 2012 um 19:11 Uhr #929446
-
18. November 2012 um 19:11 Uhr #929450ischTeilnehmer
Bei WCG sieht es so mit der 7878Hier wird grade die GPU belastet.jetzt wird wieder die CPU gefordert.Das ist immer ein Berg auf und Berg ab.Bei POEM sieht das etwas anders aus.Wenn mich nicht alles täuscht war bei POEM bei weniger als 3,4GHz schon deutliche Credit verluste zu spüren.Schaut mal im internen da hatte ich ja schon einige test gemacht.
ulv;499215 said:
@ischWas ist denn, aus deiner Sicht, die kleinste Intel CPU für 4 bzw. 8 Grakas der Sorte GT640?Es sollte schon der i7 3770 oder ein vergleichbarer Xeon sein.
-
18. November 2012 um 20:11 Uhr #929452ulvTeilnehmer
So mal die Intel Varianten:
Alle mit wenigstens 7PCIe und davon 4 mal x16 physikalisch für dual-Slot-Karten.Sockel 2011
mit Chipsatz X79:
siehe: http://geizhals.at/de/?cat=mbp4_2011&xf=2961_7#xf_top
279€ / 284€ / 322€ + Quadcore ab 244€ [SIZE=”3″]= 523 bis 566 €[/SIZE]
Sockel 1155:
siehe: http://geizhals.at/de/?cat=mbp4_1155&xf=2961_7#xf_top
mit Chipsatz P67
177€ / 181€ / 371€ + Quadcore ab 150€ [SIZE=”3″]= 327 bis 521 €[/SIZE]mit Chipsatz Z77
223€ / 262€ / 375€ / 330€ + Quadcore ab 150€ [SIZE=”3″]= 373 bis 525 €[/SIZE]Socket 1366:
http://geizhals.at/de/?cat=mbp4_1366_ddr3&xf=2961_7#xf_top
mit Chipsatz X58
425€ + Quadcore ab ca. 300€? [SIZE=”3″]= 725 €[/SIZE]Socket 1156:
http://geizhals.at/de/?cat=mbp4_1156&xf=2961_7#xf_top
mit Chipsatz i3450
258€ + Quadcore ab 179€ [SIZE=”3″]= 437 €[/SIZE] -
19. November 2012 um 8:11 Uhr #929464littledevilTeilnehmer
Ist das mit Risern so schlimm?
Von Deine Auswahl Christian, wäre das ASUS P8P67 WS Revolution noch am bezahlbarsten, aber sparsam sehen die alle nicht aus :-k
Das Sapphire PURE Black P67 Hydra ginge da auch noch. -
19. November 2012 um 15:11 Uhr #929469ulvTeilnehmer
littledevil;499233 said:
Ist das mit Risern so schlimm?Nö, wieso schlimm?
Ich wollte mir nur mal die Alternativen ansehen.
Die ATX verbrauchen mir aber eigentlich viel zu viel Strom. (Das geht ja bis 100 Watt Idle und 200 Watt Last 🙁 )
Und die Preise finde ich echt gesalzen. Ein 1155er ITX gibt es ja schon ab 50€!Wenn man dadurch 100 Watt einsparen könnte wäre im Vergleich zu den ATX sogar ITX mit Intel Mobil-Technik (+Splitter) möglich. 100 Watt Einsparung bei Board und CPU sind auf 2 Jahre ja auch 350€.
Damit wären wir auch mir dem Design wieder frei!So etwas:
185 + 229 + 250 (Splitter) = 664€ => 664 – 350 (Strom-Einsparung) = 300€Müsste ich mich jetzt gleich entscheiden wüsste ich es schon….
-
19. November 2012 um 18:11 Uhr #929471ischTeilnehmer
Das ASRock Z77 WS mit einem 3770 und 6 GT640 sollte unter last nicht mehr als 300W ziehen.
Wobei ich für CPU und Board 120W rechne was aber wahrscheinlich völlig übertrieben ist.250W-260W sollten drin sein.
Die x79 Bretter kannst wahrscheinlich alle in die Tonne hauen von verbrauch her.Obwohl so ein &Kerner mit 12Threads schon was feines wäre 🙂
Wenn Interesse besteht würde ich mir mal ein ASRock Z77 WS und ein 3770/Xeon E3 1240V2/1245v2 bestellen und mit meiner einen Gt640 testen.
Wie sieht es eigentlich beim Xeon ohne Graka aus?Die brauchen wir doch nicht das ja genug andere vorhanden sind.Der wäre ja vom Preis und verbrauch her der beste.
@ ulv die Mobil Dinger sind einfach viel zu langsam.Da verschenkt man so viele Credits.Schaut mal hier da habe ich ein paar Tests mit verschiedenen Taktraten gemacht.
-
19. November 2012 um 20:11 Uhr #929482VTG01Teilnehmer
Ich schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt
Also das schaffe ich beim Besten Willen überhaupt nicht!
Ich habe mich gestern nahezu den Ganzen tag herum gespielt und versucht den i7 zu optimieren. Das Beste was ich mit 2 5870er heraus bekomme sind 10 Tasks in etwa 23 Minuten. Das Verhältnis CPU/GPU steht dabei auf 0,7/0,18. Bei 0,7/0,20 ändert sich nahezu nichts (die Sekunden habe ich im Mittel rausgeschätzt) bei 0,5/0,20 brauche ich für 10 WU’s etwa 24 Minuten. Ich habe mich für die 0,5/0,20 Lösung entschieden da ich hier 3 Tasks LEIDEN mitrechnen kann.
Ich arbeite zur Zeit mit 12.10 Catalyst Treibern, die 12.11beta traue ich mich nicht drauf spielen da ich doch einige Probleme hatte 😯Nach dem Contest kommen die 2 Karten raus – wieder in eine schwächere MAschine zum Collatz rechnen. Da wird keine CPU benötigt.
Ich bin am überlegen ob ich mir stattdessen eine AMD 7750 oder eine GT640 rein baue und damit ein bisserl GPU-Projekte mitrechne. Hintergrund ist, dass der Rechner an einer USV hängt die die 400 Watt die er jetzt benötigt nicht einmal übernehmen kann. Bei 250Watt ist da Schluß. Die Gretchenfrage ist natürlich AMD oder NVIDIA!!
Da ich davon ausgehe dass es POEM als Projekt wird – oder liege ich hier falsch – sollte man mal schauen welche Karte sich besser eignet.
Isch – hast du da schon Vergleiche gesehen/gefunden zwischen 7750er und GT640er? Wichtig ist mir Singel-Slot – eventuell passt eine low-format wie zum Beispiel ASUS oder Sparkle oder Club haben sehr geringe Bauhöhe und könnten sogar in Slot eines Blades Platz finden.
[SIZE=”3″]Mal ne Idee die man weiter verfolgen könnte:[/SIZE]
Blade ASROCK B75ITX, Splitter auf 2/3 oder 4 Grakas, Anordnung der Grakas liegend neben dem Blade. Das ITX ist 17 cm breit, die Grakas (Ohne Slotblende um die 65mm/80mm? Die Länge übersteigt die 170mm auch nicht. Ich schaffe die i7 mit boxed Kühler auf etwa 70mm zu packen, das sollte ausreichen für 3 Grakas, steigert man den Abstand auf 80mm an Stelle von 70mm für die Blades könnte man theoretisch auch 4 Grakas nehmen. Der Stromverbrauch liegt bei Vollast von 2 Blades mit einem i73770 bei 3,7 Ghz (ohne Grafik ) bei ca. 105-108 Watt was je Blade etwa 55 Watt entspricht. Versorgt von einem Pico 160xt wären da doch noch 2 Grakas mit etwa 50Watt möglich.Preis: Board etwa 80.-
Prozzi mit 4 Kernen i3: etwa 130.-
Speicher 8 GB Kingston Low-profile (nur 1 Riegel je Blade – sollte für 4 Cores reichen) ca. 35.-
macht gesamt je Blade ohne Graka knapp 245.-oder
Prozzi mit 8 Kernen Xeon: etwa 240.-
mit 8 GB und Board wie oben ein bisserl über 355.-und dann die Grakas.
Splitter habe ich leider keine Ahnung was 1 auf 2 kostet.Versteht das wer oder soll ich mal den Bleistift spitzen und eine Skizze vom Blade mit den seitlichen Grakas basteln?
-
19. November 2012 um 20:11 Uhr #929484ischTeilnehmer
[QUOTE=VTG01;499255]
Ich schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt
Also das schaffe ich beim Besten Willen überhaupt nicht!Ich habe mich gestern nahezu den Ganzen tag herum gespielt und versucht den i7 zu optimieren. Das Beste was ich mit 2 5870er heraus bekomme sind 10 Tasks in etwa 23 Minuten. Das Verhältnis CPU/GPU steht dabei auf 0,7/0,18. Bei 0,7/0,20 ändert sich nahezu nichts (die Sekunden habe ich im Mittel rausgeschätzt) bei 0,5/0,20 brauche ich für 10 WU’s etwa 24 Minuten. Ich habe mich für die 0,5/0,20 Lösung entschieden da ich hier 3 Tasks LEIDEN mitrechnen kann.Ich habe auch noch weiter optimiert.Schaffe jetzt 30 WUs in 24min :DIch arbeite zur Zeit mit 12.10 Catalyst Treibern, die 12.11beta traue ich mich nicht drauf spielen da ich doch einige Probleme hatte 😯Und das ist mit ein Grund warum du dich nicht verbesserst.Die 12.11 Beta bringen richtig Leistung.Nach dem Contest kommen die 2 Karten raus – wieder in eine schwächere MAschine zum Collatz rechnen. Da wird keine CPU benötigt.Ich bin am überlegen ob ich mir stattdessen eine AMD 7750 oder eine GT640 rein baue und damit ein bisserl GPU-Projekte mitrechne. Hintergrund ist, dass der Rechner an einer USV hängt die die 400 Watt die er jetzt benötigt nicht einmal übernehmen kann. Bei 250Watt ist da Schluß. Die Gretchenfrage ist natürlich AMD oder NVIDIA!!Da ich davon ausgehe dass es POEM als Projekt wird – oder liege ich hier falsch – sollte man mal schauen welche Karte sich besser eignet.Isch – hast du da schon Vergleiche gesehen/gefunden zwischen 7750er und GT640er? Wichtig ist mir Singel-Slot – eventuell passt eine low-format wie zum Beispiel ASUS oder Sparkle oder Club haben sehr geringe Bauhöhe und könnten sogar in Slot eines Blades Platz finden.Nach WCG werde ich die 7750 bei POEm mal ordentlich testen und dann können wir uns entscheiden.
Mal ne Idee die man weiter verfolgen könnte:Blade ASROCK B75ITX, Splitter auf 2/3 oder 4 Grakas, Anordnung der Grakas liegend neben dem Blade. Das ITX ist 17 cm breit, die Grakas (Ohne Slotblende um die 65mm/80mm? Die Länge übersteigt die 170mm auch nicht. Ich schaffe die i7 mit boxed Kühler auf etwa 70mm zu packen, das sollte ausreichen für 3 Grakas, steigert man den Abstand auf 80mm an Stelle von 70mm für die Blades könnte man theoretisch auch 4 Grakas nehmen. Der Stromverbrauch liegt bei Vollast von 2 Blades mit einem i73770 bei 3,7 Ghz (ohne Grafik ) bei ca. 105-108 Watt was je Blade etwa 55 Watt entspricht. Versorgt von einem Pico 160xt wären da doch noch 2 Grakas mit etwa 50Watt möglich.Preis: Board etwa 80.-Prozzi mit 4 Kernen i3: etwa 130.- Speicher 8 GB Kingston Low-profile (nur 1 Riegel je Blade – sollte für 4 Cores reichen) ca. 35.-macht gesamt je Blade ohne Graka knapp 245.-oderProzzi mit 8 Kernen Xeon: etwa 240.-mit 8 GB und Board wie oben ein bisserl über 355.-und dann die Grakas.Splitter habe ich leider keine Ahnung was 1 auf 2 kostet.Versteht das wer oder soll ich mal den Bleistift spitzen und eine Skizze vom Blade mit den seitlichen Grakas basteln?[Um so mehr Blades man nutzt um so ineffizienter wird es ja.2-3 ITX/CPU/RAM verbrauchen dann ja mehr als ein ASRock Z77 WS mit einer CPU/RAM./QUOTE]
-
19. November 2012 um 20:11 Uhr #929480littledevilTeilnehmer
Leistungsfähige Mobil-CPU sind auch nicht viel sparsamer – einzig beim Board spart man Einiges ein.
Bei Boards mit vielen Steckplätzen findet man ja leider kaum jemanden der mal in Richtung Sparsamkeit optimiert hat. In den Tests gehts ja meist um OC.
Wenn X1 genügt, wäre das ASRock H61DEL immer noch m,ein Favorit. Das hatten auch einige Bitcoiner im Einsatz.
Das ist schön kompakt, sparsam und hat 6 Pcie slot, von denen man 5 mittels x1 -> X16 Riser nutzbar machen kann. Ein Slot ist direkt x16Dazu passend wird der Intel Xeon E3-1270V2, 4x 3.50GHz vom BIOS unterstützt. Da wäre die Frage, ob sich der Aufpreis für den 1270 lohnt. Unter Features ist ” Idle States” gelistet. Haben das nicht alle?
Der E3-1240V2 schafft ja 3,8 GHz im Turbo – sollte ja ausreichen, oder? -
19. November 2012 um 21:11 Uhr #929485VTG01Teilnehmer
Ich habe auch noch weiter optimiert.Schaffe jetzt 30 WUs in 24min
Was soll ich dazu sagen –> mir drückt es die Tränen in die Augen!! :crymk: :crymk:
Und das ist mit ein Grund warum du dich nicht verbesserst.Die 12.11 Beta bringen richtig Leistung.
Ich hadere noch – muss wohl über Fernzugriff installieren, nur falls das in die Hose geht komme ich erst morgen am Abend zu Gerät – ich werfe eine Münze…
Nach WCG werde ich die 7750 bei POEm mal ordentlich testen und dann können wir uns entscheiden.
Auf das freue ich mich schon.
Um so mehr Blades man nutzt um so ineffizienter wird es ja.2-3 ITX/CPU/RAM verbrauchen dann ja mehr als ein ASRock Z77 WS mit einer CPU/RAM.
Das trifft POEM, nicht aber WCG – oder täusche ich mich da?
Nach WCG werde ich auch mal POEM auf den 5850er und 5870er testen.
-
19. November 2012 um 21:11 Uhr #929491ischTeilnehmer
Wie es bei WCG mit der GT640 aussieht weiß ich nicht aber hier sollten die ATI die Nase vorn haben.Tante Edit: Ich habe mir Grade mal die Host Stats von WCG angeschaut und die erst NV Karte ist ca auf Platz 120 und das auch nur weil es 3 x GTX 580.Der nächste ist dan ca 10 Plätze weiter hinten mit 2 GTX 580.Bis dahin sind es nur ATI 7xxx Karten.Keine 6xxx oder 5xxx auch nicht im 2 3 oder 4er Verbund.
-
24. November 2012 um 8:11 Uhr #929679ischTeilnehmer
-
24. November 2012 um 9:11 Uhr #929681VTG01Teilnehmer
Die ersten test mit meiner 7750 laufen und ich kann nur sagen7750
Also mir wäre das ganz recht …Kanst du ein neues Thema anfangen in dem die Test alle aufgelistet sind. Soll ich mit den 5850er und 5870 und dem i7 auch Projekte testen? Ich könnte heute bzw. morgen Grakas umstecken. Unter der Woche geht das leider nicht da der rechner nicht bei mir ist.
-
24. November 2012 um 10:11 Uhr #929685ischTeilnehmer
Ja ich kann ein neues Thema aufmachen.Bislang habe ich aber nur hochgerechnet was in 24h ercruncht wird.Was wirklich bei rum kommt werde ich in 2-3 Tagen sehen dann hat man einen vernünftigen Ansatz.
-
24. November 2012 um 15:11 Uhr #929697ischTeilnehmer
in ca 15 Std habe ich 313000C gemacht.Sind dann 500k am Tag.Die app habe ich erst mal so pi mal Auge erstellt da muss ich noch einiges Testen.Was mir noch aufgefallen ist da waren einige WUs mit fast doppelter Laufzeit bei gleich Credits dabei.Ich weiß jetzt nicht ob das an den WU liegt oder an meiner Graka.
-
24. November 2012 um 15:11 Uhr #929696phil68Teilnehmer
Naja… weggeben wird sich nicht lohnen. Es schadet nie sowohl NV, als auch ATI zu haben 😉
Grüße Dirk
-
24. November 2012 um 15:11 Uhr #929695ischTeilnehmer
die GT 640 kannst wieder weg gebenDas ganze geht aber nur mit den neuen Beta Treiber.Wie das dann wieder bei linux aussieht weiß ich nicht.Wenn wir dann das System aufbauen muss es halt mit win7 sein.
-
24. November 2012 um 15:11 Uhr #929694phil68Teilnehmer
-
24. November 2012 um 16:11 Uhr #929699VTG01Teilnehmer
Welche 7750er hast du zum Testen?
-
24. November 2012 um 17:11 Uhr #929700
-
25. November 2012 um 8:11 Uhr #929714ischTeilnehmer
Leider habe ich mich mit den 500K am Tag vertan.Irgendwie läuft das auf den ATIs anders als auf den NV.Hatte ja neben bei noch Leiden laufen und das hat die ganze Sache aus gebremst.Die Leiden WUs die ich noch hatte habe ich noch zu ende rechnen lassen und dann nur noch POEM.
-
25. November 2012 um 19:11 Uhr #929743RenovatioTeilnehmer
Dann sind wir mal auf deine Resultate gespannt.
-
25. November 2012 um 22:11 Uhr #929759littledevilTeilnehmer
isch;499489 said:
DieseWie schaut die von der Lautstärker her aus? Was ist die min Lüfterdrehzahl?
-
25. November 2012 um 23:11 Uhr #929763ischTeilnehmer
Mir war die zu laut und ich habe einen Arctic Cooling Accelero S1 Plus mit einem 120 bequiet drauf gemacht.
Muss aber dazu sagen das ich ein silent Freak bin 🙂
Lüfterdrehzahl war min 30% aber wie viel rpm das waren weiß ich nicht.
-
26. November 2012 um 18:11 Uhr #929796ulvTeilnehmer
Finde ich total toll, dass du dich da so reinhängst. Danke!Optimierst du das System nur in Richtung Credits/Tag oder auch in Richtung Credits/Watt?Kannst du auch mal einen PCIe mit x1 probieren? Würde mich interessieren wegen dem Splitter.PS: Der gh-Wunschlisten-Link funktioniert leider nicht.
-
26. November 2012 um 18:11 Uhr #929797ischTeilnehmer
Hauptziel ist natürlich soviel Credit bei so wenig verbrauch wie möglich.gh habe ich mal geändert.Bei mir funzt der aber.Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M
-
26. November 2012 um 18:11 Uhr #929794ischTeilnehmer
Ich weiß garnicht so richtig wo ich anfangen soll.Als ersten könnt Ihr meine 500C/d Hochrechnung mal ganz schnell wieder vergessen.Die Einstellungen in der app.info waren ein Griff ins Klo und die neben bei laufenden CPU WUs haben die Sache noch verschlimmert.Dann hatte ich das Problem das er diese Nacht und Heute morgen abgestürzt ist.Ich habe jetzt mal ein paar Bios Einstellungen geändert und um 17.00Uhr eine neue Testphase angefangen.Sollte es wieder zu abstürzen kommen habe ich noch 2 andere Sachen in verdacht die ich dann halt noch mal testen muss.Danach kann ich die app.info noch mal etwas optimieren obwohl ich da im Moment keinen großen Spielraum mehr sehe.Dann mal hier ein paar Verbrauchswerte. CPU 3,7GHz GPU 800/800 app.ino 0.33/2/0.16[table “” not found /]
Die WU laufzeiten sind eigentlich 174xs und die 860K sind nur errechnet1750s:60=29,16min1440min:29=49,6549×6=294WUs294x2925C=859950Wie man sieht sollten es sogar noch etwas mehr sein.BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.Da in der Nacht aber noch ein paar CPU WUs liefen kommt das in etwa hin.Wie man sieht lastet eine GPU einen i7 @3,7GHz um die 30% aus was bedeutet das max 3 Gaka pro CPU Sinn machen.Dann habe ich da auch schon mal was zusammen gestellt.1 x Samsung SSD 840 Series 250GB, 2.5″, SATA 6Gb/s (MZ-7TD250BW)1 x Intel Xeon E3-1240V2, 4x 3.40GHz, Sockel-1155, boxed (BX80637E31240V2)1 x G.Skill DIMM 8GB PC3-12800U CL11-11-11-28 (DDR3-1600) (F3-1600C11S-8GNT)3 x Club 3D Radeon HD 7750, 1GB DDR3, VGA, DVI, HDMI (CGAX-7752Z)1 x ASRock Z77 Extreme3, Z77 (dual PC3-12800U DDR3)1 x Antec EarthWatts EA-450 Platinum, 450W ATX 2.32 (0761345-04740-1/0761345-04741-8)1 x Microsoft: Windows 7 Home Premium 64Bit inkl. Service Pack 1, DSP/SB, 1er-Pack (deutsch) (PC) (GFC-02054)Bei einem Blade macht das ca 900€ Anschaffungskosten wobei ich noch kein Gehäuse mit eingerechnet habe aber dafür eine Win7 Version. Der verbrauch sollte dann im schlimmsten Fall 200W betragen.Wobei wir dann ca 2,4Mio c/d errechnen.Hierbei habe ich aber noch nicht den geringeren Takt des Xeons bedacht (weniger verbrauch aber wahrscheinlich auch weniger C/d).GPU untervolting kommt ja auch noch dazu.ToDo:wenn ich die abstürze in Griff habe-app.info Optimieren um mehr C/D raus hohlen-mit 0,5 und 5 WUs testen-mit 3,4GHz testen (Xeon Takt)-GPU untervolten [in Afterburn leider nicht möglich)-GPU untervolten und gleichzeitig OC-GPU im x4 Slot testen da das vorgeschlagene Board 1x 3.0 x161x 3.0 x81x 2.0 x4hat-event. eine 2Graka hohlen um CPU last und c/d zu testen.Wenn noch wer was wissen will immer Fragen. -
26. November 2012 um 18:11 Uhr #929798phil68Teilnehmer
Hallo isch 🙂
Auf meinem Q9550 und der HD 6850 habe ich in der app_info.xml mit 0.5 CPU die größten Erfolge erzielt.
BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.
Selbst 800k ist für eine Karte ne echte Hausmarke :respekt:
Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M
Es reicht schon, wenn du den Vergleich zwischen x16 und x4 hast… wird sicher kaum etwas ausmachen.
Grüße Dirk
-
26. November 2012 um 19:11 Uhr #929804ischTeilnehmer
Cf wird nicht benötigt.THX für den link werde die mal beobachten.
-
26. November 2012 um 19:11 Uhr #929801VTG01Teilnehmer
Schaut mal was da in der Bucht ist. Leider liefern die nicht nach Österreich, sonst würde ich da mitgehen…. und ob die Verpackung eine Beule hat sollte doch egal sein.PS: Ich habe gelesen dass die 7750 keine Crossfire Brücke benötigt und dennoch Crossfire läuft. Das sollte auch ein bisserl weniger “Monitorstecker” benötigen.
-
26. November 2012 um 19:11 Uhr #929799ischTeilnehmer
mit 0.5 kann ich auch mal testen bei das dann mit 3 Karten und einem i7 schon wieder schlecht aussieht.Dann müsste man auf 5 WUs senken was ich dann auch mal testen werde.
-
26. November 2012 um 19:11 Uhr #929800ischTeilnehmer
phil68;499592 said:
Hallo isch :)Auf meinem Q9550 und der HD 6850 habe ich in der app_info.xml mit 0.5 CPU die größten Erfolge erzielt.BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.
Selbst 800k ist für eine Karte ne echte Hausmarke :respekt:
Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M
Es reicht schon, wenn du den Vergleich zwischen x16 und x4 hast… wird sicher kaum etwas ausmachen.Grüße Dirk
Wobei die 7750 kaum mehr verbraucht als die GT640 und die war ja bis zur Einführung der beta Treiber die beste GPU was c/w angeht.
-
26. November 2012 um 19:11 Uhr #929806Sc0rpTeilnehmer
Re,
isch;499590 said:
Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75Mein einfachsten Fall einfach mit (derbem aber dünnem) Klebeband abkleben, allerdings muss man da unglaublich vorsichtig sein. Besser ist es einen PCIe x1-Riser zu nehmen (den oder einen anderen)
Sc0rp
-
27. November 2012 um 11:11 Uhr #929840littledevilTeilnehmer
VTG01;499595 said:
Leider liefern die nicht nach Österreich, sonst würde ich da mitgehen.Wenn Du den extra Versand nacxh Ö drauf legt, kann ich die für Dich ersteigern und schicke Sie Dir dann.
Bei interesse PN. Wir sollte nur nicht alle drauf bieten, sondern uns vorher absprechen. 😀 -
27. November 2012 um 18:11 Uhr #929901ischTeilnehmer
Leider gab es Heute morgen wieder einen Absturz.Habe dann mal auf 5WUs reduziert und immer noch 99% Graka last gehabt aber die Laufzeiten haben sich auf 1500s reduziert.Heute Mittag dann wieder einen.Habe jetzt auf 4 gestellt und die Auslastung liegt bei 97-98%.Sollte es jetzt immer noch abstürze geben weiß ich auch nicht mehr woran das liegen kann.Dadurch das jetzt nur noch 4 WUs laufen hat sich auch die CPU last auf 25%.So könnte man auch wieder 4Karten mit einem i7 betreiben.Was mich an der sache allerdings wundert das ich bei 4 WUs fast 100% und in anderen Foren sind es bei 6WU meist unter 90% ???Wie lange jetzt die Laufzeiten sind und wie viel c/d es geben wird schreibe ich später.Hatte bei 4 WUs auch wieder einen Absturz.Ich vermute mal das die CPU im Teillast Bereich durch dieses sch… offset gedönse nicht stabil ist. Dann gibt es leider schlechte Nachrichten:
Hi everybody,I have to apologize for the long period of silence regarding this topic, but I didn’t want to give any misleading information before we discussed the problem here.We are still waiting for our new server hardware, but unfortunately this won’t fix the problem here entirely.Fact is, these GPU calculations are running so rapid, that we have to evaluate real floods of information. We were talking about possibilities to send out more GPU work units, but at the moment there is no way to process it in time.I want to thank all of you for spending so much computing time. It’s absolutely okay to give your GPU power to another project now, there may be more use for it at the moment. The crystallization studies will still continue, but the follow-up projects with GPU support are not yet in a state to be sent out over the BOINC network, so the situation is not likely to get better in the near future.I hope you can understand this, and are still willing to support us.Best regardsThomas
Rechne grade meine letzten 4 WUsDie haben ca 1360s gebraucht bei 98% GPU und 25 CPU last.Verbrauch lag bei 85W.Wenn die WUs durch sind baue ich die Graka aus und rechne Leiden.
-
4. Dezember 2012 um 20:12 Uhr #930180ulvTeilnehmer
Ich würde gerne nochmal auf das Gehäuse zu sprechen kommen:
Die Lösung mit ITX Boards und (Non-GPU-) Xeon 1155 + Splitter lässt mich nicht mehr los.
VJoe said:
Darf ich mich da mal bezüglich des Gehäusebaus einschalten?Das wäre ja ein Traum. Bei deinen Qualitäten… sehr gerne. :d:
Mit den 150°-Alfer-Verbindern kann man wenn ich es richtig verstehe nur ein 12-Eck bauen, oder? Das würde vermutlich auch gut passen:
Also 6 ITX mit dem Gesicht (CPU+Kühler) nach innen um ein Netzteil und außen herum bis zu 24 Grakas. :-kRund würde mir aber schon auch sehr gut gefallen. Evtl. nur ein kleines rundes Gehäuse an dessen Rand die PCIe Steckplätze sind und die Grakas dann freifliegend drumherum in einem Gitter-Käfig, der bündig mit dem Lüfter (siehe unten) abschließt?
Ich hab jetzt auch schon einen Lüfter – ähm, besser müsste man wohl Gebläse sagen – gefunden:
http://www.ebmpapst.com/media/content/info-center/downloads_10/catalogs/update_2011_1/axial/Axialventilator_AC-HyBlade_DE.pdf
Das sind sehr sparsame Lüfter! Die gibt es mit 50cm bis fast 1 Meter Durchmesser. 😯
Kein Scherz die gibt es schon ab 90 Watt. Etwas gedrosselt sind es vermutlich nur 20-30 Watt. Total leise und zuverlässig. -
4. Dezember 2012 um 22:12 Uhr #930182GillianTeilnehmer
Optisch fände ich ein rundes oder auch ein 12-eckiges Gehäuse ‘richtig scharf’ 😉
Aber technsich wäre es doch sicher schlauer, wenn wir das ganze modularer aufbauen, ich kann mir nicht vorstellen, dass wir alle 24 GraKas an einem Netzteil betreiben wollen.
Oder doch?
Dann bin ich sofort für die 12-Eck Variante, kann dazu aber handwerklich kaum was beitragen 🙁
Gruß
Gunnar
-
5. Dezember 2012 um 8:12 Uhr #930186JabbaTeilnehmer
Nachdem das Thema wieder Fahrt auf nimmt, darf ich auch mal meinen Senf dazu beitragen.
Da ich ja noch aus diversen Testbauten einen 4fach PCIe Splitter habe und demnächst ein Mini ITX 1155 Board mit Xeon ins Haus steht, werde ich selbiges mit dem Splitter bestücken und testen.
Diese Splitter funktionieren nicht auf jedem Board. Bspw. können unsere Mini ITX Platinen im EMK2 nicht mit dem Splitter umgehen – wird einfach nicht erkannt. Andere µATX Boards funktionieren problemlos.
Ein Nachteil ist der Preis des Splitters, der seinerzeit bei deutlich über €200 lag. Wer schön sein will muß eben leiden.Bei der Länge der PCIe Kabel kann ich leichte Entwarnung geben. Ich konnte bereits zwei ineinander gesteckte PCIe Verlängerungen von jeweils ca. 17cm erfolgreich betreiben. Allerdings auch hier wieder die Einschränkung: geht nicht in jedem Slot, nicht mit jedem Board, nicht mit jedem Kabel. Scheinbar ist man hier am Ende der Spezifikation.
Was mir beim Bau solcher Graka-Gräber immer wieder in die Quere kam ist die Höhe der Dualslotkühler. Single Slot Varianten sind hierbei deutlich angenehmer zu verbauen und auch zu kühlen. Wahlweise auch ein Singleslot Wasserkühler.
Mal ein kleiner Praxiswert aus dem Bitcoinmining:
7 Rechner bestückt mit jeweils 4 x 5870 erzeugten trotz geschlossenem Gehäuse, 6 Lüftern je Gehäuse und zwei extern anblasenden Ventilatoren plus einer Klimaanlage eine Tischtemperatur von weit über 40°. Die Aura rund um die Rechner war nur noch als ungemütlich zu beschreiben. 😉
Kein Wunder bei 7 KW Abwärme….Gruß
Jabba
-
5. Dezember 2012 um 12:12 Uhr #930194ulvTeilnehmer
Das hört sich vielversprechend an! Hoffentlich findet sich ein ITX wo der Splitter läuft.
Mir würde mitlerweile die Lösung mit den 6 ITX in der Mitte am allerbesten gefallen. Also die Lösung mit den CPU Kühlern nach innen. Und dem Splitter auf der Rückseite vom ITX. Das muss dann auch nicht mehr rund sein. Auf der Rückseite der ITX wären dann die 5 PCIe-Slots montiert die alle nach außen zeigen. (Je GPU wären dort etwa 4cm Platz). Das würde mit einem einzigen ITX schon funktionieren und kann dann mit der Zeit erweitert wedern bis evtl. der Stern voll wird. Das Netzteil (mehr als 1,5 kW kommt für mich nicht in Frage!) kann dann ja auch unten in eine Ecke und in die andere Ecke der Switch, SSD etc.
Wenn ich mich nicht verrechnet habe dann ginge das immer noch mit normalen PC Abmaßen also ca. 60cm Höhe, 60cm Breite und ca. 30cm Tiefe ab.Und ich will unbedingt so einen Mörder-Lüfter! 😀
-
5. Dezember 2012 um 12:12 Uhr #930193x20011Teilnehmer
Jabba;499991 said:
Mal ein kleiner Praxiswert aus dem Bitcoinmining:
7 Rechner bestückt mit jeweils 4 x 5870 erzeugten trotz geschlossenem Gehäuse, 6 Lüftern je Gehäuse und zwei extern anblasenden Ventilatoren plus einer Klimaanlage eine Tischtemperatur von weit über 40°. Die Aura rund um die Rechner war nur noch als ungemütlich zu beschreiben. 😉
Kein Wunder bei 7 KW Abwärme….Ich habe mich eben mal in das Thema bitcoinmining eingelesen.Lohnt sich das bei dem Hardware Aufwand und den stromkosten überhaupt?
-
5. Dezember 2012 um 12:12 Uhr #930195JabbaTeilnehmer
@x20011
Seit Mitte diesen Jahres macht es kaum noch Sinn mit Grakas zu rechnen. Die Stromkosten sind einfach zu hoch. Es sei denn Du spekulierst auf massiv steigende BTC Kurse.
Ansonsten brauchst Du eine Stromflat.
Ich selbst habe bereits auf FPGAs umgestellt. Im Januar / Februar zündet die nächste Evolutionsstufe – dann kommen ASICs. -
5. Dezember 2012 um 13:12 Uhr #930196littledevilTeilnehmer
ulv;499981 said:
Das sind sehr sparsame Lüfter! Die gibt es mit 50cm bis fast 1 Meter Durchmesser. :shock:……Etwas gedrosselt sind es vermutlich nur 20-30 Watt. Total leise und zuverlässig.
hast Du die schon mal Live erlebt?
-
5. Dezember 2012 um 18:12 Uhr #930207ulvTeilnehmer
littledevil;500001 said:
hast Du die schon mal Live erlebt?Im Datenblatt steht 90 Watt bei 560 Umin => 50 dB(A) bei ca. 3000m³/h (1800CFM) (Bei einem Druck von 29 Pa = 2,858 Aqmm)
Zum Vergleich die 8 Lüfter vom E=mk² haben 8*3,6 Watt = ca. 30 Watt haben dabei auch schon je 38 dB(A) bei je 175 m³/h
=> Bei 8 Lüftern macht das +9bB = 47dB(A) bei ca. 700 m³/h (Bei einem Druck von 5,484 Aqmm).Den großen Lüfter kann man aber noch um einiges drosseln, wir brauchen ja nicht 3000m³/h (der E=mk² braucht ja tatsächlich auch nur so 300 m³/h)
Der große Lüfter wird gedrosselt also um ein vielfaches leiser sein als der E=mk².BTW: Die Lüfter kennst du von Klimaanlagen an jedem Supermarkt. Ich kenne die bzw. ähnliche aus dem Rechenzentrum. Ist halt ein besserer Standventilator…
-
6. Dezember 2012 um 11:12 Uhr #930233littledevilTeilnehmer
Ist das dann ein AC oder DC-Lüfter?
-
6. Dezember 2012 um 12:12 Uhr #930234
-
6. Dezember 2012 um 15:12 Uhr #930243JabbaTeilnehmer
Kann man per Kondensator machen.Dann allerdings nicht regelbar.
-
6. Dezember 2012 um 15:12 Uhr #930242littledevilTeilnehmer
Womit willst Du die drosseln ulv?
-
6. Dezember 2012 um 16:12 Uhr #930246ulvTeilnehmer
Die Lüfterdrehzahl kann man z.B. mit so etwas steuern:http://www.conrad.de/ce/de/product/084529/Aber auch z.B. aller Dimmer für Hochvolt-Halogen.
-
6. Dezember 2012 um 22:12 Uhr #930256RenovatioTeilnehmer
Bin mal auf den Test des Lüfters gespannt. ^^
Wäre sicherlich eine gute Alternative gegenüber den kleineren Lüftern. -
9. Dezember 2012 um 12:12 Uhr #930354VJoe2maxTeilnehmer
@ulv: Hast natürlich recht mit den Alfer-Winkeln. Ein Zwölfeck müsste es werden. Das würde aus meiner Sicht für zwölf ITX-Boards oder µATX-baords mit je einer Karte (ITX) oder zwei Karten (µATX) sprechen. Von der Komplexität her wäre der Aufbau so sicher einfacher und weniger Fehleranfällig als mit Splittern, es könnten sich Viele mit einem ganzen System beteiligen und die CPU-Performance pro Board wäre nicht so kritisch. Insgesamt kann man auf billigere Komponenten setzen und muss nicht auf irgendwelche, wo möglich anfälligen Splitterkonstrukte zurückgreifen. Wenn das dann irgendwann nicht reicht baut man halt ein zweites Stockwerk mit weiteren zwölf ITX-Bays drauf. Das Belüftungskonzept mit einem zentralen Riesenlüfter könnte man dahingehend denke ich sogar beibehalten.
-
21. Dezember 2012 um 18:12 Uhr #930925Obi WanAdministrator
vor Weihnachten geht nix mehr, oder ist das Projekt bis ins nächste Jahr auf Eis gelegt ?
-
21. Dezember 2012 um 22:12 Uhr #930942RenovatioTeilnehmer
Wird sicherlich noch was dauern bis hier weitergeht. Bin mal aber gespannt auf die Recherchen. 😀
-
21. Dezember 2012 um 22:12 Uhr #930935littledevilTeilnehmer
Wir sind ja noch in der Recherchephase… 😉
Ich würde sogar behaupten, das da bis zum Penthalon noch nix fertig ist… #-o -
30. Dezember 2012 um 12:12 Uhr #931221ulvTeilnehmer
VJoe2max;500174 said:
@ulv: Hast natürlich recht mit den Alfer-Winkeln. Ein Zwölfeck müsste es werden. Das würde aus meiner Sicht für zwölf ITX-Boards oder µATX-baords mit je einer Karte (ITX) oder zwei Karten (µATX) sprechen. Von der Komplexität her wäre der Aufbau so sicher einfacher und weniger Fehleranfällig als mit Splittern, es könnten sich Viele mit einem ganzen System beteiligen und die CPU-Performance pro Board wäre nicht so kritisch. Insgesamt kann man auf billigere Komponenten setzen und muss nicht auf irgendwelche, wo möglich anfälligen Splitterkonstrukte zurückgreifen. Wenn das dann irgendwann nicht reicht baut man halt ein zweites Stockwerk mit weiteren zwölf ITX-Bays drauf. Das Belüftungskonzept mit einem zentralen Riesenlüfter könnte man dahingehend denke ich sogar beibehalten.Sorry, für die späte Antwort. Bei mir war einfach gnadenlos viel los.Die Splitter sind von Peter ausgiebig getestet worden und laufen sehr stabil. Die sehr flexiblen auf Plastik gedruckten Leitungen sind für die Ewigkeit. Auch logisch ist der Splitter eine sehr saubere Lösung trennt er doch die PCIe x4 nur in einzelne PCIe x1 auf. Das ist kein Murks sondern mal einen schöne und Software-Transparente Lösung. Solche Splitter-Chips sind auf praktisch jedem Mainboard drauf.Zumindest Dirk und ich wollen nicht nur einen Rechner von der Stange und gerade die Splitter machen meiner Meinung nach den Unterschied so wie die PICOs und Samuel im E=mk² den Unterschied machen. Ich möchte, dass das einfach auch beeindruckend und besonders aussieht.So zum Beispiel:Das Gehäuse könnte auch mit bis zu 6 ITX noch 12-eckig sein. Man müsste nur achten, dass alle Teile symmetrisch sind, dann kann man das so oder so ähnlich lasern oder fräßen lassen. Was denkst du, ist das machbar?Zugegeben das ist nicht die günstigste Lösung, aber das Gehäuse incl. Splittern könnte man vermutlich über mehrere Jahre so beibehalten und nur die ITX und Grakas tauschen. Schön wäre es wenn das langsam wachsen kann und auch die etwas ältere Hardware noch bei Bedarf mitrechnen kann.Mehr als 24 Grakas machen aber wohl keinen Sinn. :DIch denke, dass langfristig bei allen GPU-Projekten die CPU-Last weiter sinken wird. Die Probleme sind meiner Meinung nach nur in der Umstellungsphase gegeben. Und dann werden hoffentlich 4 GPUs auch an einer (sehr) keinen CPU laufen. Die PICOs bringen ja eh auch nur so 70 Watt! Und 12 ATX Netzteile kommen wohl nicht recht in Frage, oder?
-
30. Dezember 2012 um 12:12 Uhr #931224ischTeilnehmer
Mit den Splittern wird das bei POEM wohl nicht werden.IM P3D Forum haben einiger reichlich getestet was am meisten C/D bringt.http://www.planet3dnow.de/vbulletin/showpost.php?p=4706929&postcount=1145http://www.planet3dnow.de/vbulletin/showpost.php?p=4708146&postcount=1230http://www.planet3dnow.de/vbulletin/showpost.php?p=4710047&postcount=1275http://www.planet3dnow.de/vbulletin/showpost.php?p=4709823&postcount=1267
-
30. Dezember 2012 um 13:12 Uhr #931230VJoe2maxTeilnehmer
Hmm – wären die Grakas dann die Striche außen? Da müsste dann noch was außen rum, damit die Karten nicht so frei in der Gegend rum hängen – oder?Wenn die Karten nach innen zeigen würden, wäre das kühltechnisch sicher einfacher zu bewerkstelligen. Machbar ist jedenfalls fast alles ;). Da muss man auch nicht viel fertigen lassen – höchstens zur Zeitersaprnis. Die Blechtafeln kann man sich z.B. zuschneiden lassen – ist aber mehr Zeitersparnis, als wirklich nötig. Evtl. hab ich auch bald ne Tafelshere – da hätte sich das Thema auch erledigt. Dass ein Gehäuse, welches komplett aus Alu-Profilen und Alu-Platten besteht, nicht ganz so billig, wie irgendwelche PC-Gehäuse von der Stange sein wird, versteht sich. Dafür ist das Ganze aber stabil, erweiterbar und genau auf die Hardware abstimmbar. Insgesamt sollte so eine Konstruktion auf jeden Fall deutlich billiger sein, als wenn man sich da was Individuelles komplett anfertigen lässt. Abgesehen davon kann man so auch problemlos erweitern und umbauen.Wenn ihr da schon ein konkretes Konzept im Kopf habt, sollten wir uns vllt,. in absehbarer Zeit mal treffen und die Details besprechen, oder ne kleine Planungs-Session machen ;).Wäre dann natürlich gut, wenn zumindest so ein Splitter zum Maß nehmen da wäre. Der Rest ergibt sich dann.Was die Netzteile angeht: Könnte mir durchaus vorstellen, dass man sechs oder zwölf-ATX-Netzteile formschön unterbringen kann, aber ich glaube das ist doch etwas zu viel des Guten – oder? Hinsichtlich Effizienz wird das denke ich eher schwierig.
-
30. Dezember 2012 um 13:12 Uhr #931226schannallTeilnehmer
ulv;501096 said:
Die PICOs bringen ja eh auch nur so 70 Watt! Und 12 ATX Netzteile kommen wohl nicht recht in Frage, oder?Warum nicht einfach 2 oder 3 ATX Netzteile und da dann einfach auf 4-6 Boards verteilen?
sC
-
30. Dezember 2012 um 14:12 Uhr #931237littledevilTeilnehmer
@isch dann müsste die ja @x1 stark einbrechen, oder?
-
30. Dezember 2012 um 15:12 Uhr #931243ischTeilnehmer
Ja vermute ich.Es bringt ja nicht wenn 4 Stück @ x1 nur so viel wie zwei @ x16 schaffen.Und wenn ich das richtig sehe sind das doch nur PCIe Splitter und keine PCIe Gen3 was ja dann noch mal eine extreme Reduzierung der Bandbreite wäre.
-
30. Dezember 2012 um 16:12 Uhr #931246littledevilTeilnehmer
also eher in richtung 3 PCIe 3.0 x16 steckplätze pro Baord planen`
z.b. MSI Z77A-GD65
-
30. Dezember 2012 um 18:12 Uhr #931253LukasTeilnehmer
Hi ich wollte mal fragen ob ich mich wärend den Planungen “einschleichen “dürfte und euch helfen dürfte.
Also Wir wissen jetzt dass wir ein mainboard brauchen dass wenig Strom zieht bzw keine Unnötige Funktionen haben soll , wass drei PCie x16 anschlüsse haben soll und ein i7 oder Xenon drauf soll
-
30. Dezember 2012 um 18:12 Uhr #931254Obi WanAdministrator
ich denke Lukas, jeder ist hier willkommen 😉
-
30. Dezember 2012 um 18:12 Uhr #931257LukasTeilnehmer
@ Obi thxBraucht ihr vllt iw Werte von i7 3770k und ich hätte da noch ein Mainboard http://geizhals.de/749609 Halten wir jetzt noch ein einer ” runden ” Lösung fest ? und ham wir uns schon um Kühlung der Cpu befasst weil im eim geschlossenen Case wenn der Lüfter oben ned ist kann der CPU schon anfangen zu schwitzen. Ich fande die Idee mit mehreren case von jeweils 4 Gk drin sind auch ned so schlecht
-
30. Dezember 2012 um 19:12 Uhr #931263ischTeilnehmer
Hallo Lukas und Willkommen an Boarddein verlinktes Board ist ja sogar µATX was natürlich noch besser ist.Gigabyte ist leider für nicht Stromsparende Boards bekannt.Das MSI ist dagegen schon Stromsparend.Ich habe das GD55 und das liefert gute werte.
-
30. Dezember 2012 um 19:12 Uhr #931264VTG01Teilnehmer
hmm, Auch mal ein Vorschlag von mir:
ASROCK Z77 WS,
Das Board hat einen zusätzlichen Stromamschluss für die Karten, theoretisch passen dann auch 6 Grakas Single-Slot in X16 Steckplätze rein. Theroretisch sind auch 4 Single-Slots und 2 Dualslot Karten mit extra Stromstecker möglich. Als CPU bleibt wohl nur ein 3770K über.Es stellt sich die Frage ob man auch 2 Graka Projekte parallel rechnen kann – samt definition welche Graka wo rechnet. So wäre es möglich POEM zu optimieren und parallel ein 100% GPU-Projekt zu rechnen. So wäre es sicher möglich 6 GRAKAS in einem Rechner auszunutzen.
-
30. Dezember 2012 um 20:12 Uhr #931265ulvTeilnehmer
Dass Poem mehr Punkte/Tag macht je mehr die CPU glüht verstehen wir denke ich alle. Wie gut das auch für Punkte/Watt gilt ist für mich immer noch offen.
Nix gegen Poem aber ich denke wir müssen nochmal grundlegend entscheiden ob der neue vom Design her ein 100%-GPU Rechner werden soll oder bzw. oder auch ein Poem-CPU-GPU-Hybrid.
BTW: Wenn es bei Poem einen deutlichen Unterschied zwischen Single-, Dual- und Tripple Channel RAM gibt dann ist vermutlich auch der PCIe x1 eine große Poem-Bremse.
-
30. Dezember 2012 um 21:12 Uhr #931266ischTeilnehmer
Ja Quadchannel auf einem x79 ist am schnellsten und schneller RAM bringt auch noch mal einiges.
Aber die x79er Boards/CPU verbrauch ja so viel.
Hier noch der 3930k@3,8GHz, MSI X79A-GD45 (8D), 16GB DDR1600 Quadchannel mit 3 x HD7750@900MHz.
GPU1, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
GPU2, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
GPU3, PCIe3.0 x8, mit 6WUs, GPU-Last 91%, 2230s, gibt 680k
= 2160k/Tag bei 270WHier mal mein Sys
i7 3770k 4,3GHz @ 1,176V
MSI Z77A-GD55
Crucial SATA RealSSD C300
16GB Crucial Ballistix Tactical 1600MHz @ 8-8-8-24-1T @ 1,4V
HIS Radeon HD 7870 GHz Edition @ Arctic Cooling Accelero S1 Plus mit 2 Noiseblocker NB-eLoop S-Series B12-1 @ 5V
FSP Fortron/Source Aurum Gold 400WIdle 43W-44W
Prime95 129W
8x Leiden in einer VM 110Wmacht noch 160W für 3 Grakas die aber bei weitem nicht so viel verbrauchen.
Wenn ich jetzt noch runter takten und die 7870 raus nehme bin ich bei weit unter 100W
-
30. Dezember 2012 um 22:12 Uhr #931271littledevilTeilnehmer
Naja soviel ist das doch gar nicht. Du müßtest den 3770k ja auf über 5GHz laufen lassen, um eine vergleichbare Leistung zu erzielen… :devil:
Ich denkemal, das man mit optimeirungen da schon einiges heraus holen kann.
Habe leider immer noch keine CPU für mein GIGABYTE X79-UD3
-
31. Dezember 2012 um 11:12 Uhr #931289BurntimeTeilnehmer
Wieviel CPU-Leistung bräuchte ich denn um mit 12 Grafikkarten zu Arbeiten?Würden 6 Xeon Kerne mit 2 GHZ ausreichen?
-
31. Dezember 2012 um 14:12 Uhr #931297LukasTeilnehmer
@above
Irgendeiner hat ausprobiert dass der 3770k mit 1 GK 30 % Auslastung hatte und mit 2 ca. 60 % ( sofern ich mich erinnern kann 😀 ) also 3 90 % und 4 waren 120 % ( geht ned ) der 37k hat 4 kerne und kann drei Gpus nutzen also müsste ( stimmt auch nicht kommt auf CPU an) der Xenon 5 schaffen. -
31. Dezember 2012 um 14:12 Uhr #931299ischTeilnehmer
Bei 2GHz verhungern dir die Grakas.Damit kannst nicht mal eine Karte ordentlich versorgen.Bei den Optimierten Anwendungen auf die ATI 7xxx und NV 6xx Karten wir auch viel CPU Power benötigt (da für diese aufgaben die GPU nicht geeignet oder zu langsam ist)
-
31. Dezember 2012 um 15:12 Uhr #931302LukasTeilnehmer
Wirf hier mal noch eine Idee in den Raum 😀
Headpipe Kühler wird aber bei der idee nix wenn mans aus der Perspektive nimmt
Schreibt euren Komments ruhig dazu
P.S Bin nicht sehr gut in Sketchup 🙂
-
31. Dezember 2012 um 16:12 Uhr #931307LukasTeilnehmer
@ ulv Meinst du dass allgemein oder spezifisch auf meine Zeichnung?
-
31. Dezember 2012 um 16:12 Uhr #931304ulvTeilnehmer
Also ihr würde euch bitten einen eigenen Thread für einen Poem-Only-Rechner aufzumachen.
Das passt aus meiner Sicht einfach nicht zusammen!
1) Wenn die CPU 100% Last hat dann kann man die nicht sinnvoll mit einer PICO-PSU versorgen! => jedes Board braucht dann ein eigenes ATX-Netzteil => Es macht meiner Meinung nach sehr wenig Sinn mehrere ATX-Netzteile in ein Gehäuse zu stecken. => Das ist irre aufwendig und kostet dann nur extra.2) Für diesen Thread wünsche ich mir ausschließlich eine Betrachtung Credits/Watt. Die ganze EMKx Idee lebt doch gerade davon effiziente Hardware anstelle der eigenen rechnen zu lassen (und nur im Wettkampf mal dazuzufeuern.) Und die Erfahrung aus dem EMK2-Projektk ist doch auch, dass die laufenden Kosten am Ende (fast) alles sind was zählt!
-
31. Dezember 2012 um 16:12 Uhr #931308ischTeilnehmer
Das Problem ist doch ehr welche sinnvollen Projekte brauchen bei Graka Nutzung so gut wie keine CPU???Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?Bei den Projekten sind dann auch wieder die dicken Grakas in vor teil aber die ziehen ja dann wieder so viel Strom.
-
31. Dezember 2012 um 17:12 Uhr #931315ulvTeilnehmer
Lukas;501187 said:
@ ulv Meinst du dass allgemein oder spezifisch auf meine Zeichnung?War nicht auf deine Zeichnung bezogen.
isch said:
Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?BTW: Die Meisterkühler haben bisher mehr als die Hälfte aller Credits bei PrimeGrid und Collatz errechnet. Und nur ca. 5% bei Poem.Im vergangenen Monat waren es sogar über 85% bei Prime und Collatz!Aber klar die Sinnfrage kann man hier schon stellen. Aber sind es nicht die MK-User selbst die hierauf auch die Antworten geben?Aber wenn das so ist dann also ab jetzt hier uATX und Grakas.Sind dafür dann alle Antworten schon gepostet? Oder fehlt noch etwas.Ein kleines Gehäuse mit ATX-Netzteil, uATX-Board mit Xeon, und drei Grakas + SSD?Sollen wir dazu eine genaue Kaufempfehlung geben – oder kann das jeder selber basteln.
-
31. Dezember 2012 um 17:12 Uhr #931311littledevilTeilnehmer
Sofern der P4 Strom direkt an einer 12V Schienen vom großen NT hängt, wird übers pico gar nicht so viel gezigen. Da sind eher die Grakas das Problem…
Jutn Rutsch :devil:
-
31. Dezember 2012 um 18:12 Uhr #931316ischTeilnehmer
ulv;501195 said:
isch said:
Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?BTW: Die Meisterkühler haben bisher mehr als die Hälfte aller Credits bei PrimeGrid und Collatz errechnet. Und nur ca. 5% bei Poem.Im vergangenen Monat waren es sogar über 85% bei Prime und Collatz!Aber klar die Sinnfrage kann man hier schon stellen. Aber sind es nicht die MK-User selbst die hierauf auch die Antworten geben?
Bei Collatz haben wir gestern 1,3Mio C gemacht.Davon hat Schildkroete 855k mit 5 x58xx und einer 7870 (meine ich hier mal irgendwo gelesen zu haben)Der Stromverbrauch liegt doch bestimmt bei 750W und mehr ?Mit einem POEM Blade/3Graka sollten über 2Mio drin sein.Wenn man ganz großzügig rechnet sollte ein Blade bei 200W liegen.Also C/W ist POEM zur zeit die Nummere uno.
-
31. Dezember 2012 um 20:12 Uhr #931317ThaRippaAdministrator
Naja wenn’s ein allgemeiner Challenge-Rechner werden soll, muss genug CPU-Leistung für alle erdenklichen Aufgaben da sein. Eine Spezialisierung macht meines Erachtens nach keinen Sinn. Klar kann jeder ein Board mit 3 Grakas und einem i7 bestücken und ein ATX Netzteil dran hängen. Was ich von euch aber erwartet hätte ist ein Gehäuse mit mehreren davon oder ein modulares Design.
-
31. Dezember 2012 um 20:12 Uhr #931318ulvTeilnehmer
Also gut:[SIZE=”3″]Xeon CPU Sockel 1155: CPU: Quad-Core “Ivy Bridge” Fertigung: 22nm[/SIZE]263€ : Intel Xeon E3-1265LV2 (_mit_ IGP), 4x 2.50GHz, TDP 45W -> http://geizhals.de/?cat=cpuppro&v=l&sort=r&xf=25_4~2_22~4_45#xf_top225€ : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W -> http://geizhals.de/?cat=cpuppro&bpmax=&asuch=&v=l&plz=&dist=&xf=2_22~25_4&sort=r293€ : Intel Xeon E3-1270V2 _(keine IGP), 4x 3.50GHz, TDP 69W -> http://geizhals.de/778205%5BSIZE=”3″%5DMainboard: Chipsatz Z77 (uATX geht nicht recht, weil bereits der 2. PCIe dort scheinbar elektrisch immer nur 8x ist)[/SIZE]Edit: Jetzt wo die ATX auch fast alle nur 8+8 können füge ich die uATX evtl. doch noch dazu – mal sehen…ATX mit 2x PCIe 3.0 x16 + 1x PCIe 2.0 x4(x16) der ist ungefähr so schnell wie ein PCIe3.0 x2_96€: MSI Z77A-G45 -> http://geizhals.de/746836 (Im Handbuch nicht beschrieben :x; vermutlich 16, 8+8, 16+2, “8+8+2”)114€: MSI Z77A-GD55 -> http://geizhals.de/746837 (Im Handbuch nicht beschrieben :x; vermutlich 16, 8+8, 16+2, “8+8+2”) <- von isch121€: Biostar Hi-Fi Z77X -> http://geizhals.de/838352 (Im Handbuch 16, 8+8, 16+2, 8+8+2)ATX mit 3x PCIe 3.0 x16146€: MSI Z77A-GD65 -> http://geizhals.de/746838 __(Im Handbuch nur 16, 8+8, 8+4+4)162€: MSI Z77 MPOWER -> http://geizhals.de/823426 (Im Handbuch nur 16, 8+8, 8+4+4)184€: MSI Z77A-GD80 -> http://geizhals.de/756504 __(Im Handbuch nur 16, 8+8, 8+4+4)ATX mit 4x PCIe 3.0 x16*253€: ASUS P8Z77 WS______ -> http://geizhals.de/749614 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8) 358€: ASUS P8Z77-V Premium -> http://geizhals.de/771794 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8) ATX mit 5x PCIe 3.0 x16* bis 4 Grakas dual Slot (ab 5 Grakas zwei davon single Slot)215€: ASRock Z77 WS_____ -> http://geizhals.de/837323 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???) 259€: ASRock Z77 Extreme9 -> http://geizhals.de/775925 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???)[SIZE=”3″]Grafikkarte: Nvidia GT640 (GK107)[/SIZE]65-100€ -> http://geizhals.de/?cat=gra16_512&xf=1439_GT+640#xf_topjetzt auch mit 42 Watt!? -> http://geizhals.de/846273auch single Slot + low Profile -> http://geizhals.de/?cat=gra16_512&xf=1439_GT+640~1481_1~351_low+profile#xf_top* Was ich komisch finde ist, dass der Z77 eigentlich nur 16 PCIe Lanes zur CPU hat, wie kann der dann 8+8+8+8 machen -> http://de.wikipedia.org/wiki/Intel-7-Serie#Modell.C3.BCbersichtPS: Die Angaben aus dem Handbuch gelten natürlich nur für Ivy Bridge CPUs -> sonst gibt es ja gar keine PCIe 3.0!
-
1. Januar 2013 um 3:01 Uhr #931319Obi WanAdministrator
schade, das wir kein vb4 Forum haben, sonst würde ich dem letzten Beitrag ein LIKE verpassen.schöne Zusammenfassung UlV
-
1. Januar 2013 um 10:01 Uhr #931321ischTeilnehmer
Frohes neues Jahr an alle
@ ulv da hast ja schon mal eine super Zusammenstellung gemacht.
263€ : Intel Xeon E3-1265LV2 (_mit_ IGP), 4x 2.50GHz, TDP 45W zu teuer und viel zu wenig Takt
225€ : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W ausreichend Takt “günstiger” Preis
293€ : Intel Xeon E3-1270V2 _(keine IGP), 4x 3.50GHz, TDP 69W viel zu teuer für 100MHz mehrDer 1240V2 ist die bester wahl von der P/L her und ein bisschen OC sollte ja auch noch gehen.
Beim Board brauchen wir nur 3 PCIE Steckplätze weil die CPU nicht mehr schafft.
Wenn ich das jetzt richtig sehe bei deiner Auflistung ist ja nur max 16+8+8 bei 3 Graka das höchst mögliche.
253€: ASUS P8Z77 WS
358€: ASUS P8Z77-V Premium
215€: ASRock Z77 WS
259€: ASRock Z77 Extreme9Vom Preis her fällt das ASUS P8Z77-V Premium ja schon mal raus.Beim verbrauch ist Asus ja eigentlich nicht die erste wahl müsste man dann halt mal testen.
Die GT640 kannst leider vergessen.Bevor ATI die neuen Treiber raus gebracht hat war die mal die beste Karte für POEM.
Die 7750er wischen mit den GT640 den Boden auf.
Doppelter Output bei nur ein paar Watt mehr.Aber Achtung diese gilt nur mit den aktuellen Beta Treibern wie das bei Linux aus sieht weiß ich nicht.
Hier noch mal SingleSlot 7750Beim RAM sollte es dann was schnelles sein
1600MHz
2x 8GB 1,35V CL9-9-9-24, very low profile <- liegen hier bei mir schon rum bin aber noch nicht zum testen gekommen. Crucial Ballistix Sport VLP
2x 8GB 1,35V CL8-8-8-24, low profile
Crucial Ballistix Tactical LP1866MHz
2x 8GB 1,35V CL11-11-11-27
Mushkin Enhanced Blackline Frostbyte -
1. Januar 2013 um 11:01 Uhr #931328ischTeilnehmer
Waren glaube um die 40W für eine 7750
-
1. Januar 2013 um 11:01 Uhr #931324phil68Teilnehmer
Gesundes Neues Jahr 🙂
Danke für die Zusammenstellung Christian :d:
Hab zwar wenig Zeit, wollte denoch fix etwas dazu schreiben. Ich würde trotzdem die ITX Variante bevorzugen. Nur weil bei Poem der Hardwarehunger so groß ist, schmeiß ich nicht alles über den Haufen. Andere Projekte laufen super nebenher und brauchen keinen ganzen Kern dafür.
Edit: Jetzt wo die ATX auch fast alle nur 8+8 können füge ich die uATX evtl. doch noch dazu – mal sehen…
GPU1, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
GPU2, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
GPU3, PCIe3.0 x8, mit 6WUs, GPU-Last 91%, 2230s, gibt 680k
= 2160k/Tag bei 270WMit dem Mehrverbrauch der Full-ATX gegenüber ITX, kann ich 2 GT640 betreiben. Dabei kann ich in Kauf nehmen, dass die etwa nur 500k @x1 schaffen. Abgesehen davon glaube ich nicht, dass wir uns nur auf ein Projekt konzentrieren sollten. Es wäre möglich immer 2 ATI mit 2 NV zu betreiben und 2 verschiedene GPU Projekte zu rechnen. Wirklich sinnvolle Projekte gibt es leider nur für NV Karten(POEM & GPUGrid). Ich werd sicher nicht mehr Collatz oder Primzahlen berechnen… In der Anfangszeit, als wir noch zu viert oder fünft gerechnet haben, war es wichtig ein Projekt zu wählen, dass ordentlich Credits abwirft. Jetzt wo wir eine beachtliche Zahl an Mitgliedern haben, könnten wir die Projekte nach anderen Kriterien auswählen :-k
Mein Xeon 1230 V2 läuft mit 100MHz weniger als der 1240 und liegt unter 200€. Wenn das neue Board kommt, kann ich mal testen wie weit der geht. Generell sollten wir auf die IGP verzichten.
Die GT640 kannst leider vergessen.Bevor ATI die neuen Treiber raus gebracht hat war die mal die beste Karte für POEM.
Die 7750er wischen mit den GT640 den Boden auf.Hallo isch, wie sieht das bei anderen Projekten aus? Ich vermute mal, dass die 7750 ca. 50W unter Volllast braucht, was dann immerhin 20W mehr als die GT640 sind :-k Das relativiert den doppelten Output auch wieder. Ich lass mich aber gern belehren, da ich noch keine Erfahrung mit der 7750 habe.
Grüße Dirk
-
1. Januar 2013 um 12:01 Uhr #931331ischTeilnehmer
Wo für 32GB RAM ?16GB sollten doch völlig reichen.
-
1. Januar 2013 um 12:01 Uhr #931329ulvTeilnehmer
Hab mir eben nochmal ein paar X79 Mainboards angesehen. Die machen ja Quad-Channel-RAM aber dafür sind die alle (solange es nur Sandy-Bridge-CPUs dafür gibt) nur mit PCIe 2.0 unterwegs. Dann wären aber selbst die PCIe 2.0 16+16+16 nur mit PCIe 3.0 8+8+8 vergleichbar.
=> Einziger Vorteil der “doppelt” so schnelle RAM. Dafür aber langsamere PCIe und “alte” CPUs.Dann wird es langsam übersichtlicher:
225€ : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W -> http://geizhals.de/781379?v=l
215€: ASRock Z77 WS -> http://geizhals.de/837323 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???)
400€: 3-4 Stück HD 7750 Grakas: http://geizhals.at/de/?cat=gra16_512&xf=1440_HD+7750#xf_top
240€: Extrem schneller Speicher: 4x8GB DDR3 2400 CL10 -> http://geizhals.at/de/?cat=ramddr3&xf=254_2400~256_4x~1454_8192~255_10#xf_top
150€: ATX Platinum Netzteil -> http://geizhals.at/de/?cat=gehps&xf=1248_600%7E366_abnehmbare+Anschl%FCsse%7E1119_80+PLUS+Platinum#xf_top
—–
1230€ + Gehäuse, CPU-Kühler, (Lüfter für Grakas etc.)Der Speicher scheint mir dann neben der CPU das Bottleneck des Rechners zu sein. Dann darf der auch ein wenig heizen, oder?
Mit mehr als 2400 gibt es leider nur 4GB Module und das macht dann bei 4 Slots nur max 16 GB. Zu wenig?Die 4. Graka könnte man für Races bei Collatz und Prime gut brauchen.
Ob die 4 Grakas UC oder 3 Grakas OC besseres Credit/Watt Verhältnis haben müsste man auch erst noch testen. Auf die 100€ kommt es dann aber auch nicht mehr an.Ich trage mal noch die geposteten Messwerte zusammen. Evtl. müssen wir dann nix mehr ausprobieren sondern können gleich starten. Pentathlon ist ja schon im Mai. 😉
-
1. Januar 2013 um 13:01 Uhr #931336ischTeilnehmer
POEM brauch so gut wie nichts an RAM16GB Reichen locker.Selbst bei 8x yoyo ecm (die dicken Dinger) reicht das noch wenn wir de CPU mal bei Challenges brauchen.Tante Edit:Können die Xeons überhaupt so hohe Taktraten beim RAM?Lassen die sich überhaupt beim RAM übertakten?
-
1. Januar 2013 um 13:01 Uhr #931334ulvTeilnehmer
Vergleiche richtig zitiert:
http://www.planet3dnow.de/vbulletin/showpost.php?p=4706929&postcount=1145
http://www.planet3dnow.de/vbulletin/showpost.php?p=4708146&postcount=1230
http://www.planet3dnow.de/vbulletin/showpost.php?p=4710047&postcount=1275
http://www.planet3dnow.de/vbulletin/showpost.php?p=4709823&postcount=1267[TABLE]CPU | RAM | CPU-Load | GPU-Load | PCIe 3.0* | Grakas | Credit/Tag/Graka | Ergebnis
CPU i7 (SandyB) 6x 3,2 | ? | 50% | 97% | 8+8 | 2 x HD7750@900MHz | 790k | mit je 6 WUs, Laufzeit 32min, Verbrauch 220W.
CPU i7 (SandyB) 6x 3,2 | ? | 75% | 94% | 8+8+4| 3 x HD7750@900MHz | 702k | Laufzeit GPU 0 + GPU 1 ca 36min
|||||| 617k | Laufzeit GPU 2 ca 41min, Verbrauch 255W.
|
CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | 23% | 99% | 8 | 1 x HD7750@900MHz | 990k | Laufzeit 1530sec
CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | 50% | 97% | 8+8 | 2 x HD7750@900MHz | 855k | Laufzeit 1770sec
CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | ? | ? | 8+4 | 2 x HD7750@900MHz | 860k | GPU-0 Laufzeit 1758sec
|||||| 813k | GPU-1 Laufzeit 1860sec
CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | ? | 92% | 8+8+4 | 3 x HD7750@900MHz | 740k | GPU1, 2050s
|||||| 740k | GPU2, 2050s
|||||| 680k | GPU3, 2230s, Verbrauch bei 270W
|
CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Dual | | | 16 | 1x HD7770 (1050MHz) | 841k
CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Dual | | | 8 | 1x HD7770 (1050MHz) | 834k
CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Single | | | 16 | 1x HD7770 (1050MHz) | 614k
CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1066 Dual | | | 16 | 1x HD7770 (1050MHz) | 784k
[/TABLE]
*bei SandyB läuft nur PCIe2.0 => nur halbe BandbreiteWas gibt es da zu lernen:
PCIe:
PCIe 3.0 x16 und x8 schenken sich selbst bei einer 7770 fast nix.
PCIe 3.0 x8 und x4 machen aber einen Unterschied auch bereits bei der 7750. => -5% bis -12% CreditsRAM: Bereits bei einer Graka (HD7770):
Single Channel RAM (-50% Bandbreite) => -27% Credits
RAM mit 1333 zu 1066 (-20% Takt) => -7% Credits
Je stärker die CPU belastet wird je kritischer wird logischerweise der RAM werden. -
1. Januar 2013 um 13:01 Uhr #931333VJoe2maxTeilnehmer
Würde es vllt. Sinn haben eine Hälfte mit nVidia-Karten und die andere Hälfte mit AMD-Karten auszustatten, um für versch. Projekte immer gut gewappnet zu sein und sich so nicht zu sehr zu spezialisieren? Oder ist das von der Aufgabenverteilung her schwierig?
-
1. Januar 2013 um 13:01 Uhr #931335ulvTeilnehmer
isch;501211 said:
Wo für 32GB RAM ?
16GB sollten doch völlig reichen.Flexibilität oder Poem only?
Wie viel RAM brauchen denn 4*6 Poem WUs?
Wenn das wenig ist, dann sollten wir den schnellsten RAM für das Board kaufen, den wir kriegen können:
4x4GB DDR3 2800MHz -> http://geizhals.de/847539
(Das Board kann angeblich sogar bis 3000MHz) -
1. Januar 2013 um 14:01 Uhr #931337
-
1. Januar 2013 um 14:01 Uhr #931338littledevilTeilnehmer
Ich hoffe Ihr habt schön gefeiert und seid gut rein gerutscht O:-)
Ist ja schon ein wildes Treiber hier :respekt:
@isch wieviel CPU power wird pro 7750 benötigt? Mehr Output als Gt640 würde ja heißen, das auch mehr CPU power nötig ist, oder?Grundsatzfrage wäre, welchen fertigstellungstermin wir anpeilen.
„Ivy Bridge-EN/EP“ mit bis zu 12 Kernen bei 130 Watt TDP scheint ja erst im Herbst zu kommen, aber man kann ja den Rest schon vorher fertig machen und dann die CPU tauschen -
1. Januar 2013 um 15:01 Uhr #931341LukasTeilnehmer
sry ganz ganz dumme idee 😀 aber was is mit Haswell oder dauert dass zu lange?
-
1. Januar 2013 um 15:01 Uhr #931344ischTeilnehmer
littledevil;501218 said:
Ich hoffe Ihr habt schön gefeiert und seid gut rein gerutscht O:-)Ist ja schon ein wildes Treiber hier :respekt:@isch wieviel CPU power wird pro 7750 benötigt? Mehr Output als Gt640 würde ja heißen, das auch mehr CPU power nötig ist, oder?Grundsatzfrage wäre, welchen fertigstellungstermin wir anpeilen. „Ivy Bridge-EN/EP“ mit bis zu 12 Kernen bei 130 Watt TDP scheint ja erst im Herbst zu kommen, aber man kann ja den Rest schon vorher fertig machen und dann die CPU tauschenBei 6Wus habe ich ca 30% CPU last auf meinem i7NV WUs brauchen mehr CPU als ATI.Auf einer GT 640 kannst aber nur 4 WUs laufen lassen.Im Endeffekt nimmt sich das nichts.
-
1. Januar 2013 um 15:01 Uhr #931343ulvTeilnehmer
isch;501216 said:
Können die Xeons überhaupt so hohe Taktraten beim RAM?Lassen die sich überhaupt beim RAM übertakten?In einem Forum scheint es so beschrieben zu sein.
Wenn nicht dann halt ein i7-3770K, 4x 3.50GHz -> http://geizhals.de/761779
Der i7-3770K kann es mit Sicherheit! -> http://www.intel.com/content/dam/www/public/us/en/documents/datasheets/core-i7-memory-suppliers-datasheet.pdfMit Intel XMP 1.3 geht es eigentlich direkt bis 2800. Ist schon ein großer Unterschied ob 1600 oder 2800! Vor allem dann, wenn es hauptsächlich auf die RAM-Performance ankommt. Das könnten 30% mehr Credits sein.
-
1. Januar 2013 um 16:01 Uhr #931348ischTeilnehmer
Ist es den möglich mit einem NT 2 Boards zu betreiben?@ ulv ja mit dem K würde das ja dann wieder gehen.Eventuell könnte man auch noch auf die neuen Haswell CPUs warten die sollen ja noch mal Effizienter sein als die IBs
-
1. Januar 2013 um 16:01 Uhr #931351littledevilTeilnehmer
isch;501224 said:
Bei 6Wus habe ich ca 30% CPU last auf meinem i7D.h. 3 Karten pro Board? Mit nem i7 3770k @4,3GHz
Oder einen 6 Kerner @3,8 GHz mit 4 Karten? -
1. Januar 2013 um 16:01 Uhr #931353ulvTeilnehmer
phil68;501204 said:
Hallo isch, wie sieht das bei anderen Projekten aus? Ich vermute mal, dass die 7750 ca. 50W unter Volllast braucht, was dann immerhin 20W mehr als die GT640 sind :-k Das relativiert den doppelten Output auch wieder. Ich lass mich aber gern belehren, da ich noch keine Erfahrung mit der 7750 habe.In diesem Post (3. Zeile der Tabelle) siehst du, dass die dritte 7750 nur 25 Watt mehr gebraucht hat. Auch wenn das evtl. nicht ganz genau stimmt ist die 7750 um einiges besser als die GT640. Selbst wenn die auch nur ähnlich sind vom Credit/GPU-Watt dann ist das doch immer besser, wenn wir weniger Hardwareteile, Kühler, etc. brauchen.
phil68 said:
Mit dem Mehrverbrauch der Full-ATX gegenüber ITX, kann ich 2 GT640 betreiben.Der i7 im ATX-Board ist bei Poem mit 3x 7750 dann vermutlich fast so schnell wie 6 oder gar 10 GT640@x0.5 (der Splitter ist ja nur PCIe 2.0) im ITX mit Splitter.
Ich würde für den Splitter und das Design schon mehr zahlen, aber wenn dann zusätzlich noch die Performance stark leidet dann will ich nicht mehr.
Und so viel Strom kann das ATX-Board doch auch nicht mehr brauchen als ein ITX mit gleicher CPU, RAM und Chipsatz, oder?
Wenn das alles klappt dann macht der Rechner 2,5k/Tag bei ca. 200 Watt.
Und MK.de macht dann gleich mehr als doppelt so viel Credits/Tag als bisher.
Und wenn alles doch nicht so funktioniert stellen wir alles schnell auf ITX um. (Nur das Mainboard ist dann übrig)VJoe2max said:
Würde es vllt. Sinn haben eine Hälfte mit nVidia-Karten und die andere Hälfte mit AMD-Karten auszustatten, um für versch. Projekte immer gut gewappnet zu sein und sich so nicht zu sehr zu spezialisieren? Oder ist das von der Aufgabenverteilung her schwierig?Das sollte ja alles trotzdem noch gehen. Es könnten ja sogar gleichzeitig noch drei weitere Grakas in den Rechner (solange die nicht auch Poem rechnen wollen).
Oder doch lieber zusätzlich zwei Splitter mit je 4 Grakas. 😀isch said:
Ist es den möglich mit einem NT 2 Boards zu betreiben?Die einzig saubere Lösung sind, meiner Meinung nach, die PICOs aber die gehen ja so recht nur bis 70 Watt.
Ein Mörder-Board und nur ein einziges OS ist doch auch viel einfacher. Auch weil die aktuelle Hardware vermutlich erstmal mit Windows doch besser läuft. -
1. Januar 2013 um 16:01 Uhr #931352ischTeilnehmer
Auf dem normalen i7 @3,7GHz
-
1. Januar 2013 um 17:01 Uhr #931357ulvTeilnehmer
Burntime;501236 said:
Und beim EMK2 “einfach” Grafikkarten mit flexiblen Risern nachzurüsten wäre nichts?Das ist mit den PICOs schwierig, die können eigentlich nicht noch zusätzlich 25 bis 35 Watt ab.Dann müssten wir wieder am Gehäuse arbeiten, Kabel legen, die Riser müssten alle einzeln mit Strom versorgt werden, für das Netzteil ist es eigentlich jetzt schon zu knapp, etc.Die Software mit der wir momentan die Blades verwalten kommt auch nicht mit Grakas klar und und und.=> Never touch a running system. Besonders wenn es so gut läuft!
-
1. Januar 2013 um 17:01 Uhr #931358VTG01Teilnehmer
Mal ein kleiner Aufruf:Wir rechne (ich denke es sind 3 Personen) bei einer Collatz Challenge mit.Wäre mal ganz nett wenn ihr eure GT’s und 7750 und alle anderen mal ein bisserl Collatz rechnen lasst und mal notiert was die Karten so schaffen. So hätten wir auch gleich einen Vergleich was als 2. Projekt noch möglich ist und vor allen was an Credits zu erwarten sind.PS: Dauer nur mehr bis 03.01.2013 0:00 Uhr, also – lasst es krachen!!Zum Rest:Ich schätze dass die Stromversorgung der Grakas nicht so einfach werden wird – wobei 3 sicher möglich sein sollten, bei 5 Karten im Board die alle 60 Watt brauchen ist das sicher nicht mehr so einfach (3 für POEM, der Rest >90% GPU_Power)
-
1. Januar 2013 um 17:01 Uhr #931354BurntimeTeilnehmer
Und beim EMK2 “einfach” Grafikkarten mit flexiblen Risern nachzurüsten wäre nichts?
-
1. Januar 2013 um 18:01 Uhr #931360ischTeilnehmer
6 Graka sind auch kein Problem von der Stromversorgung.Die Boards haben einen zusätzlich Moles anschluss.Ich bekomme meine 7xxx Karten bei Collatz nicht zum laufen und mit einer NV brauch man erst gar nicht anfangen.Schau mal hier wie lange eine GT640 braucht.Dann kannst ja mal mit deinen 58xx Karten vergleichen.Und hier noch 7750er.
-
1. Januar 2013 um 20:01 Uhr #931365littledevilTeilnehmer
ulv;501239 said:
=> Never touch a running system. Besonders wenn es so gut läuft!Sehe ich ganz genau so :d:Das mit den zusätzlichen Grakas finde ich auch gut. dann sind es eben 3 Poem optimierte Grakas und der Rest hängt dann per x1 dran:z.b. MSI Z77A-GD65 + Xeon E3-1230V23x PCIe 3.0 x16, 4x PCIe 2.0 x1+G.Skill TridentX DIMM Kit 32GB PC3-12800Ualternativ das größere MSI Z77 MPOWER mit ATX 6-pin Power ConnectorWelche Projekte könnten wir mit Optimalen Credit/Watt-Verhältnis mit den 4x x1 karten bedienen?Wenn Poem Grad nicht Mode ist, kann man 7 Karten rechen lassen und die CPU ein CPU ProjektP.S. Falls die Stromversorgung keien Problem ist und 2 *schnell + einmal x4 auch für Peom genügt: MSI Z77A-G45
-
1. Januar 2013 um 22:01 Uhr #931369ischTeilnehmer
Der link vom RAM ist falsch.Wir wissen ja noch nicht ob die Xeons den schnellen RAM unterstützen.Und 32GB finde ich etwas übertrieb.Außer einem höheren Stromverbrauch bringen 4 Riegel doch nicht.Die IB unterstützen doch nur Dualchannel.Das mit den anderen Grakas an den x1 Slots ist eine gute Idee.Da könnten ja dann GT640 rein und GPUGRID rechnen wenn die nicht viel CPU brauchen und sich das mit den kleinen Grakas lohnt.
-
1. Januar 2013 um 22:01 Uhr #931370ulvTeilnehmer
Bei mehr als 4 Grakas bleiben aber noch viele Fragen offen.Peter hat das glaube ich mal versucht aber das BIOS, Windows bzw. die Treiber sehen das so nicht direkt vor. Auch der BOINC-Client muss ja damit umgehen können.Irgendwie sollten wir das jetzt aber mal in Angriff nehmen:Variante 1) Erst mal RAM und CPU + ITX, eine GT640 und eine 7750Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750Oder es bastelt jemand los, der schon einen i7 oder Xeon ein Z77-Board oder eine Graka hat. Dann würde es noch etwas billiger für den Anfang.Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.
-
1. Januar 2013 um 23:01 Uhr #931372phil68Teilnehmer
Ich möchte nochmal kurz darauf hinweisen:
Abgesehen davon glaube ich nicht, dass wir uns nur auf ein Projekt konzentrieren sollten. Es wäre möglich immer 2 ATI mit 2 NV zu betreiben und 2 verschiedene GPU Projekte zu rechnen. Wirklich sinnvolle Projekte gibt es leider nur für NV Karten(POEM & GPUGrid).
Ein reiner POEM Cruncher wird uns z.B. beim Pentathlon und anderen Races nix bringen :-k
In diesem Post (3. Zeile der Tabelle) siehst du, dass die dritte 7750 nur 25 Watt mehr gebraucht hat. Auch wenn das evtl. nicht ganz genau stimmt ist die 7750 um einiges besser als die GT640. Selbst wenn die auch nur ähnlich sind vom Credit/GPU-Watt dann ist das doch immer besser, wenn wir weniger Hardwareteile, Kühler, etc. brauchen.
Das trifft eben aber nur auf POEM zu! Meiner Meinung nach sollte die Kiste, wie oben schon genannt, auch für andere Projekte tauglich sein! Bei PG Challenges z.B. kommt man mit der ATI nicht sehr weit…
Aber egal, ich hab sowieso vor in der nächsten Woche ein neues µATX Board und eine 7750 zu ordern, um mir selbst ein Bild zu verschaffen. Danach bin ich dann(vielleicht) schlauer. Einen x1 Riser hab ich hier auch noch, sodass ich:
Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750
Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.abdecken kann 😉
Bei mehr als 4 Grakas bleiben aber noch viele Fragen offen.
Peter hat das glaube ich mal versucht aber das BIOS, Windows bzw. die Treiber sehen das so nicht direkt vor. Auch der BOINC-Client muss ja damit umgehen können.Soweit ich mich erinnere, gab es da Probleme!
Mal ein kleiner Aufruf:
Wir rechne (ich denke es sind 3 Personen) bei einer Collatz Challenge mit.
Wäre mal ganz nett wenn ihr eure GT’s und 7750 und alle anderen mal ein bisserl Collatz rechnen lasst und mal notiert was die Karten so schaffen. So hätten wir auch gleich einen Vergleich was als 2. Projekt noch möglich ist und vor allen was an Credits zu erwarten sind.PS: Dauer nur mehr bis 03.01.2013 0:00 Uhr, also – lasst es krachen!!
Ich hatte meine Rechner umgeschwenkt, da das mit der Anmeldung nicht so recht geklappt hatte bin ich nach 2 Tagen wieder auf andere Projekte ausgewichen.
Grüße Dirk
-
2. Januar 2013 um 7:01 Uhr #931375littledevilTeilnehmer
Ob BOINC mehr als 4 GPUs ansprechen kann, ist natürlich die Frage. Windows kann es wohl scheinbar.Sofern Peter seiner Miner noch am Start hat, könnte er es ja mal checken… [-o<@isch was ist am RAM-LInk falsch? Ich denke DDR3-1600 geht auf jeden Fall??Bis auf das 2011er Board habe ich grad keins, das mehr als 4 PCIe Steckplätze hat und dafür fehlt mir noch die CPU
-
2. Januar 2013 um 12:01 Uhr #931383ulvTeilnehmer
littledevil;501258 said:
Ob BOINC mehr als 4 GPUs ansprechen kann, ist natürlich die Frage. Windows kann es wohl scheinbar.Kann es scheinbar aber nur zum Bilder ansehen und nicht für Boinc! Wenn du weiter liest dann steht dort, dass (zumindest) die AMD-Treiber das wegen einer Windows-Beschränkung nicht können.
Unter Linux scheint es aber zu gehen. 😎 -
2. Januar 2013 um 13:01 Uhr #931389ulvTeilnehmer
phil68 said:
Aber egal, ich hab sowieso vor in der nächsten Woche ein neues µATX Board und eine 7750 zu ordern, um mir selbst ein Bild zu verschaffen. Danach bin ich dann(vielleicht) schlauer. Einen x1 Riser hab ich hier auch noch, sodass ich:Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.
Das ist ja super! =D>Du könntest auch das Gigabyte GA-Z77MX-D3H nehmen?[TABLE]MBoard | Format | PCIe 3.0 | PCIe 2.0 || 1 Graka | 2 Grakas* | 3 Grakas* | 4 Grakas* ASRock Z77 Pro4-M | uATX | 16 | 4+1+1 || 16 | 16+2 | 16+2+0,5 | 16+2+0,5+0,5Gigabyte GA-Z77MX-D3H | uATX | 16 , 8+8 | 4+1|| 16 | 8+8 | 8+8+2 | 8+8+2+0,5[/TABLE]* alles umgerechnet auf PCIe 3.0 SpeedGut zum testen wäre das ASRock evtl. sogar besser geeignet, weil einer der PCIe 2.0 x16 elektrisch nur x1 ist und du so einfach den Splitter-Speed messen könntest. Da du ja aber einen PCIe-x1-Riser hast geht das auch in dem Gigabyte.Für den Dauerbetrieb wäre das Gigabyte klar im Vorteil. 2 Grakas mit PCIe 3.0 x8 und ein Splitter (oder 3. Single-Slot-Graka) in PCIe 2.0 x4. Von den Slots würde man das selbst bei 2x Dual-Slot + Splitter einfach stecken können.So etwas wäre doch auch insgesamt eine nette Alternative mit 2x Poem PLUS 2-5 x Grakas für GPU-Only. Dann geht normaler RAM ein billigerer Xeon – eigentlich alles nur Vorteile. Vorausgesetzt der Splitter läuft. :-kOder eines dieser hier? Das Gigabyte GA-Z77MX-D3H ist nur das billigste.http://geizhals.de/749617, http://geizhals.de/746848, http://geizhals.de/764690Mann, die sind alle bei gh.de so blöd einsortiert da muss man jedes mal aufs Bild und ins Handbuch schauen. x(
-
2. Januar 2013 um 18:01 Uhr #931413VTG01Teilnehmer
Mal eine Idee die etwas günstiger (in Österreich etwa 465.-ohne Netzteil) ist als die oben genannte:
1 x Intel Core i3-3220, 2x 3.30GHz, boxed (BX80637I33220) (deutlich günstiger als ein i7-3770)
1 x Crucial Ballistix Tactical LP DIMM Kit 16GB PC3-12800U CL8-8-8-24, low profile (DDR3-1600) (BLT2C8G3D1608ET3LX0CEU)
2 x Club 3D Radeon HD 7750, 1GB DDR3, VGA, DVI, HDMI (CGAX-7752Z) (single slot, wobei auch Dualslot möglich sein sollte Gigabyte Radeon HD 7750 OC).
1 x ASRock Z77 Extreme4-M, Z77 (dual PC3-12800U DDR3)Nun die Fragen:
– Packt das noch eine PicoPSu? (160xt)
– Schafft die CPU 2 Karten in POEMEventuell ist mit einem “Blade” Aufbau die Leistung auch skalierbar, soll heissen 3 oder 4 Boards in einem Gehäuse (Eigenbau) sollten liegend möglich sein.
-
2. Januar 2013 um 19:01 Uhr #931428ischTeilnehmer
littledevil;501258 said:
@isch was ist am RAM-LInk falsch? Ich denke DDR3-1600 geht auf jeden Fall??Bis auf das 2011er Board habe ich grad keins, das mehr als 4 PCIe Steckplätze hat und dafür fehlt mir noch die CPUEs steht G.Skill Tridentx und verlingt sind Crucial Ballistix Tactical@ ulv Hardware ist bei mir genug vorhanden.MSI z77 GD55 mit i7 3770K und einer ATI 7870 so wie 2 x 8GB Crucial Ballistix Tactical CL8-8-8-24-1T 1600MHzASRock B75 Pro3-M i7 3770 @ 3,7GHz 2x 8GB G.Skill Ares CL10-10-10-30 DDR3-1600 mit Intel Onboard GrakaDann liegt hier noch eine ATI 7750,NV GT640 und eine NV GTX660TI rum Ab Mitte Januar habe ich Urlaub und damit auch einiges an Zeit zum testen.Ihr müsst nur sagen was ich zusammen Schustern soll und welche Projekt.Es ist auch kein Problem mit beiden Rechnern gleichzeitig zu testen.@ VTG01 der i3 ist mit 2 Karten bei POEM schon überfordert.Eine Karte lastet meinen i7 zu 30% aus was 2,66 Kerne sind.Klar kann man auch den i3 nehmen und weniger WUs laufen lassen was aber die Effizienz verringert.Und so viel Sparsamer als ein i7 wird der auch nicht sein.
-
2. Januar 2013 um 20:01 Uhr #931431ThaRippaAdministrator
Hab heute einiges über die GT640 gelesen. Sie kann wohl ihre vielen Streamprozessoren kaum ausspielen, weil es sie nur mit DDR3 gibt. Das soll sich wohl auch bei BOINC und PhysiX (für die zwei Anwendungen würd ich meine kaufen, und damit meine 7950 wieder Zero-Core kann) bemerkbar machen. Mich würd nun interessieren, wie sehr sich der Speichertakt der 640er auswirkt, bzw, was da “drin” ist. Aufschlussreich wäre ja z.B. wenn die nie voll Ausgelastet ist bei manchen WUs.
-
2. Januar 2013 um 20:01 Uhr #931432ulvTeilnehmer
isch;501317 said:
@ ulv Hardware ist bei mir genug vorhanden.MSI z77 GD55 mit i7 3770K und einer ATI 7870 so wie 2 x 8GB Crucial Ballistix Tactical CL8-8-8-24-1T 1600MHz
ASRock B75 Pro3-M i7 3770 @ 3,7GHz 2x 8GB G.Skill Ares CL10-10-10-30 DDR3-1600 mit Intel Onboard Graka
Dann liegt hier noch eine ATI 7750,NV GT640 und eine NV GTX660TI rumAb Mitte Januar habe ich Urlaub und damit auch einiges an Zeit zum testen.Ihr müsst nur sagen was ich zusammen Schustern soll und welche Projekt.
Das ist ja perfekt! :d:
Kannst du dir noch ein oder zwei solche x1 – Riser kaufen?
z.B.: http://www.amazon.de/dp/B003Y3M2DS Datenblatt: http://www.delock.de/produkte/G_89159/merkmale.htmlMich interessiert hauptsächlich was der x1 Riser für Einbußen bei Poem hat <- das vor allem im Hinblick auf Credit/Watt und ob dadurch auch die CPU-Last sinkt, man also dann mehr von den Grakas einbauen kann. Es könnte ja sein, dass 6 GT640/7750 unter Poem gedrosselt auf deinem Board ganz OK laufen würden. Evtl. sogar mehr Credits/Watt und Credits/Tag machen als das doppelt so teure Board mit 3 GT640/7750. Vom Preis wäre das dann fast kein Unterschied für eine Prime-Challenge wäre der Unterschied aber enorm. Ansonsten wäre noch ein Vergleich von der GT640 mit der 7750 bzgl. Prime, Collatz und Poem jeweils Credit/Watt sehr interessant. Da bist du ja ohnehin schon dran. Wenn du das gleich fix und fertig testen willst dann können wir dir auch noch zwei GT640 oder zwei 7750 schicken. Möchtest du das?
-
2. Januar 2013 um 21:01 Uhr #931435konfettiTeilnehmer
Hi – also auch unter Windows hab ich 4 GPUs für Boinc zum laufen bekommen, auf dem MSI K9A2 Platinum hab ich 2 4850er, ne 9800GTX und eine 8600GT laufen gehabt – mit nem Dualcore und 4GB RAM – GPU-Auslastung bei >95% pro Karte. – Einzige Voraussetzung bei den ATIs war der Fake-Display Adapter um selbige für Boinc Aktiv zu haben – 100Ohm Widerstände in dem VGA-DVI-Adapter ham ja gut funktioniert ;)an der 9800GTX hing ja der Monitor und bei der 8600GT gings auch so.
-
2. Januar 2013 um 21:01 Uhr #931433littledevilTeilnehmer
ulv;501266 said:
Unter Linux scheint es aber zu gehen. 😎Läuft das GPU-Cruchen unter Linux mit alle Projekten?
Wäre es denkbar das System mit 4 x 7750 und 3 x GT 640 zu bestücken?
Das MSI Z77 MPOWER könnte man dann mit 4 güsntigen x1 Riser-Verlängerungen bestücken und per 6pin das Mainboard mit Strom unetrstütztenbzgl. Riser wären die sehr günstig und gut um die Grakas gut zu positionieren : Neu! PCI-E-Kabel 1x bis 16x Riser Extender Card SCN-0047
-
2. Januar 2013 um 21:01 Uhr #931439
-
2. Januar 2013 um 21:01 Uhr #931434ischTeilnehmer
Wie funktioniert das mit den Riser.Stecke ich die in den normalen x16 Slots?Dann würden beim B75 z.B. 2 Stück rein gehen und beim z77 3Wenn ich noch ein paar Karten mehr bekomme wäre nicht schlecht.Dann würde ich mir 3 von den Riser bestellen.
-
2. Januar 2013 um 21:01 Uhr #931436littledevilTeilnehmer
Ach Isch Du hast ja sogar das MSI Z77A-GD55 :d:
Nehme mal an, das ist gut im Verbrauch? O:-)Bestell Dir doch am besten gleich 4 von den günstigen Risern dazu 😎
Wieviele Grakas hast Du denn?
Habe leider keine 7750 oder 640er. GT240 o.ä. könnte ich Dir aber zum testen schicken, falls das etwas bringt.
-
2. Januar 2013 um 23:01 Uhr #931445ulvTeilnehmer
littledevil;501323 said:
bzgl. Riser wären die sehr günstig und gut um die Grakas gut zu positionieren : Neu! PCI-E-Kabel 1x bis 16x Riser Extender Card SCN-0047Lieferbar in 30 Tagen? :-k
Hat jemand noch GT640 oder 7750 übrig zum testen oder sollen wir gleich welche kaufen?
-
3. Januar 2013 um 12:01 Uhr #931466littledevilTeilnehmer
ulv;501335 said:
Hat jemand noch GT640 oder 7750 übrig zum testen oder sollen wir gleich welche kaufen?Peter habe ich zumindest jeweils eine geschickt – weis aber nicht, ob die übrig sind :fresse:
Wenns schneller gehen soll: Extender Riser Flex Kabel PCI-E PCIe x16-Karte x1-Slot -
3. Januar 2013 um 12:01 Uhr #931468ulvTeilnehmer
isch;501352 said:
Dann lohnt sich das ja nicht.können wir die riser die ulv verlinkt hat dann im neuen cruncher gebrauchen?
Dann würde ich die 4 bestellen und dann spendenZum testen würde eine oder zwei davon sicherlich reichen.
Den Riser steckst du einfach dazwischen. Die Stromversorgung ist komplett durchgeschleift. Nur die zusätzlichen Lanes fehlen.
Wenn du Glück hast geht sogar das Gehäuse noch zu. Sind ja nur 2cm extra.Wenn die Karten auch mit x1 einigermaßen laufen dann kommt am Ende wohl die Splitter Lösung mit ITX oder uATX (wenn der Splitter in einem Z77 Board läuft) und dann brauchen wir die Riser am Ende wohl nicht mehr. Ich denke wir sollten erst mal versuchen die Fakten zu klären und dafür reicht vermutlich ein Splitter – außer du möchtest zwei GT640/7750 gleichzeitig an x1 testen.
Wenn du dir Grakas wünschen darfst was hättest du den gerne?
-
3. Januar 2013 um 12:01 Uhr #931462ischTeilnehmer
Dann lohnt sich das ja nicht.können wir die riser die ulv verlinkt hat dann im neuen cruncher gebrauchen?Dann würde ich die 4 bestellen und dann spenden
-
3. Januar 2013 um 12:01 Uhr #931469littledevilTeilnehmer
Ja, einer von den teuren würde wohl genügen…
Welchen Vorteil hätte matx +splitter vs. ATX mit Riser? -
3. Januar 2013 um 13:01 Uhr #931470ischTeilnehmer
Dann bestelle ich die heute Abend 2xWenn ich noch eine 7750 bekommen könnte wäre das i.O.Wenn es eine 640 ist muss ich halt alle ati treiber löschen und nv treiber installieren
-
3. Januar 2013 um 13:01 Uhr #931472ulvTeilnehmer
isch;501359 said:
Dann bestelle ich die heute Abend 2xWenn ich noch eine 7750 bekommen könnte wäre das i.O.
Dann kauf doch eine http://geizhals.de/823961 auf meine kosten. Geld per PN.
littledevil said:
Welchen Vorteil hätte matx +splitter vs. ATX mit Riser?Ob die Grakas überhaupt in einem normalen PCIe x1 laufen ist doch noch gar nicht klar! Die müssen ja keine 30-50 Watt über den PCIe liefern. Du erinnerst dich das hatten wir alles schon mal. Auch ist nicht klar ob das BIOS, Board oder sonst mit eine Graka in irgend einem x1 klar kommt.
(Hier sind die Nvidia zumindest unter Linux besser, weil man da keinen laufenden X-Server bzw. Bild braucht.)
Normalerweise muss es ein eigens mit PEG bezeichneter Slot sein.wikipedia said:
Ein PCI-Express-Steckplatz kann das daran angeschlossene Gerät mit Strom versorgen. Laut Spezifikation beträgt die gelieferte Leistung für einen gewöhnlichen Steckplatz wie bei PCI maximal 25 Watt, für Low-Profile-Karten höchstens 10 Watt und bei einem PEG-(PCIe-x16)-Steckplatz maximal 75 Watt.Für ein ATX Board voll mit z.B. acht Grakas musst du die Machbarkeit erst noch zeigen.
Die Splitter Lösung läuft bei Peter ja schon, weil dann die Grakas alle vom Splitter mit Strom versorgt werden.
Und ja, es gibt diese billig Riser, die leider auch so gelötet sind. Die könnte man alle einzeln auf externen Strom umfrickeln – das auch nur zur Erinnerung. -
3. Januar 2013 um 14:01 Uhr #931479JabbaTeilnehmer
Die PCIe Verlängerungen gibt es uch mit separater Stromversorgung.Ob x1 oder x16 macht für die Performance kaum einen Unterschied.Es hängt primär davon ab, wieviel die Graka mit der CPU kommuniziert. Bei Bitcoin reicht ja bspw. eine serielle Verbindung, um die Recheneinheiten zu versorgen. Da gehen nur ein paar Steuerdaten und die Ergebnise drüber.Bei den BOINC Projekten sollte für die meisten GPU Projekte ebenfalls eine x1 Verbindung reichen. -> testen!Als Indikator für ein testwürdiges Projekt würde ich mich anhand der CPU-Last orientieren. Wenn dort eine hohe CPU Last auftritt, kann das ein Hinweis sein, daß es zwischen den beiden richtig abgeht. Sollte es aber abwechselnd zu hoher CPU und GPU Last kommen, dann muß wohl die CPU erst wieder ein paar Daten bereitstellen, bevor die GPU wieder tätig wird.Sollte man beim Testen also beides im Auge behalten.Ich hoffe, daß ich nächste Woche ein paar Tests beisteuern kann, die das Funktionieren des Splitters mit ein paar kleinen 640ern und 7750ern beweisen.GrußJabba
-
3. Januar 2013 um 14:01 Uhr #931474littledevilTeilnehmer
Meien GTX 550 + 5830 liefen zumindest problemlos über x1, aber das kann auch zufall sein. Ums testen kommen wir natürlich nicht herum.
25W sind doch für die kleinen Karten ausreichend, oder?
Riser oder Board mit entsprechender Zusatzversorgung soltle ees aber schon sein.
Dachte das mit dem Umlöten ist für Euch Lötprofis kein Ding 😉
Wenn man sich in den ganzen Bitcoin-Foren umschaut, scheint das mit dem Riser ja zu klappen… -
3. Januar 2013 um 17:01 Uhr #931484ischTeilnehmer
Auf welchem Board soll ich jetzt testen mit welchem Takt CPU/RAM?Grakas lasse ich erst mal so laufen.Dann Bestelle ich nachher diese Riser und @ ulv soll es die Graka sein?Die SingleSlot gibt es doch schon viel günstiger.Ich habe z.B. diese hierTante Edit:wenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?
-
3. Januar 2013 um 17:01 Uhr #931485phil68Teilnehmer
wenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?
Hi isch, klar testen schadet nicht 😉 Interessant ist ja auch, wie der Unterschied zwischen:
- PCIe 2.0 x 16 vs. PCIe 3.0 x 16
- PCIe 3.0 x 16 + PCIe 2.0 x 4 vs. PCIe 3.0 x 8 + PCIe 3.0 x 8
usw. ausfällt!
Grüße Dirk
-
3. Januar 2013 um 17:01 Uhr #931483phil68Teilnehmer
Hier geht es aber ab 😯
Du könntest auch das Gigabyte GA-Z77MX-D3H nehmen?
Sorry, zu spät, hatte dann auch gleich bestellt. Das Paket liegt heut schon beim netten Nachbarn zur Abholung bereit. Wenn ich es schaff, kann ich morgen schon ein paar Tests(PCIe 2.0/3.0/x4/x1 danach diverse Projekte) fahren.
Test-Hardware:
- 1 x Xeon 1230 v2
- 2 x GT640
- 1 x HD 7750
- 1 x ASRock Z77 Pro 4M
(x1 Riser vorhanden/altes Asus H61 auch noch vorhanden)
Mich würd nun interessieren, wie sehr sich der Speichertakt der 640er auswirkt, bzw, was da “drin” ist. Aufschlussreich wäre ja z.B. wenn die nie voll Ausgelastet ist bei manchen WUs.
Das kommt auf das Projekt an. Generell würde ich da aber zum schnelleren Ram greifen! Gerade z.B. Poem scheint von der Anbindung zu profitieren.
Die 7750 scheint es auch in verschiedenen Ausführungen zu geben.Ob x1 oder x16 macht für die Performance kaum einen Unterschied.
Das dachte ich auch immer… scheint aber auch abhängig vom Projekt zu sein. Mal sehen was bei unseren Testläufen raus kommt.
Grüße Dirk
-
3. Januar 2013 um 20:01 Uhr #931489littledevilTeilnehmer
Da wäre ein BOINC-Basteltreffen ideal. Wenn jeder seine 7750 + GT640 mit bringt, hätten wir schon den test-PC zusammen 🙂
-
4. Januar 2013 um 8:01 Uhr #931496ulvTeilnehmer
isch;501373 said:
@ ulv soll es die Graka sein?Die SingleSlot gibt es doch schon viel günstiger.Ich habe z.B. diese hierIch hab die Graka ausgesucht, weil die den schnelleren Speicher und weniger Stromverbrauch (laut Datenblatt) hat. Meinem Gefühl nach sind die Spannungswandler auf den kleineren Karten auch die besseren. Du kannst dir aber auch eine andere aussuchen, aber bitte nicht nur nach dem Preis.Kennst mich ja, für ein Watt weniger gehe ich einen weiten Weg. Die Low-Profile Karte kann man ja auch zusammen mit dem Delock-Riser relativ einfach noch festschrauben, mit den normalen wird das vermutlich schwieriger.
isch;501373 said:
Tante Edit:wenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?Könnt ihr zwei evtl. mal telefonieren?Das Testen ist ja doch aufwendig. Evtl. könnt ihr euch das geschickt aufteilen:Phil68 mit allen GT640 gegen isch mit allen 7750. 😀
-
4. Januar 2013 um 9:01 Uhr #931497ThaRippaAdministrator
Hat schon jemand eine GT640 mit DDR5 aufgetrieben? Der DDR3 soll die ja ohne Ende ausbremsen.
-
4. Januar 2013 um 10:01 Uhr #931501ischTeilnehmer
Bei POEM bringt schneller Graka RAM nichts.@ ulv dann werde ich deine nehmen so sehen wir gleich ob die sparsamer sind.
-
4. Januar 2013 um 11:01 Uhr #931505konfettiTeilnehmer
http://geizhals.de/839721Die hat die selben Werte, aber noch die Info “ZeroCore Power (3W)” – was auch immer diese 3W dann sind – leider volle Bauhöhe.. – und nochmal schnelleren RAM, auch wenn der ja nix bringt 😉
-
4. Januar 2013 um 13:01 Uhr #931510JabbaTeilnehmer
Bei vielen Projekten bringt schnellerer RAM tatsächlich nichts, außer Wärme. Bspw. konnte ich bei Bitcoin den RAM auf 187 MHz takten.Im Gegenteil, RAMtakt runter, GPU Takt hoch. Es ist idR sogar ein höherer GPU Takt möglich als mit StandardRAMtakt, da weniger Abwärme von den RAMs kommt.
-
4. Januar 2013 um 14:01 Uhr #931513ischTeilnehmer
zero core sollte eigentlich jede 7xxx karte haben.was uns aber auch nichts bringt da unsere ja schufften sollen und nicht faul rum liegen:)Tante Edit:siehe letzten PostHabe mal eine Einstein@Home ATi WU laufen lassen.3808s Prime Grid PPS (Sieve) ati 9,612.s
-
5. Januar 2013 um 8:01 Uhr #931569ischTeilnehmer
Leider bekomme ich keine WUs mehr.Nach 10Std und 10min hatte ich 415.382C errechnet.macht in 24Std 980.573C
-
7. Januar 2013 um 16:01 Uhr #931514ischTeilnehmer
sieh aktuellen Post weiter unten.
-
7. Januar 2013 um 17:01 Uhr #931692ischTeilnehmer
ulv;501591 said:
Sehr übersichtlich, Danke isch! :d:So richtig aussagekräftig wird es wohl erst mit wenigstens 2 Grafikkarten. Die teilen sich ja schließlich den RAM und dann sollte man das deutlicher merken. (Ich nehme an das war jetzt immer nur eine 7750, oder?)Ja immer nur eine Graka
littledevil;501594 said:
Sehr schön isch. Der takt schein ja wichtiger als die Latenz zu sein. Wie hoch könntest Du bei CL11 Takten?Habe ich nicht getestet bekomme doch den 2400MHz RAM dann sehen wir weiter.Und Formula ist auch wieder Online und wir sind sogar auf Platz 28 und nicht 38
-
7. Januar 2013 um 17:01 Uhr #931691LukasTeilnehmer
schön isch,Wie viele Gk wollen wir jetzt pro Rack nehmen ?
-
7. Januar 2013 um 17:01 Uhr #931693phil68Teilnehmer
Sauber isch :d:
Ich hatte ein paar Probleme mit meinem Setting… Wenn man beim Asrock die PCIe auf Standard stellt, wird der mit x16 2.0 gefahren 😡 Hab jetzt das neueste Bios drauf und Gen3 gewählt. Jetzt hab ich auch PCIe 3.0 x16. Allerdings scheint das bei POEM kaum einen Unterschied zu machen.
app.Info Einstellung 6 WUs CPU 0.33 GPU 0.125
Hatte ich auch mal probiert, danach sind die Credits total in den Keller gegangen! Ein Wert unter 0,5 CPU scheint nicht sinnvoll.
Ich schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:
- Xeon@3,5GHz
- Ram@1333 9-9-9-24-1T
- app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16
Ich werd dann als nächstes mal @ x1 testen.
Bei den Intel Specs noch folgendes gefunden:
- XEON PCI Express Configurations: 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4
- I7 3770k PCI Express Configurations : 1×16, 2×8, 1×8 & 2×4
Das kann doch nicht sein :-k Das würde ja heißen, dass beim i7 nur 3 Karten möglich sind. Hier der Link: http://ark.intel.com/products/65523/Intel-Core-i7-3770K-Processor-8M-Cache-up-to-3_90-GHz
Grüße Dirk
-
7. Januar 2013 um 17:01 Uhr #931690littledevilTeilnehmer
Sehr schön isch. Der takt schein ja wichtiger als die Latenz zu sein. Wie hoch könntest Du bei CL11 Takten?
-
7. Januar 2013 um 17:01 Uhr #931687ulvTeilnehmer
Sehr übersichtlich, Danke isch! :d:
So richtig aussagekräftig wird es wohl erst mit wenigstens 2 Grafikkarten. Die teilen sich ja schließlich den RAM und dann sollte man das deutlicher merken. (Ich nehme an das war jetzt immer nur eine 7750, oder?)
-
7. Januar 2013 um 18:01 Uhr #931697littledevilTeilnehmer
phil68;501597 said:
- XEON PCI Express Configurations: 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4
- I7 3770k PCI Express Configurations : 1×16, 2×8, 1×8 & 2×4
Bei 2600k sind es auch nur 16 Lanes :-kVielleicht ist da auch nur die Anbindung ohen Zusatzchips gemeint?
The PXE switch Gives the z77 the ability to do 48 lanes but manufactures have programmed them to use 32 as in the case of z77
Evtl. wird da der gnaze Traffic gebündelt, aber wnen alle gPUS gleichziet die Bandbreite benötigen wird es zu Engpaß
-
7. Januar 2013 um 18:01 Uhr #931694ischTeilnehmer
Ich schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:
Xeon@3,5GHz
Ram@1333 9-9-9-24-1T
app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16Da hakt doch bei dir irgendwas.Zeigt den GPUZ auch PCIe 3.0 x16 an.
Du fährst ja auch mit 100MHz mehr und gibst auch mehr CPU pro WU und der 1333 RAM sollte doch kein 150K ausmachen.Hast du Dualchannel?
Wie sieht es den mit der CPU lasst aus?
Wie lange läuft eine WU von den 6?
Welche Graka hast und wie sieht es mit dem Stromverbrauch aus?Eben sind die beiden x1 Riser gekommen 🙂
-
7. Januar 2013 um 20:01 Uhr #931707phil68Teilnehmer
isch;501598 said:
Ich schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:
Xeon@3,5GHz
Ram@1333 9-9-9-24-1T
app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16Da hakt doch bei dir irgendwas.Zeigt den GPUZ auch PCIe 3.0 x16 an.
Du fährst ja auch mit 100MHz mehr und gibst auch mehr CPU pro WU und der 1333 RAM sollte doch kein 150K ausmachen.Hast du Dualchannel?
Wie sieht es den mit der CPU lasst aus?
Wie lange läuft eine WU von den 6?
Welche Graka hast und wie sieht es mit dem Stromverbrauch aus?Eben sind die beiden x1 Riser gekommen 🙂
Hi isch 🙂
- GPUz zeigt PCIe 3.0 x16 an
- Ram läuft im Dual Channel
- CPU Last liegt zwischen 90% und 100% ( POEM,SIMAP und Climate Prediction auf 8 Kernen) sollte normal sein.
- Eine WU braucht ca. 2060s
- Graka ist eine Club 3D HD7750 GDDR5 1024MB
- Verbrauch liegt unoptimiert bei ca. 100W
Grüße Dirk
-
7. Januar 2013 um 21:01 Uhr #931710ischTeilnehmer
SIMAP und Climate PredictionDie werden das ganze aus bremsen.Lass mal ein Kern frei.
-
8. Januar 2013 um 11:01 Uhr #931731phil68Teilnehmer
Hat auch nix gebracht…
-
8. Januar 2013 um 11:01 Uhr #931734ischTeilnehmer
Und wenn du nur POEM laufen lässt?
-
8. Januar 2013 um 20:01 Uhr #931769ischTeilnehmer
Heute ging es dann weiter.Da die 2te Graka Heute schon kam und der RAM noch auf sich warten lässt gibs schon Tests mit 2 Grakas.Den Riser habe ich auch getestet07.01idle 28,5W-29WLoad 8x FM@H 57,5WClub 3D Radeon HD 7750, 1GB DDR3eine einzelne Wu dauert bei 0,33 CPU 1300sGPU Takt ist immer 800MHz[table “” not found /]
08.01[table “” not found /]
Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.*Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.**Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.***Und das ganze noch mal mit 200MHz mehr.______________________________________________________________PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.______________________________________________________________Beide Grakasidle 40W[table “” not found /]
+Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.+117W @ 60C120W @ 74C122W @ 76C++121W @ 75C+++118,5W @ 74C++++123W @ 76C______________________________________________________________Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.ich versuche die CPU Last auf max 33% zu haltenapp.Info Einstellung 4 WUs CPU 0.5 GPU 0.25app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142 -
8. Januar 2013 um 20:01 Uhr #931778VTG01Teilnehmer
Tolle Testreihe! :respekt::respekt:
Dabei fällt auf, dass bei 2 Grakas die Credits doch um einiges geringer je Karte ausfallen als mit einer Karte. Hast du mit der Club 3D Radeon HD 7750, 1GB DDR3 bereits über mehrere Tage POEM gerechnet? Was mich noch interessiert ist, hast du die 7870er auch schon einmal getestet – oder läuft die unter POEM nicht. :+
Du schreibst
idle 28,5W-29W
Load 8x FM@H 57,5Wich denke das ist bei 3,4 Ghz ohne Graka – oder?
kannst du dich noch an den Verbrauch unter Leiden erinnern? -
8. Januar 2013 um 21:01 Uhr #931786ulvTeilnehmer
isch;501675 said:
PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.Sorry, da hatte ich ja gar kein gutes Händchen. Kannst du evtl. einen anderen größeren Lüfter gegen die Karte blasen lassen?Oder möchtest du den Kühler austauschen? http://www.caseking.de/shop/catalog/Grafikkarten/VGA-Kuehler-Heatpipes/Alle-VGA-Kuehler:::10452_120_602.html
isch;501675 said:
Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.Hattest du den Riser im gleichen Slot wie vorher oder einem anderen? Die Stromversorgung sollte eigentlich durchgeschleift sein.Nur um sicher zu gehen sollten wir evtl. auch noch einen der Delock-Riser testen!
-
8. Januar 2013 um 21:01 Uhr #931788phil68Teilnehmer
Nach dem nochmaligen installieren der Intel Treiber(k.A. ob es daran lag) und dem Anhalten der anderen Projekte, komme ich jetzt auf ca. 900k :d:
@isch
Klasse Arbeit :respekt:Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.
Da sollte an der Seite ein 4Pin Molex dran sein, den musst du mit Strom versorgen.
Meine WUs(1400) reichen noch ein paar Tage.
Grüße Dirk
-
8. Januar 2013 um 21:01 Uhr #931791ischTeilnehmer
@ ULV eine weitern Lüfter dagegen ist kein Problem aber wenn ich den Kühler tausche hat man ja wieder eine Dualslotkarte.
Das mit dem x1 Riser können wir so was von vergessen.
[table “” not found /]
+65W @ 65C
@phil wie kommst du auf 1400? bei mir hat er bei 800 gemeckert das ich genug habe und nichts mehr bekomme. -
8. Januar 2013 um 21:01 Uhr #931781ischTeilnehmer
VTG01;501684 said:
Tolle Testreihe! :respekt::respekt:Dabei fällt auf, dass bei 2 Grakas die Credits doch um einiges geringer je Karte ausfallen als mit einer Karte. Hast du mit der Club 3D Radeon HD 7750, 1GB DDR3 bereits über mehrere Tage POEM gerechnet? Was mich noch interessiert ist, hast du die 7870er auch schon einmal getestet – oder läuft die unter POEM nicht. :+Du schreibstidle 28,5W-29WLoad 8x FM@H 57,5W
ich denke das ist bei 3,4 Ghz ohne Graka – oder?kannst du dich noch an den Verbrauch unter Leiden erinnern?
Ja hat mich auch gewundert.Aber sobald der RAM etwas schneller ist steigen die C ja gleich wieder an.Komisch ist auch das die CPU Last so extrem hoch geht.Ja hatte mal in Oktober oder November schon mal getestet aber mangels wu dann wieder eingestellt.Da hatte ich über 800K nach einem Tag.Die 7870 hatte ich auch schon mal getestet die war aber nicht besonders.Vielleicht hatte ich nur noch nicht die richtigen Einstellungen gefunden.Kann die aber noch mal testen.Die Verbrauchswerte waren bei 3,4GHz und mit 7750er.Leiden teste ich gleich noch mal.Stelle den POEM Test für heute eine da die WUs bei mir langsam knapp werden und es gibt schon wieder keine neuen.
-
8. Januar 2013 um 22:01 Uhr #931792ulvTeilnehmer
Schön langsam dämmert es mir: Die WUs sind vermutlich zu groß für den Speicher der Grafikkarten. Und dann geht alles über den PCIe, CPU und RAM.
Sollen wir mal eine 7750 mit 4GB wagen? Oder hat schon jemand eine?Hier mal die 7750er mit 4GB (DDR3)
-> http://geizhals.de/?cat=gra16_512&xf=1440_HD+7750~132_4096#xf_topOder hat jemand eine GT640 mit 4GB?
-> http://geizhals.de/?cat=gra16_512&xf=132_4096~1439_GT+640#xf_top -
8. Januar 2013 um 23:01 Uhr #931794ischTeilnehmer
Ich habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.
-
9. Januar 2013 um 10:01 Uhr #931798ulvTeilnehmer
isch;501700 said:
Ich habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.Ist das der Verbrauch im Mainboard-RAM oder in der Graka selber.?
-
9. Januar 2013 um 10:01 Uhr #931515ischTeilnehmer
ulv;501704 said:
isch;501700 said:
Ich habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.Ist das der Verbrauch im Mainboard-RAM oder in der Graka selber.?
Das ist der Graka RAM ausgelesen mit GPUZ.Der normale Arbeitsspeicher hat bei 2x8GB eine Auslastung von rund 26%
-
9. Januar 2013 um 14:01 Uhr #931799LukasTeilnehmer
@isch Heißt des wir müssen jetzt wieder in Richtung MB denken die möglichst viel pcie haben und phil hat ja gesagt dass der 3770k nur 1×16, 2×8, 1×8 & 2×4 also max 3 Gk unterstützt siehe http://ark.intel.com/products/65523/Intel-Core-i7-3770K-Processor-8M-Cache-up-to-3_90-GHz
-
9. Januar 2013 um 14:01 Uhr #931800ischTeilnehmer
Nein Brauchen wir nicht.Alles was unter x8 ist bricht viel zu stark ein.Da selbst di Xeons nur 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4 haben würde das MSI GD55 reichen
Eigentlich macht es auch keinen Sinn mehr als 2 7750 zu betreiben.Die CPU last bei 2 Karten steigt doch mer an als ich erwartet hätte.
-
9. Januar 2013 um 15:01 Uhr #931801phil68Teilnehmer
@phil wie kommst du auf 1400? bei mir hat er bei 800 gemeckert das ich genug habe und nichts mehr bekomme.
Ich hab den Arbeitspuffer auf:
- Minimaler Arbeitspuffer: 2 Tage
- Max. zusätzlicher Arbeitspuffer: 9 Tage
Die Batch fragt Arbeit 2 x pro Min ab 😯 Nicht gerade die feine englische… aber wenn man anders keine Arbeit bekommt!
Eigentlich macht es auch keinen Sinn mehr als 2 7750 zu betreiben.Die CPU last bei 2 Karten steigt doch mer an als ich erwartet hätte.
Ich frag mich auch, was denn nun die CPU so belastet! Andere Projekte sind da in Sachen GPU-WUs besser aufgestellt und laufen prima nebenher! Sobald ich Climate Prediction zusätzlich auf 4(CPU)Kernen laufen lasse, gehen die Laufzeiten der POEM WUs in den Keller… 1680s vs. 3000s (900k vs. 505k) Da macht es kaum Sinn andere Projekte nebenher laufen zu lassen. 4 Grafikkarten machen eigentlich nur Sinn, wenn man mit denen(2) andere Projekte rechnet. Leider bleibt dann nur WCG(HCC) und GPUGrid.
Grüße Dirk
-
9. Januar 2013 um 15:01 Uhr #931802ischTeilnehmer
Im Taskmanager wir eine Prozess Namens NT Kernel & System mit 17-18% angegeben.Wenn ich eine Graka wieder aus baue habe ich das nicht mehr.HCC kannst leider auch vergessen baucht auch ordentlich CPU. Wie sieht es den bei GPUGrid mit der GT640 aus und was raucht die an CPU?
-
9. Januar 2013 um 16:01 Uhr #931804JabbaTeilnehmer
Kannst mal meine Stats bzgl. GPUGrid anschauen. Ich habe in den letzten Tagen GPUGrid auf einer GT640 mit Standardtakt und 2 x Leiden gerechnet.
Siehst auch in den Teamstats. -
9. Januar 2013 um 17:01 Uhr #931806ischTeilnehmer
Heute sind die beiden 2×4 GB 2400MHz RAM Riegel eingetroffen.07.01idle 28,5W-29WLoad 8x FM@H 57,5WClub 3D Radeon HD 7750, 1GB DDR3eine einzelne Wu dauert bei 0,33 CPU 1300sGPU Takt ist immer 800MHz[table “” not found /]
08.01[table “” not found /]
09.01[table “” not found /]
Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.*Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.**Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.***Und das ganze noch mal mit 200MHz mehr.****app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142 neuer RAM______________________________________________________________PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.______________________________________________________________Beide Grakasidle 40W[table “” not found /]
09.01[table “” not found /]
+Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.+117W @ 60C120W @ 74C122W @ 76C++121W @ 75C+++118,5W @ 74C++++123W @ 76C- 118W @ 72C app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166– 118W @ 71C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142—118,5W @ 73C app.Info Einstellung 8 WUs CPU 0.5 GPU 0.125—-121,5W @ 72C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142—– 123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142[table “” not found /]
+65W @ 65C______________________________________________________________Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.09.01ich versuche die CPU Last auf max 33% zu haltenapp.Info Einstellung 4 WUs CPU 0.5 GPU 0.25app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142 -
9. Januar 2013 um 19:01 Uhr #931811littledevilTeilnehmer
Wahnsinns Testparcour :respekt:
isch;501719 said:
Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.Kannst Du mal versuchen die vom Takt auf min zu flashen?
-
9. Januar 2013 um 20:01 Uhr #931814ischTeilnehmer
Ne flashen tu ich nichts.
-
9. Januar 2013 um 20:01 Uhr #931818
-
9. Januar 2013 um 20:01 Uhr #931815littledevilTeilnehmer
Hast Du zum gegenteste eine Karte, die unter Vollast serh wenig benötig ? z.B. 15W
-
9. Januar 2013 um 20:01 Uhr #931817ischTeilnehmer
Könnte die GT640 morgen mal versuchen.Soll ich sonst noch was testen?
-
9. Januar 2013 um 21:01 Uhr #931820ischTeilnehmer
Ist nett gemeint :d: aber eine Dualslot bekomme ich nicht mehr aufs Mobo.
Ich habe vorhin noch eine SingleSlot mit 4GB bestellt :x:D
-
9. Januar 2013 um 21:01 Uhr #931821FanStarTeilnehmer
Im Zweifelsfall einfach nochmal melden, würde sie zur Verfügung stellen.
-
10. Januar 2013 um 8:01 Uhr #931829ischTeilnehmer
ich denke das ist bei 3,4 Ghz ohne Graka – oder?kannst du dich noch an den Verbrauch unter Leiden erinnern?
Hier erst mal mein SysCPU: 3770K 3,4GHz @ 0.864VRAM: 2x8GB Crucial Ballistix Tactica 1900 9-9-9-27-1T@ 1,505V [das sind nicht die LP Riegel)MoBo: MSI Z77A-GD55 alles an Stromsparoptionen im Bios anGraka: Club 3D Radeon HD 7750 mit Arctic Cooling AcceleroNT: FSP Fortron/Source Aurum Gold 400WSSD: Crucial RealSSD C300 128GBLüfter: 4x120erund dann hier Verbrauchswerte mit der 7750idle 28.3W8x Leiden 56,6WPrime 95 75,3W
-
10. Januar 2013 um 11:01 Uhr #931830phil68Teilnehmer
Hier noch ein paar Tests von mir:
[TABLE]Projekt |Graka|Anbindung|Laufzeit in Sec|Credits pro Tag|Bemerkung|CPU-Last in %|Verbrauch in W
POEM|HD7750(6WU)| x16 3.0| 1630|930.000|Single|40|100
POEM/POEM|HD7750(6WU)/GT640(3WU)|x16 3.0/x1 2.0|2300/4800|660.000/ 157.950|Verbund|80|131
POEM/POEM|HD7750(6WU)/GT640(3WU)|x16 3.0/x4 2.0|2300/2690|660.000/282 .000|Verbund|80|138
POEM/GPUGrid|HD7750(6WU)/GT640(1WU)|x16 3.0/x4 2.0|1880/19660|805.000/35.700|Verbund|53|144
[/TABLE]Man sieht hier recht gut, dass andere Projekte die CPU kaum belasten. Also könnte man jeweils 1 HD7750 mit 2 oder 3 anderen Grafikkarten auf einem Board betreiben, muss aber dann die zusätzlichen Karten andere Projekte(wenig CPU Last) rechnen lassen. Berechnungen auf der CPU fallen dann leider auch weg… es sei denn man rechnet kein POEM. Welche Projekte sich dafür eignen, müsste man testen. GPUGrid scheint sich auf der GT640 nicht wirklich zu lohnen. Selbst wenn man die LongRuns auswählt, kommt man nur auf 50k pro Tag. Eine GTX 690 macht etwa 300k pro Tag, eine GTX650ti etwa 160k.
Ich könnte aber noch einen Test mit einer zusätzlichen GT640 fahren!? (1x HD7750 + 2 x GT640)
Grüße Dirk
-
10. Januar 2013 um 12:01 Uhr #931833ischTeilnehmer
Ist aber schon erstaunlich wieviel besser der Xeon geht.Auf 930K kommen ich ja noch nicht einmal wenn ich auf 4.3GHz OC und den RAM mit 1800 laufen lasse.Kannst du deinen RAM auf 1600MHz OC ?
-
10. Januar 2013 um 13:01 Uhr #931841littledevilTeilnehmer
Interessant, was hat/kann der Xeon besser? :-k
-
10. Januar 2013 um 15:01 Uhr #931847ischTeilnehmer
Xeon@3,5GHzRam@1333 9-9-9-24-1T
Das ist die Frage.Oder liegt es am Board?
-
10. Januar 2013 um 15:01 Uhr #931861ischTeilnehmer
phils gegen meiner macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930Kich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909K
-
10. Januar 2013 um 15:01 Uhr #931851gr3ifTeilnehmer
Welche beiden wollt ihr vergleichen?
-
10. Januar 2013 um 18:01 Uhr #931868ulvTeilnehmer
isch;501776 said:
phils gegen meiner macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930Kich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909KHabt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?Die gleiche Version vom Boinc-Client, App-Version, WU-Bezeichnung?Gleiches OS 32/64Bit? Virenkiller oder ähnliches?@isch: Hast du die Onboard-Grafik in Betrieb?Es sind ja aber eh auch nur 2,3% Unterschied. Und ich denke der RAM und die CPU spielen erst wenn die Ressourcen knapp werden eine gewichtigere Rolle – also wenn 2 oder 3 Karten im System sind.Die CPUs müssten ja eigentlich sehr ähnlich sein, zumindest von L1-, L2- und L3-Cache.Habt ihr die genau gleiche Chipsatz-Version?
-
10. Januar 2013 um 18:01 Uhr #931870ischTeilnehmer
Habt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?
du hast aber schon gesehen das meine CPU mit 4,3GHz lief was 32K am Tag mehr bringt und mein RAM mit 1800.Nein natürlich nicht.Seine Hat GDDR5 was aber auch nur 4K am Tag mehr macht bei sonst gleichen Einstellungen.Die gleiche Version vomBoinc-Client, 7.042x64App-Version, sollten die gleichen Einstellungen seinWU-Bezeichnung? opencl_ati_100Gleiches OS 32/64Bit? Win7 HPx64Virenkiller oder ähnliches? Avira AntivirusFree@isch: Hast du die Onboard-Grafik in Betrieb? ne habe den Monitor an die obere Graka angeshlossen
Habt ihr die genau gleiche Chipsatz-Version?
Z77
-
10. Januar 2013 um 19:01 Uhr #931872VTG01Teilnehmer
Ich schätze dass das der GPU Takt ist, der ist um etwa 12% höher (800 +12% ist etwa 900) – wobei isch auch mit 900Mhz gelaufen ist, jedoch nur mit 3,4 Ghz CPU. naja, ich denke mal dass das nicht wirklich viel Unterschied ist.Dennoch würde mich interessieren ob eine 7870 mit 1,1 Ghz dann an die 1,1 Mio Credits kommt oder auf deutlich mehr.
-
10. Januar 2013 um 19:01 Uhr #931873ischTeilnehmer
Ah da her die mehr Credits.Hier sieht man aber schön das 100MHz GPU Takt mehr bringt als 800CPU und 467RAM zusammen.@ VTG01 die 900 waren GrakaRAM Takt bei meinem Test.Die 7870 werde ich auch noch testen
-
10. Januar 2013 um 19:01 Uhr #931871phil68Teilnehmer
Boinc-Client, 7.042×64
opencl_ati_100(POEM++ OpenCL version 1.03 windows_intelx86 (opencl_ati_100))
Win7 HPx64
Avira AntivirusFreeGenau 😉 Hab allerdings gestern auf 7.0.44(Beta) umgestellt, wegen der app_config.xml. Diese soll einfacher aufgebaut sein und sich einfacher und effektiver konfigurieren lassen. Siehe hier: http://www.seti-germany.de/wiki/App_config.xml
Leider hat das nicht wirklich funktioniert.Vielleicht hilft das weiter?
ermittelte Geschwindigkeit für Gleitkommazahlen : 3400.41 Millionen Operationen/Sek
ermittelte Geschwindigkeit für ganze Zahlen : 11843.46 Millionen Operationen/SekMeine GPU läuft mit 900MHz… der einzige Unterschied, der mir jetzt einfällt. Ich werde heut abend mal auf 3,7GHz umstellen. Mal sehen was geht 🙂
Grüße Dirk
-
10. Januar 2013 um 20:01 Uhr #931889VTG01Teilnehmer
@ischdu hast doch schon irgendwo die config Datei für mehrere WU’s gepostet, hast du da noch einen Link davon? oder kannst du mir die Datei senden?
-
10. Januar 2013 um 21:01 Uhr #931897ischTeilnehmer
Du meinst die app.info die schicke ich dir gleich.
hier ist von Heute der Langzeit Test mit 2 Graka und 2400er RAM
[table “” not found /]
123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142
Leider hatte ich einen Absturz im laufe des Tages wodurch einiges an Rechenzeit verloren ging.
-
11. Januar 2013 um 19:01 Uhr #931961ischTeilnehmer
Habe mal meine 7870 Durchgetestet.1.150K war das beste was ich raus geholt habe bei 1250MHZ und 7 Wus.Bei 10 Wus waren es nur noch1.030k
-
11. Januar 2013 um 20:01 Uhr #931967VTG01Teilnehmer
Danke für die App_Info. Leider habe ich keine WU’s bekommen um zu testen, aber morgen ist auch noch ein Tag.Aus dem Vergleich 7750er zu 7870er geht hervor dass die 7870 zwar mehr mach aber doch deutlich mehr Strom benötigt als die 7750er. Hast du vielleicht notiert was dein Gerät an Strom benötigt hat beim Test mit der 7870er?
-
11. Januar 2013 um 21:01 Uhr #931969VTG01Teilnehmer
Zitat:
Zitat von isch Beitrag anzeigen
phils gegen mein
er macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930K
ich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909K
Habt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?
Die gleiche Version vom Boinc-Client, App-Version, WU-Bezeichnung?
Gleiches OS 32/64Bit? Virenkiller oder ähnliches?
@isch: Hast du die Onboard-Grafik in Betrieb?Es sind ja aber eh auch nur 2,3% Unterschied. Und ich denke der RAM und die CPU spielen erst wenn die Ressourcen knapp werden eine gewichtigere Rolle – also wenn 2 oder 3 Karten im System sind.
Die CPUs müssten ja eigentlich sehr ähnlich sein, zumindest von L1-, L2- und L3-Cache.
Habt ihr die genau gleiche Chipsatz-Version?Ist es nicht so dass der Xeon als Server Prozesser speziell auf Multitasking ausgelegt ist und somit mit vielen Anfragen besser auskommen sollte?
Was mir auffällt ist auch die Aussage dass die Rechenzeiten bei POEM deutlich in den Keller gehen wenn nebenbei noch Climate Pr. oder sonstiges laufen.
Ich frag mich auch, was denn nun die CPU so belastet! Andere Projekte sind da in Sachen GPU-WUs besser aufgestellt und laufen prima nebenher! Sobald ich Climate Prediction zusätzlich auf 4(CPU)Kernen laufen lasse, gehen die Laufzeiten der POEM WUs in den Keller… 1680s vs. 3000s (900k vs. 505k) Da macht es kaum Sinn andere Projekte nebenher laufen zu lassen
Aus meiner Sicht deutet das darauf hin dass sehr viel in den Speicher geschrieben / gelesen wird. Das geht so lange gut wie Cores zur Verfügung stehen. Aber sobald mal doppelt so viele WU’s als Cores laufen wird da wohl ein Flaschenhals sein. Ich hab die Erfahrung gemcht als ich eine VM mit 16 Cores auf einem i7 aufgesetzt hatte. Die Rechenzeiten waren etwa 3-4x so lange – Projekt war damals SIMAP.
❓ könnte man sich mit der Erklärung abfinden? ❓ -
11. Januar 2013 um 21:01 Uhr #931968ischTeilnehmer
Oh ganz vergessen zu schreiben.Es waren 134W.Aber irgendwas limitiert hier.Bei den 7 WUs habe ich grade mal 74% Last.Der Der Arbeitsspeicher lief mit 2400MHz CPU halt auf 3,4GHz.
-
11. Januar 2013 um 21:01 Uhr #928956JabbaTeilnehmer
Also die Zeiten in denen Xeons einfach die besseren Prozessoren waren sind für die von uns betrachteten Xeons vorbei.Die Low End Xeons sind normale Ivy Bridges mit aktiviertem Hyper Threading (und das noch nicht mal bei allen).Wenn Du richtig Xeon Power willst, dann brauchst Du die nativen 8-/10-Kerner. Aber die kosten richtig Geld. Von der Plattform mal ganz abgesehen.Einziger Vorteil, wenn man mal nicht auf Geld schaut, ist, daß man nur ein Monster betreuen muß, das zwischen 32 und 40 nativen Kernen zur Verfügung stellt.Für das Geld kann man sich allerdings ne Farm mit 1230ern gönnen.Deine Erfahrungen mit Simap sind plausibel. Simap rechnet ja konstant auf der CPU und nicht wie einige andere Projekte mal nen Schwung auf der GPU und dann wieder auf der CPU. Dadurch bringen mehr VMs als native Cores gar nix. Selbst Hyper Threading kann (muß aber nicht!) Dich da schon ausbremsen.GrußJabba
-
12. Januar 2013 um 16:01 Uhr #931996phil68Teilnehmer
Kannst du deinen RAM auf 1600MHz OC ?
Der Kingston LP-RAM scheint ein wahres OC Wunder zu sein…
[TABLE]Projekt|Graka|Anbindung|RAM@|Timings|VDimm|Laufzeit in Sec|Credits pro Tag
POEM|HD7750(6WU)|x16 3.0|1333|9-9-9-25|1,35V|1630|930.000
POEM|HD7750(6WU)|x16 3.0|1866|10-10-10-28|1,5V|1600|950.000
[/TABLE]Die Low End Xeons sind normale Ivy Bridges mit aktiviertem Hyper Threading (und das noch nicht mal bei allen).
Die Xeon’s sind eine sehr preiswerte Alternative zum “fast” gleichen i7. Wenn sowieso eine Graka verbaut wird, lohnt es sich die 8W weniger TDP mitzunehmen. Zumal man mit der internen Grafikeinheit sowieso nix reißen kann.
Das Einzige was nervt… ich bekomme den Xeon, selbst mit Z77 Board, nicht auf den Turbo-Takt 🙁Grüße Dirk
-
12. Januar 2013 um 17:01 Uhr #932004ischTeilnehmer
Optimierst du noch alles auf möglichst wenig Stromverbrauch?Dann kann man mal sehen ob mein GD55 Sparsam ist oder nicht.
-
12. Januar 2013 um 17:01 Uhr #932001JabbaTeilnehmer
Kannst Du ihn denn untervolten?Mein Mobo (GA-Z77N) bietet da nix! :-(Übertakten geht nur im Bios übers Taktanheben. 3,7 waren schon drin. Hab aber noch nicht weiter getestet.
-
12. Januar 2013 um 17:01 Uhr #932003phil68Teilnehmer
Hi Peter 🙂
Kannst Du ihn denn untervolten?
Ja das geht. Im Moment läuft er mit 0,9V. Das Asrock bietet recht üppige Einstellungen an.
Übertakten geht nur im Bios übers Taktanheben. 3,7 waren schon drin. Hab aber noch nicht weiter getestet.
Per BCLK komm ich bis 108… also 3780MHz.
Grüße Dirk
-
12. Januar 2013 um 19:01 Uhr #932008littledevilTeilnehmer
Jabba;501926 said:
Mein Mobo (GA-Z77N) bietet da nix! 🙁Schade, hätte ich bei GA eigentlich erwartet, da auch mit Z77 bestückt. Kann man die Spannung gar nicht verändern oder nur OC?
-
12. Januar 2013 um 20:01 Uhr #932010JabbaTeilnehmer
Spannung kann beim ga nur für die Rams geändert werden. Für die CPU gibtskeinerlei spannungseinstellungen. :-(Kann dir gar nicht sagen wie mich das. ..Aktuell laeuft es mit dem 1230er, 16 GB, DVD, 500er HDD, 240er SSD und einer 7750 unter Vollast (8 x Leiden, 1 x Collatz) bei ziemlich genau 120 W. Room for improvement.
-
13. Januar 2013 um 8:01 Uhr #932026littledevilTeilnehmer
Hmm.. oder doch ein anderes Board? Weiß nicht, o umtausch noch geht – bin grad im Urlaub…
-
13. Januar 2013 um 17:01 Uhr #932046gr3ifTeilnehmer
Jabba;501937 said:
Spannung kann beim ga nur für die Rams geändert werden. Für die CPU gibtskeinerlei spannungseinstellungen. :-(Kann dir gar nicht sagen wie mich das. ..Aktuell laeuft es mit dem 1230er, 16 GB, DVD, 500er HDD, 240er SSD und einer 7750 unter Vollast (8 x Leiden, 1 x Collatz) bei ziemlich genau 120 W. Room for improvement.Strg+f1 kennst du aber? Vorher ist das nie sichtbar…..
-
14. Januar 2013 um 8:01 Uhr #932068JabbaTeilnehmer
@Greif
hab ich noch nicht probiert… hätte ich da etwa das Handbuch lesen müssen? 😉
Werds ausprobieren und Meldung erstatten! -
14. Januar 2013 um 17:01 Uhr #932079ischTeilnehmer
Die PowerColor Radeon HD 7750, 4GB DDR3 ist jetzt auch da und ich konnte keine unterscheide zu meiner Club 3D Radeon HD 7750, 1GB DDR3 feststellen.Morgen teste ich dann mal mit 3 7750er.
-
14. Januar 2013 um 20:01 Uhr #932084ulvTeilnehmer
Super, dann wird es jetzt richtig spannend. 8-[
Danke, dass du dir die Arbeit mit den Tests machst!
-
14. Januar 2013 um 21:01 Uhr #932087gr3ifTeilnehmer
Jabba;501997 said:
@Greifhab ich noch nicht probiert… hätte ich da etwa das Handbuch lesen müssen? ;-)Werds ausprobieren und Meldung erstatten!HM scheint bei dem Brett tatsächlich nicht zu gehen:http://www.hardwareluxx.de/community/f12/gigabyte-ga-z77n-wifi-ga-h77n-wifi-919904.htmlDas ist mal wieder super@Gb^^
-
15. Januar 2013 um 17:01 Uhr #932110ischTeilnehmer
Heute sind die beiden 2×4 GB 2400MHz RAM Riegel eingetroffen.
07.01
idle 28,5W-29W
Load 8x FM@H 57,5WClub 3D Radeon HD 7750, 1GB DDR3
eine einzelne Wu dauert bei 0,33 CPU 1300s
GPU Takt ist immer 800MHz
[table “” not found /]
08.01
[table “” not found /]
09.01
[table “” not found /]
Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.
*Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.
**Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.
***Und das ganze noch mal mit 200MHz mehr.
****app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142 neuer RAMich versuche die CPU Last auf max 33% zu halten
app.Info Einstellung 4 WUs CPU 0.5 GPU 0.25
app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2
app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166
app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142
______________________________________________________________PowerColor Radeon HD 7750 low profile, 1GB GDDR5
idle 34W
[table “” not found /]
Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.
Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.
______________________________________________________________2 Grakas
idle 40W[table “” not found /]
09.01
[table “” not found /]
+Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.
+117W @ 60C
120W @ 74C
122W @ 76C++121W @ 75C
+++118,5W @ 74C
++++123W @ 76C
– 118W @ 72C app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166
— 118W @ 71C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142
—118,5W @ 73C app.Info Einstellung 8 WUs CPU 0.5 GPU 0.125
—-121,5W @ 72C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142
—– 123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142[table “” not found /]
+65W @ 65C
______________________________________________________________
15.01
3 Grakas
[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166
___________________________________________________________________ -
15. Januar 2013 um 20:01 Uhr #932124Obi WanAdministrator
ich seh schon, ihr seit die “Meister der Tabellen”
-
15. Januar 2013 um 22:01 Uhr #932128ischTeilnehmer
Ich hatte mit deutlich mehr gehofft.Ist ja sogar weniger als mit 2 Karten.Morgen teste ich noch mal mit 2 Karten und 900MHz GPU Takt.
-
15. Januar 2013 um 22:01 Uhr #932127JabbaTeilnehmer
Der Output ist heftig!Super Aufstellung!
-
15. Januar 2013 um 23:01 Uhr #932130JabbaTeilnehmer
Das stimmt. Dennoch: mit Low-End Karten solch ein Ergebnis und das noch in Relation zum Stromverbrauch ist aller Ehren wert.
-
17. Januar 2013 um 9:01 Uhr #932173ischTeilnehmer
Die ersten 24 Stunden meines Langzeittest mit 2Grakas und 900MHz sind rum.Leider hatte ich 3 abstürze und weiß daher nicht wie viele Credits verloren gegangen sind.[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166 -
18. Januar 2013 um 16:01 Uhr #932248ischTeilnehmer
Gibt er einen Splitter der von PCIe 3.0×16 auf 2x PCIe 3.0 x8 geht?
-
18. Januar 2013 um 19:01 Uhr #932260littledevilTeilnehmer
Die könnten etwas sein, aber k.a. wo man die kaufen kann:ARC2-PEL-2X16ARC1-PELY423-C7designed for Supermicro proprietary motherboard such as H8DGG-QF with chipset that supports bifurcation.Gibt es ein Tool mit dem man den PCIe traffic loggen kann, also nur die Auslastung?Wenn Geld keine Rolle spielt:NA255A External PCIe Gen3 to GPU Desktop EnclosureShopDas alte Modell zur Preisabschätzung
-
18. Januar 2013 um 21:01 Uhr #932263ischTeilnehmer
Ne das ist ein bisschen zu teuer 🙂
-
19. Januar 2013 um 9:01 Uhr #932270ischTeilnehmer
Die ersten 24 Stunden meines Langzeittest mit 2Grakas und 900MHz sind rum.Leider hatte ich 3 abstürze und weiß daher nicht wie viele Credits verloren gegangen sind.[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166Ich Stoppe dann hier und fange eine neue Testreihe mit anderen Einstellungen an. -
21. Januar 2013 um 17:01 Uhr #932340BurntimeTeilnehmer
Spricht was gegen CAD-Karten?
-
21. Januar 2013 um 17:01 Uhr #932343Christoph!Administrator
Burntime;502298 said:
Spricht was gegen CAD-Karten?Vermutlich die Kosten?
-
21. Januar 2013 um 19:01 Uhr #932350ThaRippaAdministrator
Vor allem haben CAD-Karten kein anderes Silizium drin. Die GPGPU-Berechnungen werden von den speziellen Treibern auch nicht schneller.
-
22. Januar 2013 um 2:01 Uhr #932368DeadsystemTeilnehmer
wäre eine Erweiterung des EMK2-Rechners mit je einer Graka pro Board nicht sinnvoll?
-
22. Januar 2013 um 8:01 Uhr #932372littledevilTeilnehmer
So eine Überlegung hatte wir mal, aber zum einen liegt der EMK2 dann so lange brach und im Gehäuse ist kein Platz mehr.
-
22. Januar 2013 um 9:01 Uhr #932377JabbaTeilnehmer
@Deadsystem
Wie LD schon richtig erwähnt hat, paßt da nix mehr rein – vllt. eine Low Profile PCIe…. grübel grübelAnsonsten dürfte sich der Stromverbrauch auch noch einmal deutlich erhöhen. Was mich gleich zur Frage der Stromspende führt 🙂
Ein zusätzliches Netzteil wäre evtl. ebenfalls nötig (sollte genau durchgerechnt werden).Gruß
Jabba
-
22. Januar 2013 um 13:01 Uhr #932383DeadsystemTeilnehmer
dachte da erst an 90° Riserkarten, aber vermutlich ist der Platz nicht vorhanden. zweite Möglichkeit: die Grafikkarten außerhalb in einem extra Gehäuse mit den Mainboards verbinden. Gibt es ca. 1m lange Pci-e Riser-Kabel?dritte Möglichkeit: Vorhandenes Gehäuse vergrößern oder anderes Gehäuse.vierte Möglichkeit: EMK2 splitten und sowas wie 2x Revision 1.0 mit Grafikkarten bestückenwäre schade die nicht bestückten PCI-e Slots nicht auszunutzen.
-
22. Januar 2013 um 14:01 Uhr #932385JabbaTeilnehmer
@Deadsystem
PCIe Verlängerungen gibts: ca. 17cm, habe auch schon gut 30cm zum Laufen gebracht.
Ins Gehäuse paßt schlichtweg nix mehr.
Eine Erweiterung haben wir bereits ausgiebig diskutiert und verschiedene Lösungen erörtert.Befriedigend ist ein Umbau / Aufrüstung zum GPU Cruncher nicht, da doch erheblicher Aufwand betrieben werden muß.
Einen EMK3 aufzubauen erscheint da leichter. Man sollte allerdings nicht die Betriebskosten außen vor lassen. Die sind erheblich.@LD
Meine FPGAs kommen wohl irgendwann im April 😉 und leisten ca. 0,3 THash/s.Gruß
Jabba
-
22. Januar 2013 um 14:01 Uhr #932384littledevilTeilnehmer
Sofern es entsprechende FPGAs bzw. ASICs geben sollte, die entsprechend kompakt sind, könnte man da upgraden, aber zurück zum Thema GPU cruncher…
-
22. Januar 2013 um 19:01 Uhr #932408ischTeilnehmer
Es hat mich wieder in den fingern gejuckt und ich habe noch mal eine Graka zum testen bestellt :+
XFX Radeon HD 7770 GHz Edition 1000M Double Dissipation Edition
Es ist die geworden wegen den 2 Lüftern weil gleich leiser und Kühler.
Leider war das ein großer Irrtum.Wenn die beiden richtig los legen drehen die mit 4140 rpm und das Ding wird trotzdem noch bis zu 78C heiß 😡
Hier mal ein paar Ergebnisse.
[table “” not found /]
Wie man am GPU Load MHZ Verhältnis sieht scheint da irgendwas zu limitieren.Ich tippe mal auf die CPU.
Was mich aber an allermeisten wundert ist der hoher Strom verbrauch.2 7750 verbrauchen weniger und meine 7870 hat bei 7 WUs @ 1250MHz auch nur 134W gezogen.Dabei kamen 1.150K pro Tag raus was ein c/w von 8582 macht.Habe ich mit der XFX einfach nur Pech gehabt oder sind die 7770 doch so viel schlechter als die 7750
Fazit.
Mehr Stream-Prozessoren/Textureinheiten bringen nichts.Die Takt grenze liegt irgendwo bei 900MHz-1000MHz bei einem CPU Takt von 3,4GHz.Leider geht bei den 7750 nicht mehr wie 900MHz.
Ich teste jetzt mal die CPU mit 3,6GHz.Wenn die Stabil läuft kommen noch mal die 2 7750er dran und eventuell auch noch mal die 7770.
-
22. Januar 2013 um 20:01 Uhr #932410ischTeilnehmer
Da ja eigentlich nur 2 Grakas Sinn machen können wir auch auf Dualslot setzen.Ich weiß nicht wie das bei Asus mit dem Stromverbrauch aussieht.Bei den Mobos brauchen die ja mehr als die anderen.Auf 900MHz ist sie auch schon OC was auch nichts schadet 🙂
Hatte da vielleicht an sowas gedacht und dann von hinten mit einem 120er/140er belüften.
spart man einen Lüfter und die 120er/140er sind wahrscheinlich auch noch sparsamer.
-
22. Januar 2013 um 20:01 Uhr #932409littledevilTeilnehmer
Hmm.. wie schauts denn mit der ASUS HD7750-T-1GD5
-
22. Januar 2013 um 21:01 Uhr #932425Obi WanAdministrator
:respekt: Kompliment, ISCH für deine Testreihen :d:
-
22. Januar 2013 um 21:01 Uhr #932422littledevilTeilnehmer
schöner Passivkühler. Der paßt gut zur Belüftung nach draußen :d:
-
22. Januar 2013 um 22:01 Uhr #932430VTG01Teilnehmer
@ ischMit der Taktfrequenz der Graka kann ich dir Recht geben und das Ergebnis bestätigen. Ich habe kurzzeitig POEM auf dem x4 gerechnet. Es ist nahezu egal ob die 7870 Graka mit 800Mhz oder mit 1200 Mhz läuft, lediglich der Stromverbrauch sinkt. Auch ist es mir nicht gelungen die CPU-Last oder die GPU-LAst über 90% zu bringen. Die 7870 rechnet überhaupt nur bis 79% (ok bei Collatz und Treiber 12.4 geht sie auf 100%, ist übrigens die Catalyst Version mit der Collatz noch geht). Nimmt man noch andere projekte hinzu so sinkt die POEM Leistung am 4-Kerner deutlich ab. Gelaufen ist der X4 mit nur 3,2 Ghz, die 3,6 Ghz habe ich nicht stabil bekommen. Liegt vielleicht aber daran dass ich vorher eine 5770 drinnen hatte …Hast du schon die neuen Treiber getestet? hatte heute Morgen eine Info dass 13.x (Nummer habe ich verdrängt) herausgekommen ist.
-
22. Januar 2013 um 23:01 Uhr #932432ischTeilnehmer
Ne ich teste noch mit den 12 Beta 11.Will da keine falschen Ergebnisse hervor rufen mit den neuen Treibern.
-
24. Januar 2013 um 9:01 Uhr #932472littledevilTeilnehmer
Das mit dem ersten Slot ist sehr interessant.
Bei 2x x8 sollte ja die CPU Anbindung nicht limitieren :-k -
24. Januar 2013 um 9:01 Uhr #932470ischTeilnehmer
[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166GPU Takt 900MHzDann ist mir eins extrem aufgefallen und zwar die Graka im oberen Slot Profitiert deutlich mehr vom höheren CPU Takt als die im unteren Slot.Nach ca 15Std hatte die schon 2 Durchläufe mehr als die andere und bis Heute morgen waren es mehr als 3.Im oberen Slot braucht die Graka ca 1875s pro WU und die im unteren 2020s pro WU. -
24. Januar 2013 um 21:01 Uhr #932498ischTeilnehmer
[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166GPU Takt 900MHzich Stoppe hier mal und teste mit anderen Einstellungen weiter. -
24. Januar 2013 um 22:01 Uhr #932503RenovatioTeilnehmer
Erstaunlich wie viele Tabellen hier schon stehen. 😮 Das nenne ich mal eine Testreihe was am effizientesten ist. Kompliment. :mk rult:
-
30. Januar 2013 um 7:01 Uhr #932693littledevilTeilnehmer
Any News?
-
30. Januar 2013 um 18:01 Uhr #932723ischTeilnehmer
Ich teste jetzt wie viel Credits verloren gehen wenn auf der CPU noch andere Projekte laufen.
-
31. Januar 2013 um 21:01 Uhr #932775ischTeilnehmer
Leider ist die WU Versorgung nicht besonders so das er Heute im laufe des Tages leer gelaufen ist.Also kann ich erst in ein bis zwei Tagen sagen wie viel er schafft wenn die CPU voll belastet wird.
-
31. Januar 2013 um 22:01 Uhr #932777VTG01Teilnehmer
Irgendwie stellt sich die Frage wenn ein POEM-Cruncer mit 6 oder 8 Boarsd, sprich 12 oder 16 Grakas im Betrieb ist der auch immer wieder leer läuft?
-
31. Januar 2013 um 23:01 Uhr #932783ischTeilnehmer
Das Problem liegt wohl an der Server von POEM.Der neue ist wohl schon bestellt und sollte eigentlich schon laufen aber da gibt es wohl Verzögerungen.Arbeit an sich ist wohl genug vorhanden und es wird wohl auch noch neue dazu kommen.
-
1. Februar 2013 um 8:02 Uhr #932784Mad-MaxModerator
VTG01;502764 said:
Irgendwie stellt sich die Frage wenn ein POEM-Cruncer mit 6 oder 8 Boarsd, sprich 12 oder 16 Grakas im Betrieb ist der auch immer wieder leer läuft?Dafür wärs ja dann gut, wenn er sich dann mit was anderem beschäftigen könnte…
-
1. Februar 2013 um 17:02 Uhr #932840VTG01Teilnehmer
Arbeit an sich ist wohl genug vorhanden und es wird wohl auch noch neue dazu kommen.
Das kann ich mir gut vorstellen. Speziell im medizinischen Bereich sind die Grenzen sehr weit weg. Kann mir durchaus vorstellen dass das Projekt viel Jahre läuft. Es kommt drauf an wie schnell die Ergebnisse der WU’s verarbeitet werden können.
-
2. Februar 2013 um 19:02 Uhr #932865orw.AnonymousTeilnehmer
While a yourself has to put in a lot of application and cool one’s heels a eat one’s heart out anon a punctually to take home systematic loans, payday loans during self employed are very peacefully to obtain. A certain does not have to metamorphose cash advance america $yn7514* cash advance loans they basis undue ill fortune on those that are struggling financially already. Payday lenders chance that there fees are not in sight of cortege when all in all there high operating costs and large fail rates. They associate their fees to overdue penalties from
of choices. One plausible street to sort wrong the good from the bad is before checking a payday loans review website. Sometimes again I egg on you that if your planning to extract this itinerary to find the best apportion in favour of your needs. Knock off the slightest loan you need and extend your account only take every month and notification longing be send to you as in good time as it gets debited. So at the moment you play a joke on got an stunning figuring out of a payday accommodation whenever there’s any emergency tied up to economic stuff. Payday betterment provides you a
http://www.comparegoldfarmers.com/forum/viewtopic.php?f=35&t=114998&p=475647#p475647
http://www.forums-autosital.com/index.php?/topic/81776-payday-loans-in-tempe-arizona/
http://heavenlytower.com/community/index.php?topic=327571.new#new
http://www.forums-autosital.com/index.php?showtopic=81784 -
2. Februar 2013 um 20:02 Uhr #932872orw.AnonymousTeilnehmer
these loans. Effectiveness be the importance rate a hint higher but solely research enkindle will reveal this argument actually conveniently and avail you affordable administer on realizable cash advance loans online ~ws2369# Cash Advance On Assuming that the borrower has fulfilled every criteria stated away the credit provider, the no hamper payday loan would be approved in no time. The borrower commitment bargain the accommodation proceeds credited speedily to his bank account not later than the next working epoch or
need loot urgently? As we recall nowadays, loot is much more portentous to convene our diurnal needs. At times it’s uncommonly difficult to fulfill our requirements. If you are hard up you are growing to borrow these loans, you obligation grasp the hard-hearted the score of these loans and it is in its piece rate. These loans are offered at extraordinary rating of avail
http://blog.wallstreetitalia.com/eforo/2012/01/09/2012-recessione-o-depressione/#comment-14
http://www.sierrasanvicente.com/foro/index.php?topic=262.new#new
http://www.hostmaniaweb.com/blog/viewtopic.php?f=6&t=1102&p=76676#p76676
http://savethesoapgenre.org/wp-content/plugins/zingiri-forum/mybb/showthread.php?tid=1719&pid=21594#pid21594 -
2. Februar 2013 um 21:02 Uhr #932875orw.AnonymousTeilnehmer
Gelöscht da Werbung und nichts zum Thema ❗
LG phil68
-
3. Februar 2013 um 9:02 Uhr #932886ischTeilnehmer
Der POEM Server ist mal wieder leer gesaugt und ich habe nichts mehr zu tun.Hier ist mal ein Ergebnis der letzten Tag Es wurde aber nicht 24 Stunden am Tag durch gerechnet mangels ausreichender WUs.Ich würde sagen es sind so 850K drin wenn die CPU noch andere Sachen nebenbei rechnet.Die Graka lief mit 900/900 und der Arbeitsspeicher mit 1800 CL 9-9-9-27.Man hat also ca 100K Verlust wenn die CPU voll beschäftigt ist.Wenn es wieder WUs gibt versuche ich mal eine Woche am Stück zu rechnen danach lasse ich mal ein Kern frei und schaue dann noch mal was bei rum kommt.
-
5. Februar 2013 um 0:02 Uhr #933028DeadsystemTeilnehmer
habe seit einigen tagen eine HD 5750 am laufen. schafft maximal 240.000 credits am tag. es laufen 3 tasks gleichzeitig mit 0,666 cpu auslastung. mit den aktuellen wu’s ist eine anwendung nach ca 54min fertig.meine frage ist jetzt: wie ist die große differenz zu erklären, denn auf dem papier sind die karten recht ähnlich. welches feature ist für den großen unterschied verantwortlich?
-
5. Februar 2013 um 13:02 Uhr #933034gr3ifTeilnehmer
Der Ram, da gibt es ddr2-gddr5 Ram und so
-
5. Februar 2013 um 17:02 Uhr #933045DeadsystemTeilnehmer
was meinst du genau damit? sind die gddr5 chips verkappte ddr2? im datenblatt wird die speicherbandbreite bei beiden karten ziemlich ähnlich angegeben… http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7770-und-hd-7750/
-
5. Februar 2013 um 19:02 Uhr #933054DeadsystemTeilnehmer
jo, keine verbesserung. kann sein, dass die neueren grakas besser mit mehr WU’s umgehen können. ist aber auch nur ein relativ geringer unterschied feststellbar, wenn ich mir deine testreihen angucke. ist zwar nicht wenig aber nicht so deutlich 😉
-
5. Februar 2013 um 19:02 Uhr #933050ischTeilnehmer
POEM interessiert der Graka RAM nicht wirklich.Der große unterschied kommt daher das die 7750 Karten PCIe 3.0 haben und eine neue Architektur.Der neue Treiber bringt auch noch mal ordentlich Schwung mit.Welche CPU mit wievielt GHz hast du und wie sieht es mit dem Arbeitsspeicher aus?
-
5. Februar 2013 um 19:02 Uhr #933052ischTeilnehmer
Hast schon mal mit mehr WUs probiert?
-
5. Februar 2013 um 19:02 Uhr #933051DeadsystemTeilnehmer
es läuft ein 3770k mit 4,4GHz und 16gb ram @ 1600 9-10-9-24 1t. dachte erst an die erhöhte anzahl der transistoren (+~30%)
-
5. Februar 2013 um 20:02 Uhr #933062VTG01Teilnehmer
Naja, ich denke mal dass es einfach an der Architektur der Graka liegt und wie die Befehle verarbeitet werden. Die Schnittstelle PCIe 3.0 bringt da weitere deutliche Vorteile bei dem Abgleich der Daten zwischen CPU und GPU.
Ich hatte eine kleine Testreihe mit einem X4 955 der mit 3,4 Ghz lief und einer 7870er die mit 1,2 Ghz lief. Ich konnte in keiner Kombination CPU oder Graka auslasten, bei etwa 75-78% war bei der Graka Schluß, bei der CPU bei etwa 85-88%. Erst das Absenken des GPU Taktes auf etwa 800Mhz brachte eine höhere Auslastung der GPU. Die Creditausbeute sank jedoch nur mäßig, kaum merkbar. Stromtechnisch war es jedoch deutlich zu sehen.
Anders ist es bei Collatz. Hier leistet eine moderat gefahrene 5850 mehr als eine hoch gezogene 7870. Unterschied könnte daher kommen dass Collatz bereits seit ein paar Jahren läuft und anders Programmiert ist als POEM. Die neuesten Treiber von Catalyst bewirken ausschließlich Berechnungsfehler bei Collatz. Bei mir funktioniert Treiberversion 12.4.
Somit rechnet die 58xx Serie Collatz, die 78xx POEM (naja, eigentlich rennt auf dem Rechner Leiden). Ist aber weiter nicht schimm ….
-
17. Februar 2013 um 17:02 Uhr #933480ischTeilnehmer
-
17. Februar 2013 um 17:02 Uhr #933479ischTeilnehmer
So mal wieder ein kleines update von mir.Da die WU Versorgung in letzter Zeit etwas holprig war läuft es jetzt seit ein paar Tagen stabil.
-
23. Februar 2013 um 5:02 Uhr #933683DeadsystemTeilnehmer
@isch hast du eine Lösung gefunden wie man zwei AMD Grafikkarten mit Poem betreiben kann?hab da ein Posting von dir im boinc.fzk.de forum gelesen. ist schon paar Monate her.
-
23. Februar 2013 um 8:02 Uhr #933685ischTeilnehmer
Die beiden AMD Karten laufen ohne Probleme zusammen.Im Poem Forum waren es zwei verschiedene NV Karten.
-
23. Februar 2013 um 10:02 Uhr #933686VTG01Teilnehmer
Mal ein kurzer Zwischenstand von mir:
Mein Q9400 ist nun seit 1 Woche mit einer 7750er und einer 5850 ausgestattet. Mit der 5850 wurde Collatz fertig gerechnet. Komischerweise ging alles glatt bi sdie Collatz WU’s weg waren. Da ich kein POEm bekommen habe habe ich mir eine Ladung Collatz geholt – und siehe da, nur mehr Berechnungsfehler … Na egal, Soll ja POEm rechnen. Tags darauf kamen einige POEM WU’s daher und los ging es.im Verhältnis 1:1 Graka/CPU ist die 5850 doch einiges schneller als die 7750, obwohl sie am 1. PCIe Slot hängt. Differenz ca. 55 Minuten zu 75 Minuten. ich habe dann die ini Datei ein wenig geändert, auf 0,75:0,50. Sprich es laufen 4 WU’s parallel auf 3 Kernen. Leider ging da kaum mehr etwas – offensichtlich ist das Board, ein P5B Deluxe doch schon ein wenig in die Jahre gekommen :shock:. Auch der Hauptspeicher mit 2 GB DDR2 ist ein wenig überholt. Zur Zeit rennt das Gerät wieder im Verhältnis 1:1, 1 Task Clamate rennt nebenher, Leiden ist nach dem Einstieg von 2 Potenten Usern wieder leer gesaugt.
Ich komme mit den 2 Karten zur Zeit auf NUR 170.000 Credits je TAG !! :(:(:(
Das nächste ist ist, dass ich das Gerät leider aus der Ferne nicht durchstarten kann – der bleibt immer im irgendwo drinnen hängen ….:fresse:
Da wir über Nacht mehr als 25cm Schnee bekommen habe ist es mir leider nicht möglich zu meinem POEM Rechner zu gelangen – wird somit noch eine Woche so weitertümpeln 🙁
-
23. Februar 2013 um 15:02 Uhr #933697DeadsystemTeilnehmer
isch;503725 said:
Die beiden AMD Karten laufen ohne Probleme zusammen.Im Poem Forum waren es zwei verschiedene NV Karten.
könnte es sein, dass ältere Karten wie die HD 5750 Probleme damit haben? musstest du was an der app_info ändern?
-
24. Februar 2013 um 8:02 Uhr #933709ischTeilnehmer
@ VTG01 da klemmt aber was ganz gewaltig.Welchen Treiber hast du drauf?Mit welcher PCIe Geschwindigkeit laufen die Karten?CPU und RAM sind ja auch nicht die schnellsten.Hast mal nur mit der 7750 getestet?
-
24. Februar 2013 um 18:02 Uhr #933733VTG01Teilnehmer
Es sind die 12.11Beta Treiber drauf. Sobald ich wieder am Damm bin werde ich die 5850 ausbauen und dann nur mit der 7750 rechnen lassen. Nur die 7750er habe ich noch nicht laufen gehabt.
-
7. März 2013 um 8:03 Uhr #934031Obi WanAdministrator
ich habe den Überblick verloren.Was ist den jetzt der Status oder das Fazit der Aktion ?
-
7. März 2013 um 20:03 Uhr #934084VTG01Teilnehmer
Gemischt, am alten Asus P5B Deluxe und dem Q9400 rennt die 7750er auf 65% bei 4 Wu’s auf 2 Cores. Output sind nun irgendwo um die 200.000 je Tag – falls ich mal wieder WU’s bekommen sollte.
Testen will ich noch 6 WU’s auf 3 Cores, ich denke aber dass der Speicherausbau mit 2 GB deutlich zu klein ist.
Das Verhältnis Watt/Credits ist jedoch deutlich besser als bei Collatz. Da bringt die 5850er etwa 165.000 Credits je Tag mit deutlich mehr Stromhunger.
-
7. März 2013 um 21:03 Uhr #934086VTG01Teilnehmer
1 WU bringt knapp 3.000 Credist. bei 9.000-11.000 Credits schaffen die 2 Grakas am Tag 4 WU’s, Rechenzeit sind somit 12 Stunden je WU?die 7750er braucht 1.08 Stunden (68 Minuten). Ich denke mal dass da einiges nicht passt.
-
7. März 2013 um 21:03 Uhr #934087Neo111430Teilnehmer
Sry mein fehler es gibt da ein problem was ich schon länger hab von 12 POEM++ OpenCL version v1.05 (opencl_nvidia_100) WU`s ist nur ein OK rest hat “Fehler beim Berechnen”
-
7. März 2013 um 21:03 Uhr #934085Neo111430Teilnehmer
VTG01;504173 said:
Gemischt, am alten Asus P5B Deluxe und dem Q9400 rennt die 7750er auf 65% bei 4 Wu’s auf 2 Cores. Output sind nun irgendwo um die 200.000 je Tag – falls ich mal wieder WU’s bekommen sollte.Testen will ich noch 6 WU’s auf 3 Cores, ich denke aber dass der Speicherausbau mit 2 GB deutlich zu klein ist.
Das Verhältnis Watt/Credits ist jedoch deutlich besser als bei Collatz. Da bringt die 5850er etwa 165.000 Credits je Tag mit deutlich mehr Stromhunger.
:(Mann wie kommst du auf 200.000 pro tag.Mein recher schaft mit i7 und 2 x 470GTX auf 100% nur 9000 -11000 .
“Collatz und POEM”
-
17. März 2013 um 22:03 Uhr #934339Christoph!Administrator
Obi Wan;504120 said:
ich habe den Überblick verloren.Was ist den jetzt der Status oder das Fazit der Aktion ?Was nu???Edit: ich möcht doch so gerne was sehn!! Vllt sollte man den Thread mal oben im Forum den Link wieder rausnehmen 😉
-
15. April 2013 um 18:04 Uhr #935547dodoTeilnehmer
Hey,Euer Super Boinc Rechner Thread hatte mich echt fasziniert.Auch hier hab ich mir alles durchgelesen.Teilweise habt ihr sehr intressante tests bzw. erkenntnisse dabei, die generell sehr nützich sind.Auch wenn ich mich mit Boinc und dergleichen bisher wenig auskenne wollte ich hier doch mal etwas einwerfen.Wahrscheinlich hat es der ein oder andere schon gesehen:http://www.computerbase.de/news/2013-04/asus-bringt-pcie-lane-reiche-workstation-platine-p9x79-e-ws/7x pci-e in voller länge…PEG?!?!3x 8fach elektrisch4x 16fach elektrischIs auch schon etwas älter die news aber ich wollte es mal hier erwähnen.Soweit ich es mitbekommen habe, liegt das probleme mehrere Grafikkarten parallel mit daten zu versorgen, an einer potente CPU.Da kann der Sockel 2011 ja auch net viel mehr bieten ausser einem hohen Preis.Allerdings steht beim Schwestermodel, das in dem Artikel auch verlinkt ist, dass dieses mit Xeons mit 8 kernen und 16 threads klar kommt.http://www.computerbase.de/news/2011-12/asus-desktop-workstation-mainboard-p9x79-ws-vorgestellt/Wobei ihr für die CPU wohl nen guten Sponsor bräuchtet^^.Die fangen anscheinend bei knapp 1000€ ein.Dürfte wohl schwer zu finanzieren sein.Ich wollte es aber mal erwähnt haben.
-
25. April 2013 um 16:04 Uhr #935989x20011Teilnehmer
Hier mal ein kleines Bildchen als Anregung 😉
-
25. April 2013 um 16:04 Uhr #935991
-
25. April 2013 um 17:04 Uhr #935996
-
25. April 2013 um 20:04 Uhr #936002DarknessTeilnehmer
Schade, aber die Infos hören sich ganz interessant an.
dodo;505714 said:
Hey,
Auch wenn ich mich mit Boinc und dergleichen bisher wenig auskenne wollte ich hier doch mal etwas einwerfen.
Wahrscheinlich hat es der ein oder andere schon gesehen:
http://www.computerbase.de/news/2013-04/asus-bringt-pcie-lane-reiche-workstation-platine-p9x79-e-ws/
7x pci-e in voller länge…PEG?!?!
3x 8fach elektrisch
4x 16fach elektrischSieht doch garnicht so schlecht aus:-k
Letztlich wird wahrscheinlich der Preis entscheiden, denn theoretisch könnte man auch ASUS Z9PE-D8 WS+ 2* Intel Xeon E5-2603 oder höher (z.b. E5-2609 oder E5-2620) verwenden.
4x PCI-e x16 und 3x PCI-e x8, dazu 2*2011 Sockel, 8x DDR3 😡dodo;505714 said:
Wobei ihr für die CPU wohl nen guten Sponsor bräuchtet^^.
Die fangen anscheinend bei knapp 1000€ ein.
Dürfte wohl schwer zu finanzieren sein.
Ich wollte es aber mal erwähnt haben.Da hast du natürlich recht, denn Intel lässt sich seine High-End CPU´s vergolden (vorallem da keine große Konkurrenz durch AMD), deswegen mein Vorschlag: Lieber zwei kleinere CPU´s für 400-600€ anstatt einer Highend CPU für 900€ aufwärts. Braucht zwar mehr Strom, spart aber einiges an Kosten
-
25. April 2013 um 22:04 Uhr #936007VTG01Teilnehmer
Naja, ich halte das Ding am Bild für nicht erstrebenswert. Die 4 Netzteile werden einiges an Strom saugen und die Abwärme kann ein Einfamilienhaus im Winter heizen – zumindest im Süden ….Im Sommer wird der nicht lange rennen dann gehen die Lichter wegen Überhitzung im Raum aus. Bei 2,5-3,0kW Stomaufnahme für das Teil brauchst du noch mal ne Kühlung mit zumindest 2,0 KW Stromaufnahme. Kommst du dann auf sagen wir mal 5kW Strombedarf je Stunde. Sind 120kW je Tag oder 840 kWh je Woche. Das will ich mir gar nicht mehr leisten.
-
25. April 2013 um 23:04 Uhr #936009DazzleTeilnehmer
Es muss nicht grundsätzlich das Fetteste das am besten geeignete sein.Mehrere GT640’s sind im Vergleich zum Verbrauch effizienter wie eine 680 und kommen mit PCI-E 1x aus:d:Außerdem ist es günstiger, bestes Beispiel ist der EMK2, der hat auch keine teuren Xeons und rennt wie Sau
-
26. April 2013 um 0:04 Uhr #936011dodoTeilnehmer
Wo sind eigentlich die Radis?Unten drunter?Wahrscheinlich bestückt mit ordentlichen lüftern mit 3000upm…und selbst damit dürften die karten sehr warm werden
Darkness;506195 said:
Sieht doch garnicht so schlecht aus:-kLetztlich wird wahrscheinlich der Preis entscheiden, denn theoretisch könnte man auch ASUS Z9PE-D8 WS+ 2* Intel Xeon E5-2603 oder höher (z.b. E5-2609 oder E5-2620) verwenden.4x PCI-e x16 und 3x PCI-e x8, dazu 2*2011 Sockel, 8x DDR3 :xDa hast du natürlich recht, denn Intel lässt sich seine High-End CPU´s vergolden (vorallem da keine große Konkurrenz durch AMD), deswegen mein Vorschlag: Lieber zwei kleinere CPU´s für 400-600€ anstatt einer Highend CPU für 900€ aufwärts. Braucht zwar mehr Strom, spart aber einiges an KostenDie Rechnung kann man nachvolziehen.Dürfte lange dauern bis man ne differenz von etwa 600€ beim strom wieder drin hat…obwohl…würde er nicht annähernd 24/7 laufen wie der Emk2??Dann müsste man das wirklich genau nachrechnen.Wie is das eigentlich mit HT? Bringt das für eure Unterfangen viel?Mal davon abgesehen das HT beim Sockel 2011 sehr teuer is
-
26. April 2013 um 12:04 Uhr #936036x20011Teilnehmer
Da das Rack aus einem Rechenzentrum kommt würde ich mal behaupten, das dort keine Radis verbaut sind. Die kiste wird an ein zentrales Kühlsystem angeschlossen sein….
-
26. April 2013 um 13:04 Uhr #936019DarknessTeilnehmer
x20011;506216 said:
Die kiste wird an ein zentrales Kühlsystem angeschlossen sein….Heizung wird wohl eher zutreffen…
Dazzle;506202 said:
Es muss nicht grundsätzlich das Fetteste das am besten geeignete sein.
Mehrere GT640’s sind im Vergleich zum Verbrauch effizienter wie eine 680 und kommen mit PCI-E 1x aus:d:
Außerdem ist es günstiger, bestes Beispiel ist der EMK2, der hat auch keine teuren Xeons und rennt wie SauIch habe eher an die HD 7750 gedacht, welche bereits ab rund 75€ zu haben sind. Aber beim Board sollten wir schon auf Qualität achten, da 16 Karten ordentlich Strom über den PCI-E slot saugen und außerdem 24/7 Betrieb anvisiert wird
-
26. April 2013 um 14:04 Uhr #936025DeadsystemTeilnehmer
VTG01;506200 said:
Naja, ich halte das Ding am Bild für nicht erstrebenswert. Die 4 Netzteile werden einiges an Strom saugen und die Abwärme kann ein Einfamilienhaus im Winter heizen – zumindest im Süden ….
Im Sommer wird der nicht lange rennen dann gehen die Lichter wegen Überhitzung im Raum aus. Bei 2,5-3,0kW Stomaufnahme für das Teil brauchst du noch mal ne Kühlung mit zumindest 2,0 KW Stromaufnahme.um die wärme wenigstens einigermaßen auszunutzen, würde ich die warmwassererzeugung von so einem teil übernehmen lassen. ich glaub in der schweiz wird ein schwimmbecken von einem großrechner beheizt.
alternativ dazu, einfach nach draußen verlagern. entweder den radi oder den ganzen computer.
-
26. April 2013 um 15:04 Uhr #936026
-
26. April 2013 um 17:04 Uhr #936033DeadsystemTeilnehmer
jo, bei so großen anlagen ist das wohl mittlerweile standard. ich mein, wenn man sich zuhause ein 2kw rechner hinstellt, wäre es wegen der wärmeentwicklung sinnvoll, die abwärme in den warmwasserkreislauf einzubinden. spielt auch in finanzieller hinsicht eine nicht unerhebliche rolle.
-
26. April 2013 um 21:04 Uhr #936046VTG01Teilnehmer
… das mit dem Warmwasser lasst mal bleiben. Warmwasser liegt bei zumindest 40°C zum Duschen und geht auf 60°C für den Abwasch. Keiner der Rechner hätte Freude an einer Kühlwassertemperatur von mehr als 30°C – oder irre ich mich da?
Und Duschen mit 25 °C finde ich persönlich zwar erfrischend im Sommer aber auf Dauer ist das ein bisserl wenig.
bei 2 kW x24 Stunden sind das 48kWh. Da kannst du schon eine Menge an Wohnungen mit Wasser versorgen. Ich denke nicht dass du mehr als 5 KWh – 7kWh für deinen WW-Boiler an einem Tag zu Hause benötigst.
-
26. April 2013 um 22:04 Uhr #936048DarknessTeilnehmer
VTG01;506243 said:
… das mit dem Warmwasser lasst mal bleiben. Warmwasser liegt bei zumindest 40°C zum Duschen und geht auf 60°C für den Abwasch. Keiner der Rechner hätte Freude an einer Kühlwassertemperatur von mehr als 30°C – oder irre ich mich da?Es gibt doch irgendeinen Deutschen Superrechner, bei dem die CPU´s mit bis zu 60 Grad “kaltem” Wasser gekühlt werden.
Außerdem gibt es da sicherlich spezielle Wärmepumpen etc, welche die Energie von niedrigen Temps auf höhere “transformieren”.
(Prinzip der Wärmepumpenheizung siehe Wikipedia) -
27. April 2013 um 10:04 Uhr #936054HorstelinTeilnehmer
Hehe, ein Energie-Optimierer 🙂 Das muss man ehrlich gesagt genau durchrechnen. Da kann so einiges schief gehen. Entweder ist die Wärmepumpe verhältnismäßig zu teuer oder der Wirkungsgrad/Leistungsfähigkeit zu schlecht um die Wakü auf 30° zu halten.
-
27. April 2013 um 12:04 Uhr #936055littledevilTeilnehmer
Wärmepumpe kann man machen, wenn man damit ein gröeßres Mehrfamilienhaus versorgen möchte. Für ne reine GPU-Kühlung geht das aber auch mit so heißem wasser. CPU ist schon Grenzwertig, aber wenn man von ganz unten im Speicher mit 35° in den die CPU geht und dann in die GPUs, kommt hinten dann schon mal 60° raus, wenn man die Pumpe entsprechend langsam laufen läßt.
Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:
-
27. April 2013 um 12:04 Uhr #936057DeadsystemTeilnehmer
littledevil;506252 said:
Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:die frage hab ich mir auch schon gestellt. theoretisch ließe sich ein temperatursensor im wasser plazieren, der ab einer gewissen temperatur umschaltet auf luftkühlung. zwei wasserkreisläufe, eine pumpe geht aus, lüfter von einem radi gehen an.
muss man gucken wie groß der warmwasserspeicher ist und falls nötig vergrößern. waschmaschine, spülmaschine, wasserhähne. im winter ggf sogar die heizkörper. da wird schon genug wärme benötigt. -
27. April 2013 um 14:04 Uhr #936062DarknessTeilnehmer
littledevil;506252 said:
Wärmepumpe kann man machen, wenn man damit ein gröeßres Mehrfamilienhaus versorgen möchte.War jetzt eig. eher im Bezug auf Rechenzentrum gemeint, aber man könnte es hier natürlich auch machen, ist aber sicher nicht rentabel.
littledevil;506252 said:
Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:Da gibt es doch schon eine Lösung. Machen so gut wie alle Biogasanlagen (da Fernwärmeleitungen eher unrentabel sind) und Wasserkühler. Mit Radiator+ Lüfter die Umgebung heizen.
-
27. April 2013 um 15:04 Uhr #936064ischTeilnehmer
Fernwärmeleitungen unrentabel ???Die eine BGA heizt bei uns in der nähe ein ganzes Dorf,die zweite ein Krankenhaus und die dritte eine Fabrik.
-
27. April 2013 um 18:04 Uhr #936067DarknessTeilnehmer
isch;506261 said:
Fernwärmeleitungen unrentabel ???Ist dann aber eine größere BGA oder? Für kleinere Anlagen die weit entfernt vom nächsten Dorf sind Fernwärmeleitungen meistens unretabel.
Bei uns in der Nähe ist eine ähnliche Anlage (Anstatt Bigas wurde Holz verwendet) Pleite gegangen. Was ich nur komisch finde ist, dass die Biogasanlage die direkt auf der anderen Straßenseite liegt nicht als Ersatz an die Fernwärmeleitung angeschlossen wurde. Deswegen wird die Fernwärmeleitung jetzt mit Erdgas befeuert 😡 -
27. April 2013 um 19:04 Uhr #936068ischTeilnehmer
Keine Ahnung ob die groß oder klein sind.
-
26. Mai 2013 um 17:05 Uhr #937071x20011Teilnehmer
Hier mal wieder ein kleines Bildchen wie es aussehen könnte 😉
-
26. Mai 2013 um 18:05 Uhr #937072dodoTeilnehmer
und die können so noch gekühlt werden?Ganz abgesehen von der Laustärke kommt jeder Lüfter irgendwann an sein Limit^^
-
26. Mai 2013 um 19:05 Uhr #937074Neo111430Teilnehmer
und die können so noch gekühlt werden?
Sicher nicht oder laufen die nicht auf volleistung.:roll: Sehe leider bei meinem bruder ,schon bei Battlefield,oder Crysis ist temp.über 80°C gewesen troz 6 lüfter in Case.
gehts.Glaub nicht das mit dem abstand da noch was zu kühlen ist.
-
26. Mai 2013 um 19:05 Uhr #937076konfettiTeilnehmer
Wenn die Kühler von den Kühlrippen her entsprechend angeordnet sind, warum auch nicht – natürlich ist das zum einen eine Frage der Lautstärke, zum anderen dann auch der Auslastung.das sind ja immerhin Dualslot-Karten 😉
-
27. Mai 2013 um 11:05 Uhr #937095
-
27. Mai 2013 um 15:05 Uhr #937101DazzleTeilnehmer
Die sind mit an Sicherheit grenzender Warscheinlichkeit runter getaktet und undervoltet. Eine 580 läuft bei guter Luftversorgung schon als single gegen 100°C.
Zumal ich denke, dass es nicht sehr Energie effizient sein dürfte.
Viele kleine rechnen genau so schnell mit weniger Strom. Zudem sind sie in der Anschaffung günstiger.
In den größten Supercomputern der Welt werden auch keine 5Ghz CPUs verbaut, sonder hunderttausende kleine mit 2Ghz oder so
Daher die 16 geplanten Karten;) -
8. Juni 2013 um 11:06 Uhr #937479medTeilnehmer
Moin,
steht das eigentlich fest das die HD7750 bei Boinc am effektivsten ist? Wenn ich die angegebenen GFLOPS mit den angegebenen Max. Watts vergleiche, komme ich auf folgende Tabelle:Ergo HD7970 GHz FTW 🙂
P.S.
Eine HD7950 und zwei GTX 580 könnte ich zum testen laufen lassen.P.P.S.
Und dann noch die Frage ob im Boinc Stats die angegeben:– ermittelte Fließkommageschwindigkeit
– ermittelte Ganzzahlgeschwindigkeitetwas aussagen. Denn bei Einstein@Home hat mein i5 3570K mit HD7950 3669.38 Millionen bzw. 12376.66 Millionen. Wärend Speedy sein i7 980 (6 Kerne) mit 3x GTX 560Ti auf 2998.82 Millionen bzw. 9345.34 Millionen kommt. Was vom Verbrauch ja def. für eine große Graka sprechen würde !?
-
9. Juni 2013 um 18:06 Uhr #937500x20011Teilnehmer
*hust*
-
9. Juni 2013 um 21:06 Uhr #937505medTeilnehmer
=D>Geiles Teil 🙂 Was ist denn da Nettes drin?Btw.Steht das fest das die HD7750 bestes Watt/Punkte Verhältns hat?
-
9. Juni 2013 um 22:06 Uhr #937506medTeilnehmer
Geiles Teil! Was steckt denn da drin?
Btw.
Steht es fest das die HD7750 bestes Watt/Punkte Verhältnis hat?HD7750: 14,89 GFLOPS/Watt
HD7970 GHz: 17,2 GFLOPS/WattAußerdem würde man 5,25 Stück von den HD7750 benötigen um die GFLOPS der HD7970GHz zu erreichen. Sprich 5 mal mehr Prozessoren, Mainboards, Ram, etc. was auch nochmal alles Strom nimmt und in der Anschaffung kostet.
Ist natürlich die Frage wie das bei BOINC skalliert.P.S. Warum verschwinden meien Beträge wenn ich eine Grafik mit einbinde?
-
9. Juni 2013 um 23:06 Uhr #937507ischTeilnehmer
Es kommt immer auf das Projekt drauf an was man rechnen möchte.Bei Poem bringt eine 7970 kaum mehr mal eine 7750.Bei anderen Projekten wich die 7979 mit der 7750 den Boden auf.
-
10. Juni 2013 um 15:06 Uhr #937512PhiulippTeilnehmer
Die Radeon HD 7790 darf man aber auch nicht vergessen mit 21.059 GFLOPS/W.
-
10. Juni 2013 um 18:06 Uhr #885935ThaRippaAdministrator
Bis man Double Precision braucht…
-
11. Juni 2013 um 13:06 Uhr #937534PhiulippTeilnehmer
Dann kann man aber auch die 7750 und GT 640 vergessen.
-
11. Juni 2013 um 16:06 Uhr #937538littledevilTeilnehmer
@x20011 wo hast Du das Foto her?
-
12. Juli 2013 um 23:07 Uhr #938306DazzleTeilnehmer
Gegenfrage: Wer bist du 😀
-
12. Juli 2013 um 23:07 Uhr #938305orw.AnonymousTeilnehmer
Was ist los mit euch?
-
14. Juli 2013 um 1:07 Uhr #938320orw.AnonymousTeilnehmer
Was ist los mit euch?
-
14. Juli 2013 um 2:07 Uhr #938322orw.AnonymousTeilnehmer
Was ist los mit euch?
-
14. Juli 2013 um 9:07 Uhr #938325VJoe2maxTeilnehmer
Trollbeiträge entfernt, verwarnt, gesperrt – erledigt! ;).
-
14. Juli 2013 um 9:07 Uhr #938254Christoph!Administrator
Könnte mal bitte jemand den Troll ausm Forum entfernen?
-
14. Juli 2013 um 13:07 Uhr #938331DazzleTeilnehmer
Gibt es mittlerweile eigentlich Fortschritte?
Hab das Thema immer gerne verfolgt, da ich es sehr interessant fand, aber in letzter Zeit wurden nur Bilder irgendwelcher üppig bestückten Pc’s gepostet:roll: -
14. Juli 2013 um 17:07 Uhr #938347dodoTeilnehmer
Die Bilder unterstützen ja das Vorhaben…sie zeigen das so etwas doch irgendwie möglich ist 😀
-
14. Juli 2013 um 17:07 Uhr #938346ischTeilnehmer
Jaein.Da POEM mit der wu Versorgung Probleme hat wir hier nicht weiter gemacht.
-
24. Juli 2013 um 5:07 Uhr #938580topperharlyTeilnehmer
Habt ihr euch mal das Design des neuen Mac Pro angeschaut?
http://www.apple.com/de/mac-pro/
Vielleicht lässt sich dies ja als Idee für ein Design aufgreifen?
Gruss Andreas
-
24. Juli 2013 um 10:07 Uhr #938582littledevilTeilnehmer
Ja, das ist echt abgefahren, was da bei der Baugröße ermöglicht werden soll.
-
28. Juli 2013 um 18:07 Uhr #938692MickdaggerTeilnehmer
Das Design ist wirklich genial geil! Könnte sogar mein erster eigener Mac werden, wegen meinem Studium und verschiedener Praktika hab ich schon auf Mac´s gearbeitet aber Zuhause tat immer ein PC sein Werk. Danke für den Link!
-
7. September 2013 um 14:09 Uhr #939702DazzleTeilnehmer
Ich stell mir die Kiste aber recht laut vor, wenn man guckt was da alles drinn sein soll und es nur mit einem Lüfter gekühlt wird:roll:
-
8. September 2013 um 1:09 Uhr #939718ThaRippaAdministrator
Glaub ich weniger. Das ganze sollte nicht lauter werden als eine gleich schnelle Workstation. Immerhin kühlt man mit Aussenluft und zudem setzt Apple darauf dass so gut wie nie sowohl beide GPUs als auch die CPU gleichzeitig 100% ausgelastet sind. Wenn das eintritt, wird die Kiste schon hörbar werden. Das werden konkurrenzfähige Workstations aber auch.
-
12. Dezember 2013 um 21:12 Uhr #942195xfn99Teilnehmer
Guten abend,
Ich habe den Kompletten Thread nicht durch gelesen, aber einen großen Teil.
Also entschuldigt bitte, wenn ich etwas wiederholen sollte.
Wenn ich das richtig mitbekommen habe, benötigt man viele Kerne/Threads.
Also habe ich mal etwas im Internet gesucht.
Bei der Grafikkarte halte ich die hd7790 für sinnvoll und würde sie persönlich der GT 640 vorziehen, da sie eine bessere GFlop/Watt performance hat, fast doppelt so schnell ist (gflops single percission) und in etwa gleich teuer ist.Bei der Cpu, Mainboard und dem Ram habe ich folgende Ideen:
Nr.1:
2x http://geizhals.de/intel-xeon-e5-2620-bx80621e52620-a733975.html
2x http://geizhals.de/supermicro-x9srl-f-retail-sockel-2011-mbd-x9srl-f-o-a848134.html
Meine Idee war das man zwei Mainboard nimmt da man dann die Splitter weglassen kann und dadurch Geld spartn würde (auf jedes Board müssten 4×7790 um die angepeilte Performance von 16xgt 640 zu erreichen)
Ram kann man überlegen was sinnvoll ist.Nr.2:
http://geizhals.de/amd-opteron-6376-os6376xfn99
hkwof-a862698.html (16 Kerne müsste reichen)
http://geizhals.de/supermicro-h8sgl-f-sockel-g34-quad-pc3-10667r-reg-ecc-ddr3-a521405.html
Hier würde man dann wahrscheinlich Splitter brauchenMfg xfn99
Ps: Hoffe das wird kein Doppelpost, irgendwie funktioniert das antworten nicht . -
13. Dezember 2013 um 8:12 Uhr #942192ThaRippaAdministrator
Auch mal ein Ansatz. Die 7790 ist aber glaub ich die einzige 7000er, die man nicht umflashen kann auf andere Spannungen. Und DP-Leistung fehlt halt auch. Aber: vielen Dank für den Input, hier war es ja recht ruhig geworden.
-
13. Dezember 2013 um 11:12 Uhr #942194xfn99Teilnehmer
Das stimmt undervolting scheint nicht zu funktionieren.
Hat jemand eine 7790? Wenn ja könnte man schauen, wie sich der vcore verhält, wenn man den Takt runtersetzt. Es könnte möglich sein, das die Vcore sich dem Takt anpasst .
Man könnte auch hd7970 kaufen (kosten “nur” noch um 200€) und diese untertakten bzhw untervolten .
Die 7970 haben auch eine hohe double percission Rechenleistung .
Mfg -
13. Dezember 2013 um 12:12 Uhr #942187xfn99Teilnehmer
Ok, wie wäre es mit r9 290? Ich weiß nicht, wie sich die undercolten lassen aber @stock kommen sue auch in die Gegend von über 20 glfops/watt.
-
13. Dezember 2013 um 12:12 Uhr #942186ThaRippaAdministrator
Der vCore geht nicht runter wenn man den Takt reduziert, zumindest wenn die 7770 eine Indikation ist. Und bei meiner 7770 konnte ich 0.2V mit der Spannung runter gehen und dabei noch ein wenig mehr Takt geben. Hier wird definitiv nichts verbaut, was man nicht verbrauchsoptimieren kann.
-
13. Dezember 2013 um 12:12 Uhr #942189ThaRippaAdministrator
Leider haben wir keine Gelddruckmaschine, daher brauchen wir auch gute gflops/Geld.
-
13. Dezember 2013 um 14:12 Uhr #942191littledevilTeilnehmer
Welche Vcore hat die 7790 bei vollem Takt? Evtl. macht ja auch OC Sinn.
-
13. Dezember 2013 um 14:12 Uhr #942201xfn99Teilnehmer
Also mal rein rechnerisch ;)Eine r9 290 hat 5000 gflops und kostet 330€Die hd 7790 hat ca 1800 gflops und kostet 100€D.h. man braucht 2,7 7790 für eine r9 290 .Rechnerisch kosten die 2.7 7790 270€ bedeutet eine Differenz von ca 60€ und bietet deutlich bessere Double percission .Wobei man wenn man die r9 290 nehmen würde auch nur ein Mainboard Cpu etc. verwenden müsste und dadurch wieder ca 400-500€ sparen würde .Ps: den Vcore kenn ich nicht in Tests konnten sie die Karte aber um 20-25% übertakten (dann ca 1.2-1.3 GHz)
-
13. Dezember 2013 um 15:12 Uhr #942203xfn99Teilnehmer
Die Karten lassen sich übertakten, soweit ich aber weiß sind es schlechte chips die bei der 7970 durchgefallen sind. Ich glaube auch das Manche Einheiten deaktiviert sind. Ich weiß es nicht mehr genau, ist eine Weile her das ich mich über die Karte informiert habe .Ps: die 7870 bost hat ca 1500alu s die 7970 ca 2000
-
13. Dezember 2013 um 15:12 Uhr #942202ThaRippaAdministrator
So um die 1.2V, je nach Hersteller und Chipgüte. OC ginge sicher, aber auch das wieder nicht per BIOS und daher nicht richtig Linux-Proof. Und Effizient dürfte das nicht sein.Ich würde diese 7870 Boost Edition hier vorschlagen.Man muss aber genau aufpassen, dass es auch wirklich ein Tahiti- (wie die 79xxer) und kein Pitcairn-Modell (wie die anderen 78xxer) ist. Denn nur dann erhält man die billigste GPU mit brauchbarer DP-Leistung. Ob man da das BIOS bearbeiten kann, muss ich allerdings erst mal gucken.
-
13. Dezember 2013 um 15:12 Uhr #942205ThaRippaAdministrator
Die 7970 mag 25% mehr Rohleistung haben, kostet aber mehr als das Doppelte ;)Und warum die sich nicht übertakten lassen sollen ist auch nicht ganz schlüssig. Selbst wenn das wirklich Selektion ist (und oft ist das nicht so weil gegen ende des Produktzyklus die Yield-Rate gut genug ist) dann müssen die funktionierenden Shaderunits ja nicht schlechter sein. Zudem wird es uns wahrscheinlich kaum um OC gehen, eher um möglichst wenig Volt für ungefähr Standardtakt (975MHz!). Klar, da spielt auch die Chipgüte eine Rolle, aber wie gesagt, ich sehe das unkritisch.Interessanter wird sein, ob man nicht “echte” 7950er teilweise zum gleichen Preis bekommt.
-
13. Dezember 2013 um 15:12 Uhr #942206xfn99Teilnehmer
ThaRippa;512866 said:
Die 7970 mag 25% mehr Rohleistung haben, kostet aber mehr als das Doppelte 😉Die hd 7970 kostet ca. 230€
Die alu s waren ja von der 7970 nicht von der r9 290 😉 -
13. Dezember 2013 um 16:12 Uhr #942210xfn99Teilnehmer
http://geizhals.de/xfx-radeon-hd-7970-double-dissipation-edition-fx-797a-tdfc-fx-797a-tdjc-a723345.htmlBei hardwareversand 220€ wenn ich auf den Link gehe, komme ich zur Startseite von HWV komisch…Die xfx sollen wohl recht laut sein wobei ich denke das der PC dann sowieso in einen Keller wandern dürfte.Verbessert mich, wenn ich falsch liege 😉
-
13. Dezember 2013 um 16:12 Uhr #942209ThaRippaAdministrator
Ich kann diesen Preis bisher bei keinem Renommierten Versender finden, aber sollte man die Tahiti-XT wirklich so billig bekommen, muss die Tahiti-LE ja schon im Bereich um die 150€ liegen, um noch wirklich besser zu sein. Immerhin kosten PCIe-Slots auch Geld.
-
13. Dezember 2013 um 18:12 Uhr #942211ischTeilnehmer
Also mal langsam.POEM hat seit ein paar Tagen kein Graka Projekt mehr.Es wird nächstes Jahr wohl was neues kommen aber da muss man dann erst mal schauen wie das läuft und was da für Karten sinnvoll sind.
-
13. Dezember 2013 um 21:12 Uhr #942217xfn99Teilnehmer
Das ist denke ich mal gut zu wissen .
Die Xeon s bewegen sich leistungsmäßig auf einem i7 4770k, soweit man das den Benchmarks entnehmen kann. Stellt sich nur die Frage ob so viel Cpu Leistung benötigt wird, wenn die gpu’s rechnen oder ob da etwas faul ist.
@isch ich denke eher nicht das dieses Projekt bis Anfang nechsten Jahres durch ist, von daher sollte es bis dahin auch wieder wu’s geben.
Ich habe selber leider keine sehr gute Hardware und lasse Boinc meistens auf meinem Handy laufen 😀
Wenn es wieder Wu’s gibt könnte ich aber mal zum Test welche auf einem i7 3630qm und 2xhd7970m laufen lassen (sind ja wie 7850-7870 im Desktop)
Mfg -
13. Dezember 2013 um 21:12 Uhr #942220xfn99Teilnehmer
Wobei es rechnerisch auch kein Wunder ist .
Eine GT 640 hat glaube ich ca 700gflops die Titan glaub um die 5000gflops
Wie sieht es bei GPUGrid mit AMD Karten aus ?:) -
13. Dezember 2013 um 21:12 Uhr #942216ischTeilnehmer
Bei GPUGrid ist die Versorgung sehr gut.Leider sind die großen Karten hier deutlich im verteil.Die Titan ist über 7mal so schnell wie ein 640er
-
13. Dezember 2013 um 21:12 Uhr #942215VTG01Teilnehmer
Ja das mit POEM ist schade – wie ist eigentlich die Versorgung bei GPUGRID? Da gehen zwar keine ATI-Karten – für ein neues Gerät wäre das aber egal.@xfn99… ich habe einige 79xx laufen und die bringen gute Leistung – aber saugen auch ganz schön fest. Projekt ist zur Zeit COLLATZ – kannst dir den User Schildkroete anschauen. Bei POEM sind die 79xxer nicht auslastbar – zumindest mit einem i7 und einer 1155 Plattform. Bei COLLATZ sieht das anders aus – dennoch habe ich mit 2 Karten auch schon Probleme – irgendwas klemmt wenn die 2. Karte in OC rennt. (Habe mal bei allen Karten den Takt zurück genommen und vcore runter gesetzt – somit ist das Problem jetzt nicht mehr tragend)
-
13. Dezember 2013 um 21:12 Uhr #942218VTG01Teilnehmer
@ischdas höhrt sich nicht gut an – da ist der Einstieg in die TOP TEN sowohl in der Anschaffung als auch im Betrieb teuer.Ist ein Paralellbetrieb – ähnlich wie Collatz – möglich oder tendiert es eher Richtung POEM?
-
13. Dezember 2013 um 22:12 Uhr #942221ischTeilnehmer
GPUGrid ist wie Collatz brauch also so gut wie nichts an CPU.GPUGrid ist ein reiner Nvidia Projekt.
-
14. Dezember 2013 um 9:12 Uhr #942229xfn99Teilnehmer
Auf der Webseite steht aber AMD support :
http://www.gpugrid.net/
Mfg -
14. Dezember 2013 um 16:12 Uhr #942241ischTeilnehmer
Das wäre aber das neu das die AMD/ATI unterstützen.In den Einstellungen kann man auch nur Cuda Anwendungen einstellen.
-
14. Dezember 2013 um 17:12 Uhr #942243xfn99Teilnehmer
Komisch da steht aber dich eindeutig AMD und Nvidia …
In ihrem Forum habe ich gelesen das manche auch amd’s mit der Nvidia optimierten Software laufen lassen . -
14. Dezember 2013 um 17:12 Uhr #942246ischTeilnehmer
Ne da läuft nichts auf ATI Karten.Der Thread ist von 22 Dec 2011.
-
14. Dezember 2013 um 17:12 Uhr #942245xfn99Teilnehmer
http://www.gpugrid.net/forum_thread.php?id=2778Kann aber auch sein das ich mich da vertan habe ;)Am besten mal selber durchlesen .
-
14. Dezember 2013 um 17:12 Uhr #942244ischTeilnehmer
cuda Anwendungen auf einer ATI das geht doch gar nicht.Hast mal einen Link dazu?
-
15. Dezember 2013 um 9:12 Uhr #942254ischTeilnehmer
Ich habe mich jetzt noch mal ein bisschen in den Forum umgesehen und auch Tests gelesen.Bei GPUGrid ist die 660TI Preis Leistungssieger.Leider laufen die langsam aus und die Preise sind da durch etwas gestiegen.Performance/Watt ist die 780TI am besten.Die brauch max 276W und ist über doppelt so schnell wie die 660TI ( max 153W).Ein 640 ist mit max 37W angegeben.Die 780Ti dürfte fast 8x so schnell sein wie die 640.der reine verbrauch der 8 640 würde ganz leicht über der TI liegen aber man braucht ja dann 2 Bords,CPU,RAM,SSD was den verbrauch wieder nach oben treibt.Das beste Team hat gestern 14,265,375 Credits gemacht eine 780TI hat 570.000CWie man sieht würde man da irgendwo im nirgendwo versinken.
-
15. Dezember 2013 um 10:12 Uhr #942257xfn99Teilnehmer
Wobei ich denke, das eine 780ti dann also wirklich nicht in Frage kommen würde (oder doch ? Eine 780ti(600€) -> 8x gt640(570€)Die Frage ist auch ob man nicht eher anpeilen sollte, in die Top 5 von Einzelnen Nutzern zu kommen. Auf Platz 3 ist jemand mit 4x gtx690 was mir durchaus möglich erscheint (von der Leistung her).
-
15. Dezember 2013 um 11:12 Uhr #942258ischTeilnehmer
Wieso nicht?Eine 780TI kostet 30€ mehr was man durch den etwas geringeren Stromverbrauch pro Jahr locker wieder rein holt.Dann brauch mal bei 8 640er noch ein zweites Mobo,CPU,RAM,SSD was noch mal deutlich mehr Kosten verursacht und den verbrauch in die höher treibt.
-
15. Dezember 2013 um 12:12 Uhr #942267xfn99Teilnehmer
Das stimmt natürlich.
Warum eigentlich keine AMD Karten und dann eben Projekte, die AMD’s unterstützen ? Die Rechenleistung einer gtx 780ti gibt es bei AMD für 350€ .
Wenn es nvidia sein muss wären normale 780 seitens des p/l besser. -
15. Dezember 2013 um 12:12 Uhr #942270xfn99Teilnehmer
Das die Projekte sinnvoll sein sollen, ist klar.Gibt es nicht auch von World Comunity grid gpu Projekte ?
-
15. Dezember 2013 um 12:12 Uhr #942269ischTeilnehmer
Weil wir sinnvolle Projekte rechnen wollen und nicht nach irgendwelchen Primzahlen oder Sternen suchen wollen.Und da gibt es halt nur GPUGRID = nur Nvidia KartenPOEM = ATI und NV Karten aber zur Zeit gibt es kein GPU Projekt.
-
15. Dezember 2013 um 13:12 Uhr #942273ischTeilnehmer
nö schon lange nicht mehr.
-
15. Dezember 2013 um 15:12 Uhr #942279xfn99Teilnehmer
Dann bleibt ja eigentlich nur Nvidia übrig.
Oder man macht zwei Ausbaustufen .
Die erste mit Nvidias und die Zweite mit AMD, wenn es wieder was von poem gibt.
Wie viel soll das Teil denn eigentlich kosten ?(falls es da schon grobe Vorstellungen gibt) -
15. Dezember 2013 um 15:12 Uhr #942278DazzleTeilnehmer
Eher die 780 als die 640er. Denn bei den 640ern müsste man dann 2 boards, 2 CPUs und 2xRam dazu kaufen, was preislich, sowie verbrauchsmäßig dann nicht mehr so der burner wäreEdit: zu spät, tapatalk hat nicht alle posts geladen
-
15. Dezember 2013 um 16:12 Uhr #942283xfn99Teilnehmer
Was heißt leider zu viel?
Wenn ein ähnluches Budget wie beim emk2 vorhanden wahre ließe sich durchaus was machen denke ich. -
15. Dezember 2013 um 16:12 Uhr #942282ischTeilnehmer
Leider zu viel und der Strom muss ja auch bezahlt werden.
-
15. Dezember 2013 um 20:12 Uhr #942295ischTeilnehmer
Anschaffung der neuen (gebrauchter) Hardware + Stromkosten für den EMK² und den neuen dann auch noch das wird dann sehr viel für die paar Leute die daran beteiligt sind oder noch wohlen.
-
16. Dezember 2013 um 9:12 Uhr #942298JabbaTeilnehmer
Beim EMK2 gabs kein geplantes Budget – das hat sich im Laufe der Zeit so entwickelt.Das war auch gut so. Wenn man das vorher gewußt hätte, wären vermutlich einige abgesprungen oder man hätte mit Kompromissen geplant.Schlimmer noch: wenn man gewußt hätte wieviel Aufwand am Ende erforderlich war…Egal: wir sind alle Stolz auf den EMK2 und das entschädigt für Vieles.
-
16. Dezember 2013 um 10:12 Uhr #942299ThaRippaAdministrator
Diesmal kann und werde ich mich beteiligen. Aber eine 500€-Karte wird mir auch zu fett werden.
-
16. Dezember 2013 um 11:12 Uhr #942300JabbaTeilnehmer
Prima! Das freut mich / uns.Jetzt fehlt nur noch die generelle Richtung ;-)Wie soll der EMK3 denn tatsächlich mal aussehen?
-
16. Dezember 2013 um 12:12 Uhr #942303xfn99Teilnehmer
Ich denke gtx 780er sind am sinnvollsten.
Die Frage ist ob später auch Poem gerechnet werden soll(wegen der Cpu)Unterstützen kann ich das ganze außer bei der Planung nicht wirklich, da ich noch zur Schule gehe …
-
16. Dezember 2013 um 12:12 Uhr #942304ThaRippaAdministrator
Kompakt. Und ich glaube ein Board mit drei, vier dicken Karten ist irgendwie zu einfach. Es müssten schon sechs sein, sonst kann das ja jeder Sechzehnjährige mit Papas Kreditkarte nachbauen. Großartig mischen kann man die Karten ja leider nicht, weil die Optimierung sonst futsch geht. Aber vielleicht bietet es sich ja an zur Hälfte AMD-GPUs einzusetzen? Für diese Frage müssen wir das nächste Jahr abwarten. Aber ich würde mir wünschen:-1 Gehäuse, möglichst kompakt und Serienoptik (wie beim EMK2)-1 Board, 1 Netzteil-1, zur Not 2 Intel-CPUs (Ich bin AMD-ler, aber wir werden CPU-Power brauchen um die Karten zu füttern, alles was über bleibt kann ja auch CPU-Projekte rechnen und AMD frisst mehr Strom)- wenigstens überlegen sollten wir die Wasserkühlung. Hier wird sie zumindest möglich und die Karten mit Luft dicht an dicht werden sich gegenseitig rösten. Wasser wird teurer, schon wegen der Fullcover und dem 1080er Radiator, aber kompakter und flexibler. Hier könnte man aber auch erst mal halb mit Grakas bestücken und Luftkühlung lassen, und dann im zweiten Schritt (wenn klar ist dass alles funktioniert, Netzteil und CPU reichen) auf Vollausbau mit WaKü hochgehen. Realistisch Ende nächsten Jahres. Wahrscheinlich dann mit den Nachfolgern der 780.
-
16. Dezember 2013 um 15:12 Uhr #942306Christoph!Administrator
Also das mit der potentiellen Wasserkühlung seh ich nicht so kritisch. GPUonly wäre locker möglich, wenn man trotzdem laute Quirle drüber pusten lässt und Lautstärke sollte ja nicht das Problem sein.
-
16. Dezember 2013 um 16:12 Uhr #942308JabbaTeilnehmer
Sag das nicht!Bei Dir steht der ja nicht. Ich hatte den EMK2 etliche Monate neben meinem Schreibtisch stehen…
-
16. Dezember 2013 um 17:12 Uhr #942309ThaRippaAdministrator
Gnihihihi! Christoph hat sich grad als Stellplatzspender gemeldet.
-
16. Dezember 2013 um 17:12 Uhr #942310JabbaTeilnehmer
:-)und die Stromkosten wollte er auch übernehmen?
-
16. Dezember 2013 um 19:12 Uhr #942313ischTeilnehmer
Im Moment ist ja nur GPUGRID interessant da das POEM Projekt ja abgeschlossen ist.Es wird aber wohl nächstes Jahr was neues geben wobei man die genauen Hardware Anforderungen noch er testen müsste.
Wie oben schon geschrieben macht bei GPUGRId nur eine dicke NV Karten von der Performance/Watt Sinn.
Hier ist mal aus dem GPUGRID Forum eine kleine Leistungsliste der aktuellen Karten
1xx% GTX 780ti max 260W
100% GTX Titan max 250W
90% GTX 780 max 252W
77% GTX 770 max 210W
74% GTX 680 max 170W
59% GTX 670 max 140W
58% GTX 690 max 277W
55% GTX 660Ti max 124W
53% GTX 760 max 170W
51% GTX 660
43% GTX 650TiBoost
33% GTX 650TiDas gute bei GPUGRID ist das es so gut wie keine CPU braucht.Des weiteren ist die PCIe Geschwindigkeit auch ziemlich egal.
Mann sollte aber trotzdem ein große CPU nehmen für CPU Projekte.
Ich würde eine 780TI bei steuern und noch ein bisschen Kleinkram.
-
16. Dezember 2013 um 20:12 Uhr #942316ThaRippaAdministrator
Ich auch.
-
16. Dezember 2013 um 21:12 Uhr #942320VTG01Teilnehmer
Naja – meine 6 ATI- Karten werkeln so vor sich hin und mein Blade macht sich auch gut. Ich denke nicht dass ich was zu einem GRAKA Power Cruncher beitragen werde. ( Habe heuer 2x 7970 und 2×7950 sowie 5 Blades investiert, 2 weitere Blades sind schon teilweise fertig 2014 muss ich Pause machen- Kohle ist alle!)
-
16. Dezember 2013 um 23:12 Uhr #942321JabbaTeilnehmer
Für Wettkämpfe werde ich einiges aus dem ATI Lager beisteuern. Da könnte ich den einen oder anderen Miner schwenken.
-
17. Dezember 2013 um 7:12 Uhr #942324Christoph!Administrator
Jabba;512977 said:
Sag das nicht!
Bei Dir steht der ja nicht. Ich hatte den EMK2 etliche Monate neben meinem Schreibtisch stehen…Jeder braucht ein Hobby 😉 Ich dacht sowas wär ein Kellerheizgerät
Jabba;512979 said:
🙂und die Stromkosten wollte er auch übernehmen?
Klar ^^ aber bitte nicht wundern, wenn er dann nur noch mit der hälfte der Grafikkarten zurückkommt 😉
ThaRippa;512978 said:
Gnihihihi! Christoph hat sich grad als Stellplatzspender gemeldet.Stellplatz ja, musste halt Deinen eigenen Stromanschluss mitbringen 😉
-
17. Dezember 2013 um 19:12 Uhr #941582xfn99Teilnehmer
Ich würde lieber noch 2-3 Monate mit der Anschaffung warten da dann schon Maxwell kommen soll, und Nvidia verspricht ein 3mal effizienteres DoublePercission Berechnen .
-
17. Dezember 2013 um 20:12 Uhr #942328ischTeilnehmer
DoublePercission ist bei GPUGRID egal.Und wann die genau kommt weiß auch keiner wenn man Pech hat wird es Mitte des Jahres oder noch später.
-
17. Dezember 2013 um 20:12 Uhr #942329xfn99Teilnehmer
Ach so, dann ist es ja egal
-
18. Dezember 2013 um 9:12 Uhr #942338ischTeilnehmer
Ich habe mal zwei Systeme zusammen gestellt das man auch mal sieht was so was kostet.
8 Thread CPU
1 x Samsung SSD 840 Pro Series 256GB, 2.5″, SATA 6Gb/s, retail (MZ-7PD256BW)
1 x Intel Xeon E3-1230 v2, 4x 3.30GHz, Sockel-1155, boxed (BX80637E31230V2)
1 x Crucial Ballistix Tactical LP DIMM Kit 16GB, DDR3L-1600, CL8-8-8-24, low profile (BLT2C8G3D1608ET3LX0CEU)
4 x Gigabyte GeForce GTX 780 Ti WindForce 3X OC, 3GB GDDR5, 2x DVI, HDMI, DisplayPort (GV-N78TOC-3GD)
1 x ASRock Z77 Extreme9 (90-MXGKC0-A0UAYZ)
1 x Thermalright HR-02 Macho Rev. A (BW)
1 x Thermaltake Chaser A71 mit Sichtfenster (VP400M1W2N)
1 x Enermax Platimax 1500W ATX 2.4 (EPM1500EGT)3440€
12 Thread CPU
1 x Samsung SSD 840 Pro Series 256GB, 2.5″, SATA 6Gb/s, retail (MZ-7PD256BW)
1 x Intel Core i7-4930K, 6x 3.40GHz, boxed (BX80633I74930K)
1 x Crucial Ballistix Tactical LP DIMM Kit 16GB, DDR3L-1600, CL8-8-8-24, low profile (BLT2C8G3D1608ET3LX0CEU)
4 x Gigabyte GeForce GTX 780 Ti WindForce 3X OC, 3GB GDDR5, 2x DVI, HDMI, DisplayPort (GV-N78TOC-3GD)
1 x ASRock Fatal1ty X79 Professional (90-MXGKG0-A0UAYZ)
1 x Thermalright HR-02 Macho Rev. A (BW)
1 x Thermaltake Chaser A71 mit Sichtfenster (VP400M1W2N)
1 x Enermax Platimax 1500W ATX 2.4 (EPM1500EGT)3740€
Ich habe die Gigabyte GeForce GTX 780 Ti WindForce 3X OC weil es die zur Zeit günstigste Karte ist und sie ist von Haus aus um 144MHz OC.Desweiteren hat sie einen non Ref Kühler was sie deutlich kühler halten sollte.Ist bei 24h voll last auch angebracht.Hier sollte man vielleicht drauf achten das man immer die selbe Karte nimmt.
Das Gehäuse ist eins der wenigen wo man auch 4 Karten rein bekommen.Des weiteren sind auch schon Lüfter vorhanden.
Die CPU kann man noch leicht OC bei gleichzeitigem UV.Hier kann man auch auf gebrauchte Hardware setzen die dann etwas weniger kostet.
Das ist jetzt mal so mein Vorschlag.Kritik Änderungen usw. sind natürlich gern gesehen.
-
18. Dezember 2013 um 22:12 Uhr #942341ThaRippaAdministrator
– Falls WaKü, ist Referenzdesign von Vorteil- 4 GraKas sind irgendwie nicht 16. Damit das Projekt wirklich was besonderes ist, müsste es mMn. wenigstens sechs GraKas haben. Mit 3 oder 4 kann man aber anfangen.- in dem Fall (mehr als 4 Grakas) ist das Gehäuse recht egal, da man eh die Kartenslots nicht nutzen kann- ne SSD muss da nicht rein. Wirklich nicht. Und wenn doch dann nicht so groß. Sprich da kann man schon mal ein paar wenige Euro sparen…. und man muss halt sehen dass von den genannten Preisen ~2300€ auf die Grafikkarten entfallen. Das heißt für die erste Variante bräuchten wir – bei gleich großen Anteilen – schon 6 Teilhaber. WaKü oder die Risertechnik für mehr als 4 Karten macht die Sache noch teurer. Das ist leider noch schwerer zu stemmen als beim EMK2.
-
19. Dezember 2013 um 19:12 Uhr #942364ischTeilnehmer
Wakü finde ich aus folgenden gründen nicht so gut-teuer in der Anschaffung-zusätzlich Arbeit beim zu/einbau-unflexibel wenn eine neue Graka Generation kommt das dann wieder neue Kühler angeschafft werden müssen.-Garantie VerlustIch würde auch gern mehr Karten einbauen aber wie willst die betreiben? das NT hat 1500W und 4 Graka+ Restsystem wird schon bei 1-1,1KW liegen.Desweiteren wer soll das alles zahlen und die Stromkosten sind auch nicht zu vergessen.Mit den vielen Grakas ging halt nur bei Poem weil da die kleine kaum weniger Credits gemacht haben wie die großen bei viel weniger verbrauch.Zum gehüasebei 4 Dualslot Karten braucht man doch 8 Slots im Gehäuse oder habe ich da einen Dankfehler?Bei 4 Graka +CPU wird da schon einiges an Daten hin und her geschoben.Ich glaube die GPUGRID WUs sind auch etwas größer.Die 128GB Version gibts ab 114€ und die 65€ kann man Sparen.Von mir aus können wir auch erst mal mit 2 Karten rechnen ( eine von mir und eine von dir) und dann nach und nach aufrüsten.Den mehr Preis für den 4930K würde ich auch übernehmen.Es ist ja dann nicht mehr so viel Hardware die benötigt wird.Board,RAM,NT,Gehäuse,SSD,CPU Kühler,CPUMan kann ja auch nach gebrauchter Hardware im HWL oder bei ebay schauen was auch noch mal den einen oder anderen € spart.
-
19. Dezember 2013 um 21:12 Uhr #942372VTG01Teilnehmer
Ich bin mir ein bisserl unsicher, aber um € 3.500.- (bzw. 3.800) bekommst du etwa 7-8 Blades i7 3770+ AsRock B75M-ITX+PicoPSU + 16 GB Speicher. Der Verbauch liegt dann bei etwa 350-400 Watt bei etwa 3,4 Ghz und mit dem Ding stemmst du etwa 40.000 Credits am Tag bei Leiden. (oder Simap oder …) Sprich das ist ein TOP System das bei CPU-Projekten wirklich Dampf macht. Nebeneffekt ist, dass man sich die 400Watt noch eher leisten kann als die 1000 Watt der GPU-Maschine.
Solltes wirklich ein GPU-Rechner werden kann man sicher beim Prozesserkühler einsparen, der braucht nicht leise sein denn 4 Grakas vom Typ 190Watt / 260 Watt machen so viel Krach dass der Prozzi-Lüfter nicht mehr ins Gewicht fällt.
6 Grakas von dem Typ kann ich mir nicht vorstellen – Dann hatt der Rechner eine Leistung nahe 1,5 KW – das hat mein Frostwächter in der Ferienwohnung auch – und da kommt es mächtig heiss raus.8-[ Der braucht dann 24*1,5=36KW am Tag bzw. ca. 1.000 KW im Monat. Das sind dann ca. € 250.- im Monat für den Strom, eigentlich echt heftig! :fresse: -
19. Dezember 2013 um 22:12 Uhr #942374ThaRippaAdministrator
Wäre auch ne lohnenswerte Überlegung. Sprich haben wir nicht eher was davon wenn wir noch mehr CPU-Power aufbauen, und die GPUs halt nur für Wettkämpfe anschmeißen – und das jeder bei sich Zuhause? Hmm.Zu den Slots: mehr als 4 Grakas hieße Riser mit flexiblen Leitungen. Und das wiederum hieße, dass wir entweder Single-Slot-Karten haben weil WaKü haben und jede zweite Karte kann nativ aufs Board. Oder wir haben Zweislotkarten wegen LuKü und bräuchten für jede einen Riser und nen anderen Einbauort. Wie gesagt wenn es um viele billige Karten Ginge wär das sicher ein tolles, spannendes Projekt. Aber es ist leider nicht so.
-
19. Dezember 2013 um 23:12 Uhr #942376littledevilTeilnehmer
isch;513042 said:
Desweiteren wer soll das alles zahlen und die Stromkosten sind auch nicht zu vergessen.Zumindest für die Sonnestunden und der wärmeren Jahreszeiten hätte ich das Angebot, da sich da ne PV-Anlage drauf setze, wenn jemand ein passendes Dach hat.
-
20. Dezember 2013 um 12:12 Uhr #942390gr3ifTeilnehmer
Wo soll die Reise den hingehen?Möglichst hohen daueroutput? Gewinnen von Wettkämpfen? Auftreten in GPU Projekten?
-
20. Dezember 2013 um 12:12 Uhr #942392JabbaTeilnehmer
Mal ein anderer Ansatz:Großer Grakacruncher aber nur für WettbewerbeCruncher rechnet nur für Wettbewerbe für das Team (Pentathlon, ggf. Jahresendrallye)Ansonsten finanziert er seinen Anschaffungspreis und die laufenden Stromkosten durch das Minen von Coins (LTC, FTC, WDC etc.).Bei 4 dicken (AMD) Grakas käme da sogar was bei rum.Nur mal so als Denkanstoß.GrußJabba
-
20. Dezember 2013 um 12:12 Uhr #942391ThaRippaAdministrator
Das ist die Grundsatzfrage, ja. Haben wir überhaupt eine Chance bei den GPU-Projekten irgendwas zu ändern? Nicht, dass man nachher 4k€ investiert hat und das nirgends einen Platz bringt…
-
20. Dezember 2013 um 13:12 Uhr #942393xfn99Teilnehmer
Die Frage ist nur wie lange.Die Schwierigkeit nimmt immer weiter zu …
-
20. Dezember 2013 um 13:12 Uhr #942397ThaRippaAdministrator
OT: ich hab bei diesen ganzen *coins immer das Gefühl, dass die Teilnehmer alle Geheimniskrämer sind. Damit bloß nicht noch mehr Konkurrenz darauf kommt, mitzumachen. Dabei klingt es nach oberflächlichen Berechnungen ganz so, als würde sich das nur lohnen, wenn man seine Stromrechnung nicht zahlen muss. Als Student zum Beispiel im Wohnheim. Auch asozial, weil man dem Studentenwerk Geld stiehlt und/oder die Miete für alle erhöht. Oder man lebt nicht in Deutschland – bei 8 Dollarcent je kWh wie in den USA würde ich auch minen. Aber seit Jahren höre ich “naja, das lohnt nur knapp und auch nicht mehr lange” und doch werden immer wieder Miner gebaut.
-
20. Dezember 2013 um 13:12 Uhr #942394ThaRippaAdministrator
Wie ist das nun, macht man da wirklich Gewinn? Also erzeugt man mehr als 250€ im Monat? Und noch ne Gegenfrage: ich dachte wir brauchen nVidia-GPUs für die Wettkämpfe?
-
20. Dezember 2013 um 13:12 Uhr #942395xfn99Teilnehmer
Man muss immer schauen.Man muss ständig dabei sein und schauen ab wann es sich nicht mehr lohnt. Zum gpu rechnen bräuchte man auch Nvidias die sind aber beim Minen nicht so gut (außer 780, Titan und die 780ti).
-
20. Dezember 2013 um 14:12 Uhr #942399xfn99Teilnehmer
Ich habe mich schon einmal eingelesen. Wenn ich das richtig verstanden habe wir der “code” immer weiter verschlüsselt.D.h. wenn man den Code knacken will braucht man mehr Leistung als alle die Minen .Bin mir da aber auf nicht sicher …
-
20. Dezember 2013 um 14:12 Uhr #942398DazzleTeilnehmer
Schon irgendwie ein Mysterium :D. Ich hab das mit dem System bis heut nicht verstanden. Ist es so schwer solch einen algorythmus zu finden?
-
20. Dezember 2013 um 15:12 Uhr #942401DazzleTeilnehmer
Was ist ein Hash?Hab’s bei Wikipedia nicht verstanden.
-
20. Dezember 2013 um 15:12 Uhr #942400ThaRippaAdministrator
Da ist nix mit Code knacken. Man errechnet hashes, diese sind aber immer seltener etwas Wert je länger die Sache läuft. Das ist dazu da, damit es keine Inflation gibt, nur weil nach 4 Jahren die Grafikkarten doppelt so schnell sind und mehr Leute Minen.
-
20. Dezember 2013 um 16:12 Uhr #942403JabbaTeilnehmer
BTC minen ist tot. Das kannst vergessen.Andere digitale Coins werden in BTC umgerechnet und lohnen sich durchaus.Eine Maschine mit 4 x E290X macht ca. 4 MH/s. Damit kann man ganz gut die Stromrechnung und einen Teil der Anschaffungskosten finanzieren.Voraussetzung ist, daß man so diszipliniert ist und die Coins auch am Monatsende verkauft und nicht hortet. Da kanns zwar Kursgewinne geben, aber eben auch Verluste.Motto: Ca$h for Ha$hP.S.: Die Nvidias kannst Du beim Minen ALLE in die Tonne treten. Die erwirtschaften nicht mal die Stromkosten. Selbst eine Titan schafft nur 500 kH/s. Das konnte meine 5870 mit OC schon vor 2,5 Jahren.P.S.S.: Hier mal etwas inhaltlich Wertvolles zum Thema
-
20. Dezember 2013 um 19:12 Uhr #942407ischTeilnehmer
Das mit den Grakas ist ja nur entstanden da damals die GT640 bei POEM sehr viele Credids bei sehr gierigem verbrauch gecruncht hat.Da war die GTX680 die schnellste Karte und hat kaum mehr geschaft bei viel höherem verbrauch.Mit dem System hätten wir ums Podium gekämpft.Dann kam ja der Beta Treiber von ATI der die 77xx auf und davon fliegen lies und das C/W Verhältnis noch mal ordentlich angezogen hat.Leider ist dadurch auch die WU versorgung ins stocken geraten.Da POEM ja leider beendet ist und man nicht weiß wie die Hardware Ansprüche an das kommende GPU Projekt aussehen sollten wir in die Richtung erst mal nichts machen.Wie das ganze mit 4 780Ti aussieht bei GPUGRID kann ich leider nicht genau sagen aber da wir nur in die zweite Gruppe bei Formulaboinc eingestuft sind sollten die TOPTEN drin sein.Wenn ich mir die diesjährige GPUGRID Platzierungen anschaue würden wir bei 1Mio C pro Tag auf Platz 29 landen5 GTX780 haben gestern 1,84Mio c errechnet3 GTX780Ti haben gestern 1,515Mio c errechnetAlso wird da auch eine gute Platzierung drin sein.Von den Minen halte ich nicht viel da wir dann wieder ATI Karten brauchen (wo wir im Team schon viele haben) und wenn beim Penthalon ein NV Projekt kommt wir nichts zum rechnen haben.Zum Thema CPU Cruncher:wäre auch eine Möglichkeit nur auf welchem BS?Wer kennt sich so mit Linux aus das man das wie beim emk2 nur mit einer SSD Lösen kann.(ulv hat mit der Pflege des emk² mehr als genug zu tun und das sollten wir Ihm dann nicht auch noch aufhucken)Ist sowas auch mit win7 möglich und dann eine Steuerung über Teamviewer?
-
20. Dezember 2013 um 21:12 Uhr #942409ischTeilnehmer
Ich habe bei mir an jedem Blade eine einzelne SSD und greife über Teamviwer drauf zu.Funktioniert auch sehr gut.Leider entstehen dadurch mehr Kosten,es sind mehr Kabel im Gehäuse.Ein System mit einer großen SSD wäre hier von großem Vorteil.Auf Windows Basis wäre vorteilhafter da sich die meisten damit auskennen.Bei Linux würde die Arbeit wieder an ein oder zwei Personen hängen bleiben.Was Kostet so ein Server BS ?Wievielt Blades sollen es den überhaupt werden?Wie sieht die Internet Anbindung am Standort aus.Ist ja bei vielen Blades nicht ganz unwichtig
-
20. Dezember 2013 um 21:12 Uhr #942408VTG01Teilnehmer
uff, so viel posts an einem Tag, aber mal der Reihe nach:@littledevilDas mit der PV-Anlage klingt interessant – nur bei einem Cruncer der 1,5KW zieht sehe ich die Zeit in der er mit PV arbeitet nur wenige Stunden – etwa von 10:00 – 16:00 Uhr. Danach und davor kann ich mir nicht vorstellen dass man das mit einer “normalen” Dachanlage eines Einfamilienhauses schafft. Im Winter ist es leider absolut obsolet das Ding (www.happywetter.at – da sind meine Wetterdaten seit 10/2007 drauf)–> Ich habe grundsätzlich Interesse an PV kannst du mir mal eine PN schicken?@ThaRippaJa wir haben eine Chance durchaus in die TOP TEN bei einem GPU-Projekt zu kommen. Schau dir mal COLLATZ an. Ich bringe um die 4,5 Mio Credits täglich rein Das gesamte Team etwa 5,6 mio, um in die TOP TEN zu kommen sollten es momentan mehr als 6,0 MIO sein, während der Formula um die 10Mio je Tag. Da haben wir sehrwohl die Chance – jedoch ist der Sinn des Projektes eher fragwürdig. Die Anforderungen sind relativ simpel -> ATI möglichst gross und gute Kühlung. Eine 79xx kann man im Dauerbetrieb 7/24 leicht gedrosselt mit 900.000 Credits ansetzen, beim Contest geht es auch über eine Mio. Als Fausregel 1x 7950 = 2x 5850, 1×7970 OC =3×5850@JABBAIch habe mal vor bis zu 1,0 Mrd Credits die GPU’s auf COLLATZ zu lassen und dann mal ein wenig kürzer zu treten. Sollte das MINEN wirklich was bringen kann ich mal das versuchen ….@ischVom Prinzip her ist unser Blades relativ einfach aufgebaut, OS ist LINUX – jedoch fast so einfach zu bedienen wie Windof – jedoch nur wenn alles läuft. Wichtig ist aus meiner Sicht dass das System ordentlich aufgebaut wird und solange einreguliert wird dass es stabil läuft. Dabei muss man die Blades auf jene Spannung bringen die das minimum des heikelsten Projektes ist. Die Steuerung der jeweiligen Blades in den BOINC PROJEKTEN läuft über den normalen BOINC MANAGER.Ich gebe dir jedoch Recht dass das Einrichten und Aufsetzen der Maschine hardcore ist und absolut nichts mit 08/15 Windof-Pc-bauen zu tun hat. Rennt das Ding mal – und der Strom fällt nicht aus – dann ist die Kiste sehr stabil (aber nicht silent). Wir haben uns zu Beginn auch mal kurz angedacht das Ganze in Windows zu machen – da hier die Oberflächen für Otto-Nurmalnutzer deutlich einfacher sind – leider ist das mit hohen Kosten verbunden da es wahrscheinlich einer Serverlizenz Bedarf.Eine andere Möglichkeit wäre, die einzelnen Blades in einen kleinen Schrank zu geben und eben 6-7 PC’s zu haben – eben nur an einem Netzteil mit 1 Disk – jedoch mit 6-7 Betriebssystemen.
-
20. Dezember 2013 um 21:12 Uhr #942410ThaRippaAdministrator
Windows Server 2012 Core kostet keine Lizenz. Hat aber auch keine GUI.
-
20. Dezember 2013 um 22:12 Uhr #942411ischTeilnehmer
Ohne GUI kommen die meisten ( inklusive mir) aber auch nicht klar.
-
22. Dezember 2013 um 11:12 Uhr #942420VTG01Teilnehmer
Da gibt es zur Zeit PCIe Riser mit Stromversorgung:http://www.ebay.de/itm/PCI-PCIe-Riser-x1-zu-x16-POWERED-Ribbon-Molex-Bitcoin-Litecoin-SOFORTLIEFERUNG-/151187114187?pt=DE_Computer_Sonstige&hash=item23337448cb… und ein paar Bilder von der Kühlung von Graks Maschinen – ich persönlich finde die Bilder nicht gut gelungen aber schaut mal selbst.
-
22. Dezember 2013 um 12:12 Uhr #942422ischTeilnehmer
Die ohne Stromversorgung sollten aber auch gehen.Bei 4 Grakas brauchen wir eh keine Riser die Karten passen ja so aufs Board.
-
22. Dezember 2013 um 12:12 Uhr #942423xfn99Teilnehmer
-
22. Dezember 2013 um 20:12 Uhr #942427ThaRippaAdministrator
Die Maxwell-Zahlen halte ich für zu optimistisch. Das sind verdammt viele Shadereinheiten die da dazukommen. Ich meine klar 20nm Fertigung, aber das sollten dennoch einige mm mehr Die-Fläche sein. Und Die-Fläche kostet Geld.
-
22. Dezember 2013 um 20:12 Uhr #942426ischTeilnehmer
Bis die Maxwell mal auf dem Markt sind,die Treiber 100% laufen die die GPUGRID wus angepasst sind und 100% laufen ist Sommer wenn nicht sogar Herbst und ich will gar nicht wissen wie viel NV für die neuen Karten dann auch noch haben will.
Hier sind noch mal ein paar Werte von heute
[table “” not found /]
Leider gibt es ein paar unbekannte die das auswerten der zahlen etwas erschwert.
-Sind die Karten OC oder laufen mit normal Takt
-Laufen Long oder Short WUs
-Haben alle WUs den 24 Std Bonus bekommen
-Welche Long WUs sind genau gelaufen
-ist die CPU und der RAM OC -
22. Dezember 2013 um 21:12 Uhr #942428DarknessTeilnehmer
Natürlich sind die Werte für Maxwell viel zu optimistisch. War ja bei AMD auch nicht anders. Zuerst war die Rede von komplett neuer Architektur, gefertigt in einem besseren Verfahren und mit sensationellen Werten, rausgekommen ist allerdings nur ein Refresh den niemand wirklich gebraucht hätte.
-
22. Dezember 2013 um 22:12 Uhr #942429JabbaTeilnehmer
zu Miner Hardware:der übliche Tischaufbau, der es nie in ein Gehäuse schafft. Hatte / Hat wohl jeder Miner schon mal bei sich stehen.Allerdings ergeben sich bei den angebotenen Aufbauten insoweit Probleme, da jedes System sehr heterogen bestückt ist. Soll heißen, daß ich nicht mit einem Setting alle Karten überfahren kann, sondern jedes System manuell bzgl. Spannung, Takt etc. für jede Karte einstellen muß.@isch4 dicke Karten nebeneinander sind dauerhaft nur mit Wakü oder brachialer Lukü zu betreiben. Es entstehen auf engstem Raum ca. 1 KW Abwärme.Selbst hatte ein Freund mir solche Systeme zum Minen. Ergebnis: bei offenem Fenster, davorgestellter Klimaanlage und diverser Ventialtoren war es in der Nähe der Cruncher nicht auszuhalten (40°C +x). Der Tisch konnte nicht angefaßt werden. Als Gehäuse kamen voll ausgestattete Cooler Master HAF zum Einsatz…Da dann lieber kürzer treten, zwei oder maximal drei dicke Grakas mit einem Slot Abstand dazwischen.
-
22. Dezember 2013 um 22:12 Uhr #942430ischTeilnehmer
Das muss doch aber aus ohne Wakü gehen schließlich bitten NV/ATI ja 4 Way SLI/CrossFireX an.Die Karten müssten wir so wie so untervolten um Strom zu sparen.Das Gehäuse hat vorn einen 200mm Lüfter und Seitlich bei den Grakas auch.Das ganze müsste man dann eventuell noch vom Rest des System abschotten damit die kalte luft vorn rein direckt auf die Grakas pustet und etwas hinten raus und der Seitlich Lüfter die warme Luft absaugt (oder genau anders rum).Wir sollten eh erst mal mit zwei Karten testen und das ganze System optimieren ( Stromverbrauch) und dann schauen was dabei rum kommt.
-
22. Dezember 2013 um 23:12 Uhr #942431JabbaTeilnehmer
Die können so was schon anbieten. Und solange man nur mal zockt ist das auch ok. Systemvorgaben machen die ja keine.Außerdem takten die Jungs dann einfach runter – aber wer will das schon.Für Dauerfeuer sind solche System nicht ausgelegt. Und die 200er Lüfter sind ja nett, erzeugen aber keinen Luftdurchsatz. Da müssen schon solche Turbinen wie im EMK2 her, die Dir Augenlider hochziehen wenn Du meinst reinschauen zu müssen.Was erschwerend hinzukommt sind die dämlichen Belüftungen der Grakas, die ihre Abwärme einfach irgendwohin blasen, aber nicht nach draußen.Eigentlich müßte man die Gehäuse der Grakas komplett neu gestalten, so wenigstens ein guter Teil direkt nach draußen geblasen wird.Alternativ wäre ein Caging der Grakas ratsam. Allerdings bietet kaum ein Gehäuse oberhalb der Grakas genügend Raum für potente Lüfter, die all die Abwärme absaugen können.Lüfter in der Seitenwand wären hilfreich, so sie denn ALLE Grakas absaugen. Ein Seitenwandmod könnte die Lösung sein.Andererseits wäre dann ein ‘Openrig’ die bessere Lösung, weils eh schon Wurscht ist.
-
23. Dezember 2013 um 8:12 Uhr #942432VTG01Teilnehmer
Ich halte die “Referenzkühlung” von ATI als die beste Kühllösung für leistungsstarke Grakas die im Verbund laufen. Alle anderen Lösungen mögen zwar leise sein – haben jedoch im Verbund den Nachteil dass sie kühle Luft und Heisse Luft vermischen und so nicht die erforderliche Leistung bringen können.Ich hatte den Versuch gemacht eine 7970 und eine 5850 ohne Zwischenslot zu verbauen. Innerhalb kürzester Zeit ist die obere Karte – die 7970 über 75°C gewesen, Lüfter auf 95% und war nicht mehr kühlbar. Die 5850 lief ganz normal – vielleicht ein bischen Wärmer aber der Vent war noch unter 50%. Nachdem ich die 2 Karten mit 1 Slot Abstand verbaut habe war die 7970 bei Vollast bei etwa 75° und 75% Lüfter zu betreiben. Nimmt man die untere Karte ganz raus so sinken sowohl die Temps als auch die Vent-Drehzahl. Hintergrund ist – dass die Karten von “unten” die Luft ansaugen und durch die Kühler nach “Vorne” ausblasen.Ist der Abstand zwischen den 2 Grakas zu gering dann bringen die Lüfter schlichtweg keine Luft mehr zum Kühlkörper. Auch entsteht eine Walze bei der die heisse Luft die “Vorne” ausgeblasen wird sofort wieder durch den Lüfter angesaugt wird. Zwischen den beiden Grakas ist ein toller Unterdruck! Selbst ein Absaugen der heissen Luft an der Seitenwand bring wenig, denn wo soll kühle Luft her kommen? Es sei denn man verlängert den Ausblasschacht so dass er deutlich von der Graka weg führt und ausserhalb des Gehäuses endet. Ein weiterer Kanal müsste die Frischluftzufuhrfür die Graka Ventilatoren sicher stellen.Hast du jedoch einen Ventilator der die Luft von Honten durch die Graka durchbläst un bei der Slotblende raus schiebt – kommt es zu keinen Luftverwirbelungen kalt/heiss. Ich denke dass wenn du 4 Karten im Verbund betreibts nur solche Karten wirklich kühlbar bleiben – alle anderen Varianten gehen sicher nur mit Wasser.PS: Auch beim Blade – wo mehrere Platinen übereinander sind kannst du sehr gut erkennen wieviel Abstand zwischen Lüfter und der oberen Platine notwendig sind. Irgendwannn beginnt die CPU-Temp plötzlich zu steigen – das ist der Moment wo einfach zu wenig Lugt zum Ventilator kommt um die Kühlung aufrecht zu erhalten. Steigt der Abstand um wenige Millimeter sinkt die Temperatur relativ rasch ab.
-
23. Dezember 2013 um 17:12 Uhr #942434ischTeilnehmer
Schaut euch mal das Bild von Gehäuse anVorn wir Luft rein gepustet der Seiten Lüfter deckt alle Graka Slots ab und von unten wird auch noch kalte Luft rein gepustet.Wenn man jatzt oberhalb der Graka (unter dem CPU Kühler) eine Zwischenboden einbaut und das halbwegs abdichtet kann die Luft doch nur durch die Grakas nach hinten raus.Der NV Lüfter saugt doch unten die Luft an und drückt sie nacht hinten aus dem Gehäuse raus.Oder sehe ich das falsch?Dann habe ich mir gestern Abend im HWL Forum mal den 780ti Thread durchgelesen und die Karten haben ein gutes Takt Potential.Da sollte durch untervolten noch einiges gehen.
-
25. Dezember 2013 um 22:12 Uhr #942484gr3ifTeilnehmer
Hm also an einem Server 2008r2 soll es nicht scheitern. Sowas habe ich hier liegen mit Lizenz und brauche es nicht. Viel spannender ist immer noch die Frage wo es hingeht.Crunchen kann sich lohnen, mutiert aber schnell zum Job desjenigen der Coins verkauft. Und das macht wenn man die Zeit rechnet keinen Sinn.Grakas im 4er Verbund halte ich auch nur AMD Karten für sinnvoll da meine 2x 780 schon im SLI mit einem Slot aabstand beim zocken rund 300mhz langsamer laufen als einzeln. Immer wieder kurz zwar aber merklich. Turbo 2.0 ist halt Quatsch….
-
25. Dezember 2013 um 23:12 Uhr #942485JabbaTeilnehmer
@GreifCoins verticken ist nicht das Ding.Das geht ganz gut, wenn mal alles eingerichtet ist (Wallets, Börsenaccounts). Geht dann eher darum, daß man jemanden findet, der die € Überweisungen zuverlässig abwickelt.
-
26. Dezember 2013 um 15:12 Uhr #942495IrgendeinnameTeilnehmer
Hallo, ich lese diesen Thread immer sehr interessiert mit. Leider kenne ich mich auf dem Gebiet der Grafikkarten nicht so gut bis gar nicht aus. Würde mich allerdings bereit erklären diesem Projekt mit einer kleinen Spende weiter voran zu bringen. Vielleicht findet sich ja noch der ein oder andere der genau so denkt. :+ In diesem Sinne in ein erfolgreiches Jahr 2014.
Liebe Grüße Jan
-
26. Dezember 2013 um 19:12 Uhr #942507KiroTeilnehmer
Hallo Jan und der Rest der Tüftler 😊Ich würde mich der Meinung von Jan anschließen, da ich selbst weder die Möglichkeit noch die Zeit hab, am Projekt selbst mitzuarbeiten, würde ich mit einer Spende, sei es Geld oder notwendige Hardware gern beteiligen, um die Realisierung voran zu treiben. 😊In diesem Sinne Schöne Feiertage und einen guten Rutsch. Grüße Jan
-
27. Dezember 2013 um 20:12 Uhr #942533ischTeilnehmer
Hi ihr beidenWir bräuchten ja noch eine CPU,CPU Kühler,Board,RAM,SSD,NT,Gehäuse eventuell bessere Lüfter.Es können natürlich auch gebraucht Teile sein oder Geld.ThaRippa und ich würden ja je eine 780Ti Sponsoren.Ich würde noch den Aufpreis für ein Intel Core i7-4930K falls wir uns auf ein 2011er System festlegen.Dann muss ja auch noch der Strom Bezahlt werden würde da jeden Monat 25€ invertieren.
-
5. Januar 2014 um 16:01 Uhr #942808ischTeilnehmer
Nvidia GeForce GTX 790 kommt?Wäre nicht ganz uninteressant davon 2 Stück sollten weniger verbrauchen als 4 780Tis nur was werden die Kosten?
-
5. Januar 2014 um 16:01 Uhr #942809KiroTeilnehmer
Willkommen in 2014 😊So also wer könnte mir mal bitte per PN schreiben, was an Hardware noch benötigt wird. Und die Spezifikationen bzw. Die gewünschten Modelle und ich schau was ich organisieren kann. 😊Grüße Jan
-
5. Januar 2014 um 18:01 Uhr #942812ischTeilnehmer
Wir sollten erst mal ein paar Rahmenbedingungen festlegen bevor wir einkaufen.- soll es ein reiner GPU Cruncher werden- soll es CPU/GPU Cruncher werden wenn ja welche CPU i3,i5,i7/Xeon oder i7 4930K Sockel 2011- welches Board/RAM (wie viel wie schnell)- wie viele Grakas (danach muss ja jetzt schon das NT gekauft werden.)
-
5. Januar 2014 um 19:01 Uhr #942814JabbaTeilnehmer
In Anbetracht möglicher GPU Projekte wie POEM sollte die CPU nicht zu schwachbrüstig sein.Die Anzahl der Kerne wird dabei von der Anzahl der Grakas bestimmt.für mich offen: kann ein ordentlich getakteter Kern überhaupt eine 790er auslasten? Oder ist der auch schon zu langsam?Mein Vorschlag daher: reiner GPU Cruncher
-
5. Januar 2014 um 20:01 Uhr #942815ThaRippaAdministrator
Ich würde sagen GPU Als Ziel, wenn nachher die HT-Threads noch CPU-Projekte rechnen können, ist das ein Bonus. Als CPU würde ich wohl einen 1150er i7K nehmen, das wäre bei 4 Karten ein Kern pro GPU. Ob das reicht sehen wir mit 2 Stück schon, und dann wäre es nicht sehr teuer den Kram zu verkaufen und auf 2011 zu wechseln. Zumindest billiger als den jetzt unnütz direkt zu kaufen. Alternativ: 1155, Ivy oder gar Sandy-i7. Deren Mehrverbrauch sollte bei 2 oder mehr 790 nicht ins Gewicht fallen. Dafür evtl. billiger weil gebraucht zu bekommen und (Sandy) weiter übertaktbar. Oder X58 und nen 6-Kern-Xeon, also Sockel 1366. müsste man natürlich erst ein Board raussuchen, welches Xeons nimmt, und einen solchen günstig schießen. Verbraucht dann wirklich mehr Strom pro Gflop als ein aktueller i7, daher vielleicht nicht die beste Version, aber in der Anschaffung günstig.
-
5. Januar 2014 um 21:01 Uhr #942818ischTeilnehmer
GPUGRID braucht so gut wie nichts an CPU da kannst die kleinst an Markt erhältlich CPU einbauen.CPU Anteil liegt glaube ich bei 0.02 also kann man das Massen an GPUs mit beschäftigen.Wenn i7 dann IB 1155 da die Sparsamer als Haswell sind und günstig gebraucht zu bekommen.Das selbe gilt für die 6 Kerner.Die IB sind deutlich sparsamer als die SB und Haswell gibt es ja noch nicht.Es würde sogar ein Intel Xeon E5-2697 v2, 12x 2.70GHz, Sockel-2011 auf einem MSI X79A-GD45 Plus gehen ist nur ein bisschen teuer.
-
5. Januar 2014 um 21:01 Uhr #942823xfn99Teilnehmer
Da bin ich jetzt nicht mitbekommen … kannst du das vielleicht bitte nochmal genau erklären ? Danke schon einmal 🙂
-
5. Januar 2014 um 21:01 Uhr #942822VTG01Teilnehmer
In Anbetracht der REC 10.000.000 MIO Grenze bei der Formula sollten wir überlegen ob wir uns das antun wollen. Wenn ja dann fällt Collatz weg – so sollten wir die Grenze von 10.000.000 je Tag nicht erreichen.
-
5. Januar 2014 um 21:01 Uhr #942821ischTeilnehmer
xfn99;512846 said:
Guten abend,Ich habe den Kompletten Thread nicht durch gelesen, aber einen großen Teil.Also entschuldigt bitte, wenn ich etwas wiederholen sollte.Wenn ich das richtig mitbekommen habe, benötigt man viele Kerne/Threads.Also habe ich mal etwas im Internet gesucht.Bei der Grafikkarte halte ich die hd7790 für sinnvoll und würde sie persönlich der GT 640 vorziehen, da sie eine bessere GFlop/Watt performance hat, fast doppelt so schnell ist (gflops single percission) und in etwa gleich teuer ist.GPUGRID unterstützt nur NV KartenBei der Cpu, Mainboard und dem Ram habe ich folgende Ideen:Nr.1:2x http://geizhals.de/intel-xeon-e5-2620-bx80621e52620-a733975.html 2x http://geizhals.de/supermicro-x9srl-f-retail-sockel-2011-mbd-x9srl-f-o-a848134.htmlMeine Idee war das man zwei Mainboard nimmt da man dann die Splitter weglassen kann und dadurch Geld spartn würde (auf jedes Board müssten 4×7790 um die angepeilte Performance von 16xgt 640 zu erreichen)Ram kann man überlegen was sinnvoll ist.Die CPU ist ja halbwegs in Ordnung aber dafür extra ein teures Server Board.Das MSI ünterstützt ja auch ein paar Server CPU muss man halt schauen wie viel man haben/ausgeben will.Nr.2:http://geizhals.de/amd-opteron-6376-os6376xfn99hkwof-a862698.html (16 Kerne müsste reichen)http://geizhals.de/supermicro-h8sgl-f-sockel-g34-quad-pc3-10667r-reg-ecc-ddr3-a521405.html Hier würde man dann wahrscheinlich Splitter brauchen Mfg xfn99Ps: Hoffe das wird kein Doppelpost, irgendwie funktioniert das antworten nicht .Leider geht der Link zur CPU nicht aber die AMDs verbrauchen leider zu viel Strom.Beim Board brauchen wir nicht viele Slots da wir sonst kein NT finden das genug Strom liefertDer Startpost ist leider nicht mehr aktuell da sich viel getan hat in der Zeit.POEM hat zur Zeit kein GPU Projekt mehr.Daher kommt nur noch GPUGRID in frage und hier sind die großen Karten den kleinen weit überlegen was P/W angeht.
-
5. Januar 2014 um 21:01 Uhr #942819xfn99Teilnehmer
Ich hatte in meinem ersten Beitrag schon ein mal ein paar andere Vorschläge gemacht 😉 könnt ihr ja auch nochmal anschauen (#372)(Wegen Cpu und Mainboard)
-
5. Januar 2014 um 22:01 Uhr #942826ischTeilnehmer
Wir hatten gestern 4,7Mio also ist da noch genug Luft.Und wir man überhaupt sofort hochgestuft wenn man mal die 10 Mio knackt?
-
9. Januar 2014 um 22:01 Uhr #942940VTG01Teilnehmer
Keine Ahnung wie das geht – mir ist heute 2x die GRAKA MAschine in die Knie gegangen. Irgendwas passt da nicht – somit voraussichtlich in den nächsten Tagen um 1,6 Mio Credits von mir weniger.Dummerweise sind auch 4 Climas den Bach runter gegangen! Die tun mir weh denn da wären wir am Aufholen!!
-
13. Januar 2014 um 17:01 Uhr #943119BoogiearmyTeilnehmer
Moin,
Also ich verfolge ja dieses Thema schon etwas länger
und schreibe jetzt mal meine Ideen.Also ich würde auf AMD Karten setzen und diese wenn kein wettbewerb ist als Miner laufen lassen und bei Wettbewerben dann als “Cruncher” oder wie die heißen.
Als Miner Pool würde sich Middlecoin anbieten da P2P Pool und alles wird als BTC ausgezahlt somit einfach per Bitcoin.de tauschbar in Euro.
Damit würde ich erstmal den Rechner abbezahlen und danach von dem Gewinn das Forum finanzieren oder ähnlich.
Wer sich interesiert kommt heute abend einfach ins TeamSpeak 3
gameswar.tk
werde gleich extra noch nen Channel erstellen.Gruß Felix
-
13. Januar 2014 um 18:01 Uhr #943126xfn99Teilnehmer
Naja ich meinte eher was man mit den AMD Grafikkarten macht mit denen man mining betrieben hat.Es hieß doch es gibt keine sinnvollen gpu Projekte für AMD.
-
13. Januar 2014 um 18:01 Uhr #943127ThaRippaAdministrator
Ich weiß nicht, Collatz rennt doch? Da müsste ein BOINC-Stratege was zu sagen. Zur Not verkauft man die Teile rechtzeitig vor einer Grafikkarten-Inflation (ich freu mich schon darauf 😉 ) und kauft stattdessen Titan-II.
-
13. Januar 2014 um 18:01 Uhr #943123JabbaTeilnehmer
um mal mit den Halbwahrheiten aufzuräumen:1. AMD Karten sind der Renner beim Minen – NVidia ist diesbzgl. nicht annhähernd konkurrenzfähig2. ASIC Miner kommen in Q2-Q3, erfahrungsgemäß wohl dann erst in Q43. ASIC Miner kosten Geld und können für nichts anderes verwendet werden4. die ASIC Miner werden nicht in einer anderen Galaxie rechnen, sondern noch durchaus in Reichweite der Grakas
-
13. Januar 2014 um 18:01 Uhr #943125ThaRippaAdministrator
Dann rechnet man eben 24/7 für die Wissenschaft :)Wenn sich die Karten selbst bezahlen, reicht das doch. Dann hat man am Ende kostenlos eine 1 Jahr alte Grafikkarte oder so.
-
13. Januar 2014 um 18:01 Uhr #943121xfn99Teilnehmer
Zum “Crunchen” braucht man aber Nvidia Karten da die Projekte für AMD Karten nicht wirklich was bringen. Mining ist auch sehr fragwürdig wegen dem steigenden Schwierigkeitsgrad und den “asic” minern die quasie komplett op sind .Litecoin lohnt sich noch extrem, mit einer r9 290x lassen sich da abzüglich Stromkosten 125€ im Monat machen. Allerdings sollen da bald auch diese Asic Meiner kommen.Mfg
-
13. Januar 2014 um 18:01 Uhr #943124xfn99Teilnehmer
Ich habe ja gesagt mit einer r9 290x lässt sich noch sehr wohl Geld verdienen ;)Die Frage ist wenn man z.b. Litecoin mining betreibt :1.Wie ist der Kurs von der Währung2.Wie steigt der Schwierigkeitsgrad3.Was macht man, wenn es sich nicht mehr lohnt zu Minen.
-
13. Januar 2014 um 18:01 Uhr #943128xfn99Teilnehmer
Mmh. Wenn man jetzt mal anfängt zu rechnen :DCpu: xeon e5: 500€Mainboard: 300€Ram: 160€4x r9 290x: 2000€Damit würde man pro Monat > 500€ verdienen.D.h. nach 5-6 Monaten wären alle Kosten abzüglich Strom wieder drin :)https://litecoin.info/Mining_hardware_comparisonhttp://www.litecoinminingcalculator.com/index.php?khs=3600&diff=3891.34232183&cdiff=3891.34232183&fee=0http://de.coinmill.com/EUR_LTC.html#LTC=1Das ist alles was man braucht, um aus zurechnen wie viel man verdient. Wenn man Minen will sollte man lieber schnell als langsam damit anfangen da der Schwierigkeitsgrad immer höher wird.
-
13. Januar 2014 um 19:01 Uhr #943130xfn99Teilnehmer
Es ging ja auch eher darum die Anschaffungskosten wieder rein zu bekommen und danach für Boinc quasie “kostenlos” rechnen lassen.
-
13. Januar 2014 um 19:01 Uhr #943129ischTeilnehmer
Wir wollen aber kein Geld damit verdienen sondern die Rechenleistung der Wissenschaft zur Verfügung stellen. Und auch nicht irgendwelche Aliens oder Primzahlen sondern Biologie/Medizin.Collatz rechnen wir zur Zeit nur weil POEM keine Arbeit hat und wir da ganz gute Chancen haben bei Formula Boinc ein paar Punkte abzusahnen.
-
13. Januar 2014 um 20:01 Uhr #943131VTG01Teilnehmer
Halloalso das mit den
Damit würde man pro Monat > 500€ verdienen.
halte ich für Bauernfängerei. Wenn das so wäre würden das viele machen – und sogar toll leben. Abgesen davon dass du mal 4Stück R9 290X ohne Wasser kühlt hältst und du zumindest mal den Standard Takt rechnen.
-
13. Januar 2014 um 20:01 Uhr #943132xfn99Teilnehmer
Naja es war Überschlagen ;)Die Kühlung ist eine der schwierigsten Sachen denke ich.Bei Bitcoin sieht man wie viele Leute das machen Litecoin ist nicht so bekannt.Man kann die Hardware auch kaufen und sofort rechnen lassen (Boinc) wenn das alles zusammen kommt.
-
13. Januar 2014 um 21:01 Uhr #943135JabbaTeilnehmer
Und nochmal:Bitcoin rechnet keiner mehr mit Standardhardware.Litecoin rechnet sich für Leute, die die Hardware schon haben. Ob es für andere noch einen Break Even gibt, hängt von der Kursentwicklung ab. Da heißt es wie bei BTC: langer Atem rulez.In unserem Fall könnte man einen Teil der Unkosten damit tragen. Ob es für einen Break Even bei Anschaffung UND Stromkosten reicht, lasse ich mal dahingestellt.Abgesehen davon könnte man mit weniger Aufwand bei Anschaffung und Strom auch einfach eine kleinere Karte das ganze Jahr durchrechnen lassen und käme vermutlich auf dieselben (Rest)Kosten.Klar: Thrill ists keiner 😉 – ist aber die Lösung, die der Controller vorschlägt.Und richtig:4 x 290x ohne Wakü in einem Gehäuse sind fast nicht machbar.Das geht dauerhaft nur mit Wakü oder einem Air-Chiller im Ansaugschacht. Letzteres ist bzgl. der Stromrechnung äußerst ineffizient und auch bei einer Wakü muß der Radiator schon die Größe eines Heizkörpers haben, um mehr als 1 KW Dauerleistung abführen zu können.Ganz davon abgesehen, daß sich die Karten permanent drosseln würden, weil ihnen zu warm ums Herz wird.Und selbst dann muß der Kellerraum entsprechend groß sein, um die Wärme an die Umgebung abzuführen. 1 KW Dauerheizung sind selbst im kühlen Keller spürbar. In einem Wohnraum undenkbar, da man dort gleich wieder in die Temperaturfalle läuft, da die Raumtemperatur zu hoch wird und die Karten möglicherweise wieder drosseln. Und Sommer darf es auch nicht werden.GrußJabba
-
14. Januar 2014 um 18:01 Uhr #943147VTG01Teilnehmer
@JabbaIch plichte dir in allen Punkten zu.Ich betreibe zur Zeit dem happywetter.at mit 9 Blades und einer Aufnahme von “nur” 450 Watt sowie einer 7970er in einem kleinen Raum im Keller. Gesamtverbrauch liegt bei 810Watt – wenn ich mal Gas gebe auch schon mal bei 900Watt. Zur Zeit ist das Fenster offen – aber ab Mai muss ich die Graka raus bringen.
-
21. Januar 2014 um 17:01 Uhr #943304
-
21. Januar 2014 um 21:01 Uhr #943315VTG01Teilnehmer
Wer das Kleingeld aufbringen mag. Mal sehen was aus den Gerüchten dann übrig bleibt. AMD hat lange gewartet und ist eigentlich kaum was neues raus gekommen. Ein bischen modelliert R9 280X – R7 …., Einzig R9 290x und die R9 290 sind neu – für die Leistung jedoch zu teuer. (Ausserdem kaum kühlbar mit Luft)
-
29. Januar 2014 um 16:01 Uhr #943536xfn99Teilnehmer
Wer wollte nochmal eine 7970 kaufen ?http://m.kleinanzeigen.ebay.de/s-anzeige/msi-ati-hd-7970-3gb/171413225http://m.kleinanzeigen.ebay.de/s-anzeige/hd-radeon-7950/175922841Geht glaube ich los mit den verarmten Minern 😀
-
29. Januar 2014 um 16:01 Uhr #943537ThaRippaAdministrator
Ich war das. Sehr gut! xD
-
3. Februar 2014 um 18:02 Uhr #943735xfn99Teilnehmer
Wie groß ist der Unterschied zwischen einer gtx680 und einer 780ti bei Boinc?Bei E-Bay Kleinanzeigen gibt es zahlreiche 680 für 230-250€ .http://m.kleinanzeigen.ebay.de/s-anzeige/gtx680-msi-twin-frozr/177001291http://m.kleinanzeigen.ebay.de/s-anzeige/nvidia-gtx-680-2gb-arctic-cooling-twin-turbo/175009303http://m.kleinanzeigen.ebay.de/s-anzeige/msi-n680gtx-twin-frozr-2gd5-oc/174521574http://m.kleinanzeigen.ebay.de/s-anzeige/zotac-geforce-gtx-680-grafikkarte/172329009http://m.kleinanzeigen.ebay.de/s-anzeige/nvidia-geforce-gtx-680-2gb/166648676Gtx 780 non Ti bekommt man für 330€ http://m.kleinanzeigen.ebay.de/s-anzeige/geforce-gtx-780-3-gb-grafikkarte/177968896http://m.kleinanzeigen.ebay.de/s-anzeige/gtx-780-twin-frozr-3-gb-gddr5-high-end/177539845http://m.kleinanzeigen.ebay.de/s-anzeige/asus-nvidia-geforce-gtx-780-grafikkarte-pci-e-3gb-gddr5-neu/173771257Ich war recht überrascht das die bei so “wenig” anfangen und dachte, das dass vielleicht eine Alternative wäre .
-
3. Februar 2014 um 18:02 Uhr #943736ischTeilnehmer
Die 680 ist ca 25% langsamer als eine Titan und die 780ti dürfte noch mal 10-15% schneller sein als die Titan.Also Minimum 30% langsamer wahrscheinlich er noch mehr.
-
18. Februar 2014 um 20:02 Uhr #937003
-
18. Februar 2014 um 21:02 Uhr #937007xfn99Teilnehmer
Ja dann werf ich doch mal 8 von denen: http://www.intel.de/content/www/de/de/processor-comparison/processor-specifications.html?proc=79209 in die Runde. Ich habe mir heute nur gedacht wtf 120Kerne auf einem Mainboard *-*
-
18. Februar 2014 um 21:02 Uhr #937005
-
19. Februar 2014 um 0:02 Uhr #937012KiroTeilnehmer
Und was sollen diese Monster kosten?? Da schlägt mir des Herz bis zum Anschlag, bei den Leistungsdaten 😃
-
19. Februar 2014 um 8:02 Uhr #944029ThaRippaAdministrator
Wie wäre es direkt mit Intel?
-
19. Februar 2014 um 8:02 Uhr #944028relativTeilnehmer
Also für den E7-8890 sollen “nur” $ 6841 fällig werden 🙂 aber dafür hat jeder CPU 32 PCI-E lines also könnte man jede Karte wirklich mit 16 lines anbinden. Es müsste sich nur ein zahlungskräftiger Sponsor finden.
-
19. Februar 2014 um 10:02 Uhr #944030Obi WanAdministrator
Intel = teuer ?
-
19. Februar 2014 um 11:02 Uhr #944032ThaRippaAdministrator
Ich meine als Sponsor 🙂
-
19. Februar 2014 um 11:02 Uhr #944031xfn99Teilnehmer
Der ist überteuert da es eben das absolute Flaggschiff ist. Außerdem halte ich das für etwas unnötig so eine Cpu für einen Gpu Cruncher zu benutzen;) Wenn Intel einen stellt wäre das aber natürlich top 😀 wobei ich das mal sehr bezweifeln würde ;).
-
19. Februar 2014 um 11:02 Uhr #944034xfn99Teilnehmer
Hä ich verstehe dich gerade nicht ganz . Was soll Intel Sponsern ?
-
19. Februar 2014 um 12:02 Uhr #944036xfn99Teilnehmer
Frag doch mal an 😉 vielleicht setzen sie ja ihre 200€(oder wie viel auch immer) Produktionskosten :DWobei der für 8Sockel Systeme unnötig wäre. http://www.intel.de/content/www/de/de/processor-comparison/processor-specifications.html?proc=75242 der sollte es auch tun.
-
19. Februar 2014 um 12:02 Uhr #944035ThaRippaAdministrator
Nen E7-8890.
-
19. Februar 2014 um 18:02 Uhr #944038VTG01Teilnehmer
naja, ich denke mal das ist definitiv eine Hausnummer zu gross. Abwärme von 155 Watt für die CPU und sicherlich noch einmal so viel für das Board samt den 24 Speicherriegeln ist sicher eine nette und laute Heizung für ein Einfamilienhaus. Das Ganze mal 4 ist mit normalen Mitteln sicher nicht zu bändigen.Mit ein paar Grakas bist du dann so um die 2kW Leistungsaufnahme = Heizung. Da kauf ich mir lieber noch 9 Blades Type i7 3770 und bastle ein 2. Gehäuse dazu. Sind zwar nur 72 Kerne aber auch nur 400Watt bei 3,3 Ghz. …und kosten tut das sicher keine $ 6.500 – wie der eine Prozzi.
-
22. Februar 2014 um 23:02 Uhr #944073downhillschrottTeilnehmer
Hallo liebe Leute,
war schon lange nicht mehr im Meisterkühler Forum, und habe jetzt über BOINC wieder hergefunden. 😉
Mir gefällt euer Projekt. Ich will euch aber jetzt nicht desillusionieren, aber ich fasse mal die Anforderungen des Threads zusammen:
– sinnvolle Projekte
– Kosten möglichst gering
– Stromverbrauch möglichst gering
– Know-How möglichst hoch (die reichen Kids sollen es nicht einfach nachbauen können) 😉
– Top TenDann gibts es mal folgende Tatsachen: Um bei den Top 10 mitzumischen reden wir von >10Mio credits/d. Wenn ich mal jetzt kurz hochrechne: Meine 2 Intel WS mit Nvidia Quadro K4000 und AMD FirePro V4900 machen zusammen knapp 38k/d mit Einstein. K4000+V4900 haben rund 1500+750 GFLOPS = 2250, sagen wir 2500 GFLOPS gesamt. Also rund 15,2 Credits/GFLOP.
Jetzt rechne ich mal hoch: 10Mio Credits / 15,2 = 65800 GFLOPS.
Eine GTX 780Ti macht 5000 GFLOPS. Also werden rund 13 GTX Ti benötigt um da mitzumischen.Also mit einem Projekt wie Einstein@home braucht man mehr als 13 GTX Ti.
Variante 1: Da fällt mir eure Idee mit dem Turm ein.
5 ATX Mainboards so als 5-Eck aufgestellt, dass die Karten eine vertikale Luftstömung ermöglichen. Pro Mobo 4 Dual Slot Karten. Ich nehme an, dass PCIe2.0 x4 pro Karte ausreicht, d.h. man kommt mit einer Haswell i7 pro 4 GTX Ti aus (mit PCIe Switch). Pro Einheit werden da wohl 1,3kW verbraten werden (ohne Optimierung). Dh. das gesamte Rig dann 6,5kW. Das ist mit 2 Ventilatoren (230V) oben und unten imho machbar.
Eigenbauanteil und KnowHow: Beides recht hoch.
Kosten: Pro Einheit wohl um die EUR4k, also das Gesamte Rig EUR 20k.Variante 2: 19″ Rack
Ein 19″ 4HE Servergehäuse kann in einem Board 7-8 Grakas aufnehmen. Theoretisch ist die Kühlung auch nciht schlecht, weil die in der itte ja Platz für ausreichen Lüfter haben. Aber: Die 7-8 Slots auf einem Serverboard sind für Single Slot Karten. D.h. man müßte die DualSlot Karten abräumen und Custom Kühler mit WaKü machen.
Von so einem Rig bräuchte man dann mind. 2 Stk.
Eigenbauanteil und KnowHow auch recht brauchbar. Sicher nix für Kids mit dicker Kreditkarte von den Eltern.
Kosten: Ca EUR 8k pro Einheit also rund EUR 16k für 2 19″ Racks.Apropos: “Ein 14jährigeR mit der Brieftasche des VATERS” .. das ist a bisserl diskriminierend, könnte ja auch die Tocher mit der KK der Mutter. 😉 😀 😀
Wie auch immer:
1) Ihr müßt ordentlich Kohle in die Hand nehmen. Wenn ihr GPUGrid rechnen laßt, dann kriegt ihr evtl. mehr Credits/GFLOP. Wenn ihr euren sehr ehrenwerten Vorsatz beibehalten möchtet an möglichst sinnvollen bzw. von euch ausgewählten Projekten teilzunehmen, die dann aber evtl. weniger Credits/GFLOP abrechnen, dann braucht ihr noch mehr Kohle.
2) Mit PC Gehäuse welcher Art auch immer nicht machbar.
3) Für 6kW braucht ihr schon 27A auf der 220V Leitung. Das bedeutet 6² Zuleitung und entsprechende Absicherung.
4) Ich kenne keinen Keller in einem normalen Häuschen der bei einer Heizleistung von mehr als 6kW nicht brennheiß wird. Dh. die Umgebungsluft/der Raum muß irgendwie gekühlt werden, sei es durch Außenluft oder eine leistungsfähige Klimaanlage. –> Noch mehr Stromkosten.Wenn ich so viel Kohle zum Verbrennen hätte würde ich euren Turm als 5 oder 6-Eck realisieren und das ganze 2x und stapeln. 😉 Rack ist fad. Dann würde ich damit den Wasserspeicher vom Haus heizen, dann das Swimmingpool (das ich dann hätte) usw. 😉 Leider hab ich das nicht.
Wenn nicht einer von euch im Lotto gewinnt, befürchte ich ihr müßt eure Top Ten Ambitionen begraben. Nichtsdestotrotz finde ich das ein schönes Projekt und hoffe ihr realisiert das in irgendeiner Art und Weise.
-
23. Februar 2014 um 1:02 Uhr #944076downhillschrottTeilnehmer
Wie kommst du auf 6,5 KW?
Weil du nicht alles gelesen hast: Den Tower als 5-Eck mit 5 ATX Board á 4 Dual Slot Karten zB Radeon R9 290X oder GTX 780 Ti = 20x~250W + 4 CPUs + 4 Boards + Kleinzeug. 13 Stk der Karten sind ja Minimalanforderung. Mit 10Mio Credit/d kann man es in die Top Ten schaffen. Vielleicht, die anderen sind auch nicht gerade träge. 😉 Mit 16 kleinen Karten kannst Top Ten vergessen, außer du baust mehrere solcher Rigs.
16 kleinere und billigere und zwar auf einem Board (über PCI-E-Riser)
Ist bei GFLOPs/EUR aber im Endeffekt durch die ganzen Nebengeräusche imho teurer als “dicke” Karten. GFLOPs/Watt müßte man ansehen.Nochmals: finde das Projekt toll egal ob mit Topkarten oder kleineren. Aber Top Ten wird sich nicht ausgehen außer man haut voll rein –> Kosten.
-
23. Februar 2014 um 1:02 Uhr #944075DarknessTeilnehmer
downhillschrott;514902 said:
2) Mit PC Gehäuse welcher Art auch immer nicht machbar.Da ist wohl Eigeninitiative angesagt :)Es soll ja “nur” ein Board + 16 GPU´s + mehrere Netzteile rein. Das sollte man in ein großes Gehäuse schon unterbringen könnnen, aber die Tendenz wird wohl in Richtung großes 19 Rack Gehäuse (z.b. http://www.3dcenter.org/dateien/abbildungen/Radeon-GPU-Cluster.jpg ) oder rießiger Cube, wie das Case-Lab TX10-D (rechts) gehen
downhillschrott;514902 said:
3) Für 6kW braucht ihr schon 27A auf der 220V Leitung. Das bedeutet 6² Zuleitung und entsprechende Absicherung.6 mm2 mit 35A Absicherung sind immerhin satte 7,7Kw bei 230V Sollte also halbwegs ausreichen 😀
downhillschrott;514902 said:
Eine GTX 780Ti macht 5000 GFLOPS. Also werden rund 13 GTX Ti benötigt um da mitzumischen.Es werden aber vermutlich keine 13 GTX 780 Tis (einfach zu teuer) sondern z.b. 16 kleinere und billigere und zwar auf einem Board (über PCI-E-Riser)
downhillschrott;514902 said:
Rig dann 6,5kW. Das ist mit 2 Ventilatoren (230V) oben und unten imho machbar.Wie kommst du auf 6,5 KW?13x ca. 250W für GPU`s 3,25KW +CPU;HDD;MB;etc sagen wir mal 150-200W, macht dann also im Extremfall überschlagen 3,5KW :+Da sollte ein 3×1,5mm2 (lieber 3×2,5mm2) mit B16A Automaten eig. noch ausreichen.Aber insgesamt hast du schon recht, allerdings denke ich , das am Schluss entweder weniger teure Grafikkarten oder eben mehr billigere Grafikkarten zum Einsatz kommen.
-
23. Februar 2014 um 10:02 Uhr #944079ulvTeilnehmer
Ähm, wir sind schon in den Top-10, zumindest in Deutschland. -> Ist das etwa nix?
http://boincstats.com/en/stats/-1/team/list/0/0/Germany#8Auch International sind wir in der 2. Liga von Formula Boinc zumindest in der Nähe von Platz 10. (Aktuell Platz 12)
http://formula-boinc.org/index.py?year=2014&lang=deDas Problem ist eigentlich nicht so sehr das Geld, sondern dass wir sehr viele (>10) ältere aber durchaus noch brauchbare Grakas rumliegen haben, die momentan nicht mitrechnen können. Bei Bit-Coin-Krisen fallen die reihenweise günstig auch bei eBay an.
Problematisch ist vielmehr, dass so ein Case-Mod, so viel Spaß er auch machen würde, bei dem runden Entwurf leider extrem zeitaufwendig ist. Das haben wir schmerzlich aus dem E=mk²-Projekt gelernt.Einzige Möglichkeit sehe ich momentan den “runden” Rechner im PC zu entwerfen und dann in z.B. 16 oder mehr symmetrische Teile (Kuchenstücke) zu zerteilen – so ähnlich wie Lego nur stabiler – und sie via 3D-Druck z.B. aus ABS-Kunststoff zu bestellen. Man könnte dabei auch einen Metallring oder Metallstreben mit einarbeiten.
Die Kuchenstücke würden dann das Gerüst bilden und gleichzeitig die PCIe-Ports des Splitters und die Grakas festhalten, würden Kabelkanäle für Graka-Strom etc. enthalten. So eine coole Klick-in-Lösung würde mir gefallen, wo man in 1 Minute Grakas wechslen kann. *verträumt*
Vermutlich müssten es mehr als nur 16 Stücke sein => 2 oder gar 3 mal 16? Wer bitte soll ca. 50 Stücke (Innenteil, Lüfterbefestigung) in der geforderten Genauigkeit mit der Hand feilen?Da das Projekt ja klein anfangen würde und erst nach und nach ITX- Boards, Splitter und Grakas dazu kämen – würde das schon gehen, wenn die Basis erst mal stehen würde!
Ah, ja da war noch ein Problem: Im Moment ist uns kein aktuelles Intel-ITX-Board bekannt, das den PCIe-Splitter unterstützt. Man müsste daher also momentan mit einem etwas älterem AMD-Board leben.
Zum Stromverbrauch: Ein bzw. höchstens zwei ATX-Platinum mit 1500W müssen reichen. Extrem Stromhungrige Karten kommen schon wegen den Strompreisen (Credits/Watt) nicht in Frage. (Bit-Coin-Rückläufer, die ursprünglich schon per Coins/Watt ausgewählt wurden wären auch von daher optimal.)
-
23. Februar 2014 um 12:02 Uhr #944086Christoph!Administrator
littledevil;514914 said:
Ungünstig ist das Temperatur-Niveau zur Kühlung.
Mit sehr kleiner Hochtemperatur-Wärmepumpe dazwischen könnte man von 30-40°C auf für Brauchwasser verwertbare 60-70°C kommen.Mit 30-40°C sollte man doch ne moderne Fussbodenheizung betreiben können oder? Hat jemand nen Swimmingpool? 😉
-
23. Februar 2014 um 12:02 Uhr #944085littledevilTeilnehmer
Das mit der Stromanbindung ist wohl das kleinste Problem.Ungünstig ist das Temperatur-Niveau zur Kühlung.Mit sehr kleiner Hochtemperatur-Wärmepumpe dazwischen könnte man von 30-40°C auf für Brauchwasser verwertbare 60-70°C kommen.Habe da auch schon einen Anwendungsfall im Auge, aber erstmal müssen Daten erfaßt werden, um den Bedarf fest zu stellen und zu schauen, ob sich da lohnt. Gerade im Sommer wäre es ja weniger schön, sinnlos massig Warme Abluft zu erzeugen.Kostenfaktor sind natürlich die Wasserkühler, aber wenn man GPU only macht, sollte das noch überschaubar sein.
-
23. Februar 2014 um 20:02 Uhr #944104xfn99Teilnehmer
Naja das mit der 750ti sehe ich recht kritisch da die ihren Strom wohl über das Mainboard holt. (Verbessert mich wenn ich falsch liege) von der Leistung in Boinc weiß ich nichts.
-
23. Februar 2014 um 20:02 Uhr #940763downhillschrottTeilnehmer
wir sind schon in den Top-10
Sorry, dann hab ich das einfach falsch verstanden. Ich habe gelesen “Top Ten tauglich” und dachte, das soll mit diesem EINEM Rig erfolgen. Wenn das nicht so ist, dann schaut die Sache natürlich ganz anders aus. Damit sind meine Überlegungen von oben komplett hinfällig.ad Fertigung: Ajaa… gut ich bin Maschinenbauer, ich tät das einfach aus verzinktem Blech oder Alu biegen, schweißen, nieten, kleben.. und Einzelteile mit enstsprechenden Stückzahlen laß ich für ein paar Eur irgendwo fertigen. Da stell ich mich nicht selber in den Keller außer mir gehts um den Spaß. 😉 Wobei, wenn ich bedenke für die selbst gebaute Außenstiege aus Stahl neben dem Haus habe ich mehrere Einzelteile mit Stückzahlen von >70Stk selbst gefertigt. :p Aber so eine Blödheit macht man nur einmal. :DGenauigkeit? Was für Toleranzen werden da bitte benötigt? Da ist doch eh nix besonderes dran. Das ganze muß nur irgendwie zusammen passen.Wenn GFLOPs/W wichtiger sind als brachiale Leistung und GFLOPs/Eur dann ist die Sache mit dem Splitter natürlich besser als Einzelboards – keine Frage. Dann muß am Board aber eine CPU stecken die alle Karten auch versorgen kann. Aber wie schon erwähnt: Stromhungrig muß nicht unbedingt gleichbedeutend mit ineffizient sein.Apropos GFOPs/W: wie schauts eigentlich mit Maxwell aus? Testet die wer aus? Weil am Papier müßte die 750 Ti der 650 Ti leistungsmäßig doch unterlegen sein, und ob das wirklich stromsparender ist?
-
23. Februar 2014 um 21:02 Uhr #944107downhillschrottTeilnehmer
Das ist richtig, die 750Ti scheint keinen externen Stromstecker zu haben. Hab mir gerade ein paar Bilder der üblichen verdächtigen Hersteller angesehen.Gibt es eigentlich für GPUs eine verläßliche Quelle/Liste was Performance/Watt angeht?
-
23. Februar 2014 um 21:02 Uhr #944108xfn99Teilnehmer
Naja performance/Watt =im Normalfall Gflops/Watt. Du suchst die Rechenleistung in Gflops und Teilst sie dann durch den Verbrauch in Watt . Dann bekommst du Gflops/Watt was der Performance/Watt entsprechen sollte.
-
23. Februar 2014 um 21:02 Uhr #944109downhillschrottTeilnehmer
So mache ich es eh. Aber die Werte sind ja nicht verläßlich. ZB 650Ti vs. 750Ti steht im Datenblatt:650Ti 1420 GFLOPs (single) 115W –> 12,9GFLOPs/W750Ti 1322 GFLOPs (single) 60W –> 18,89GFOLPs/Wovervlockers.at hat die 750Ti gegen die 650Ti im 3DMark11 gemessen und das Gesamtsystem war mit der 750Ti mit 161/156W gerade mal um 5W sparsamer. Beide Grakas allerdings Custom Design.Neuer gemessener Wert 750Ti: 1322/110(?) –> 12GFLOPS/W Das wäre ein Rückschritt gegenüber der 650Ti wenn es wahr ist.
-
23. Februar 2014 um 22:02 Uhr #944110xfn99Teilnehmer
Ich denke die 650ti wird nie im Leben 115Watt verbrauchen. Da sollte mal jemand testen was die wirklich durchlässt.
-
24. Februar 2014 um 15:02 Uhr #944115downhillschrottTeilnehmer
ad 650Ti: Diese/nächste Woche kriege ich eine zum Testen, dann häng ich sie mal in meinen grakalosen Compi. Muß mir nur ein Strommeßgerät zulegen.
Ich habe irgendwo gelesen – leider finde ich den Link nicht mehr – dass Boinc max. 8 GPUs rechnen lassen kann. Blödsinn oder real?
Anbei eine Zusammenstellung von ein paar Karten – Tabelle im ods Format. Vielleicht kanns wer brauchen. Wenn die techn. Daten stimmen (??), ist die dickste AMD die effizienteste (GFLOPs/W). Mal sehen wie sich Maxwell entwickelt.
-
24. Februar 2014 um 15:02 Uhr #944116xfn99Teilnehmer
Das AMD das beste Gflops/Watt Verhältnisse hat ist kein Geheimniss. Generell ist nvidia (ausgenommen einiger Ausnahmen) von der Rechenleistung AMD eigentlich immer hinterher. Die gtx780ti ist allerdings näher an die r9 290x ran gekommen als die 680 an die 7970 damals.
-
24. Februar 2014 um 17:02 Uhr #944121JabbaTeilnehmer
Bringt Dir nur nix, wenn Dein Projekt nur eine von beiden Grakas unterstützt.Alles wäre wenn und aber.Siehe bspw. GPUGrid -> Nvidia only. Da kann man nix vergleichen.Selbst bei Projekten, die beide kartenhersteller unterstützen ist es nur eine Momentaufnahme. Neuer Treiber, neues Glück; oder ein Entwickler setzt sich hin und optimiert mal eben die App.Für mich gibts nur AMD, aber das hat andere Gründe, bin deswegen kein Fanboy.
-
24. Februar 2014 um 19:02 Uhr #944124littledevilTeilnehmer
Christoph!;514915 said:
Mit 30-40°C sollte man doch ne moderne Fussbodenheizung betreiben können oder?Für die Winter und Übergangszeit sicher eine Option, aber im Sommer möchte man ja nicht heizen.
-
24. Februar 2014 um 20:02 Uhr #944126littledevilTeilnehmer
Habe ja eh schon vorgeschlagen im besagten Objekt ein Spa-Bereich aufzubauen. Da würde sich das auch im Sommer gut machen 😆
-
24. Februar 2014 um 20:02 Uhr #944125Christoph!Administrator
littledevil;514956 said:
Christoph!;514915 said:
Mit 30-40°C sollte man doch ne moderne Fussbodenheizung betreiben können oder?Für die Winter und Übergangszeit sicher eine Option, aber im Sommer möchte man ja nicht heizen.
Darum hab ich ja auch gefragt
Hat jemand nen Swimmingpool? 😉
Mir ist schon klar dass die Kühlung bei so großer Leistungsabgabe gerade im Sommer das große Problem ist.
-
25. Februar 2014 um 22:02 Uhr #944171Neo111430Teilnehmer
:-k:-k Jungs. War hier nicht original Thema Titel
“Der Super-Boinc-Rechner mit 16 Grafikkarten” ❓
Sry, lese hier gerne und bin auch bereit etwas beizutragen, langsam mutiert das hier zum etwss völlig anderen. Ist nicht erst mal sinnvoll sich Gedanken zu machen über Boinc Rechner und erst dann “Was wäre wenn”
Lg Miro ;):+
-
26. Februar 2014 um 7:02 Uhr #944187Obi WanAdministrator
Neo111430;515007 said:
:-k:-k Jungs. War hier nicht original Thema Titel“Der Super-Boinc-Rechner mit 16 Grafikkarten” ❓
Sry, lese hier gerne und bin auch bereit etwas beizutragen, langsam mutiert das hier zum etwss völlig anderen. Ist nicht erst mal sinnvoll sich Gedanken zu machen über Boinc Rechner und erst dann “Was wäre wenn”
Lg Miro ;):+
danke für den Hinweis.
Ich hab das Thema verschoben:➡ http://www.meisterkuehler.de/forum/boinc-meisterkuehler-de-team/34996-energiewende-thread.html
@ ALL
bitte back to Topic
➡ [SIZE=”5″]”Der Super-Boinc-Rechner mit 16 Grafikkarten” :?:[/SIZE]
-
4. März 2014 um 16:03 Uhr #944362ThaRippaAdministrator
Das unterschreibe ich mal direkt. Aber die CPU-Projekte versinken leider in der Bedeutungslosigkeit, da viele Projekte auf Grafikkarten einfach viel schneller abgearbeitet werden können, und schnelle CPUs bei vielen Gelegenheits-BOINCern herumstehen.
-
4. März 2014 um 16:03 Uhr #944360downhillschrottTeilnehmer
Wenn ich mir ansehe welche Performanceunterschiede zwischen den Herstellern AMD und Nvidia bei einzelnen Projekten liegen, muß man sich genau überlegen:- Welche Projekte (derzeit) welche Grafikkarte besonders gut unterstützen- Welches OS+Treiber die beste Performance herausholt- Welche Taktrate + Spannung dann noch die meisten Credits/W ergeben – soweit in der Graka/OS/Treiber Kombination das überhaupt einstellbar ist.Der Rest ist dann lustige Schrauberei.Aber irgendwie finde ich – bedingt durch die Abhängigkeit von den Optimierungen der Projekte – die Herausfordung eines Boinc GPU Rechners nicht mehr so prickelnd wie den eines CPU wie zb den EMK2.
-
4. März 2014 um 16:03 Uhr #944365JabbaTeilnehmer
Dennoch: die Liste sinnvoller GPU Projekte ist reichlich überschaubar und dient zumeist nur zum Credithuren.
-
4. März 2014 um 17:03 Uhr #944367ThaRippaAdministrator
Warum geben die Projekte eigentlich so viele Credits? DistRTgen z.B. und mMn. auch Primegrid bringen ja nur zweifelhaften Nutzen.Vielleicht sollten wir das mit den Grafikkarten doch canceln und einen EMK3 auf CPU-Basis bauen. Mit sparsamen Xeon E3 oder so.
-
5. März 2014 um 18:03 Uhr #944399downhillschrottTeilnehmer
Naja, ein reiner CPU EMK3 wäre “nur” eine Modernisierung des EMK2. Auf 1150 Basis könnte man Thin-ITX Boards nehmen, benötigt man nur ein großes Netzteil mit einer Spannung und fertig. Ob Xeon oder i7 wäre egal, beide haben dann aber nur max. 4 echte Kerne (8 Threads) pro Board.Das ist für unsere EMK2 Bastler keine Herausforderung. 😉 :)GPU könnt man mittels 90° Riser auf (Thin-) ITX Boards stecken. Dann hätte man auch so etwas wie Blades.. :p Edith meint: dann braucht man erst recht wieder 12V für die Grakas.
-
5. März 2014 um 19:03 Uhr #944402ThaRippaAdministrator
Herausforderung hin oder her, die Frage ist ja auch ob man mit den gefühlten 5k€ einen fühlbareren Schlagkraftgewinn in den Turnieren erreichen kann. Weiß ich ja nicht, deswegen frage ich.
-
5. März 2014 um 21:03 Uhr #944403downhillschrottTeilnehmer
Ich kenne mich bei turnieren nicht aus. Wenn ich mir aber meine Rechner ansehe, wo eine durchschnittsgrafikkarte wie die GTX650Ti einen Intel Sandy Bridge 4-Kerner @4,5GHz um das 4-5fache bei den Credits übertrifft, dann sind CPUs zum Credits sammeln nur als Zufütterer von GPUs sinnvoll.Und wenn das Projekt mit dem Treiber mit der OpenCL Version mit dem OS gut mit der GPU zusammen spielt, ist noch viel mehr drin. :p Collatz bringt mit 3 Stk optimierten AMD 6970 angeblich 1Mio Credits pro Tag. (Quelle: usa.lanex.com)
-
5. März 2014 um 21:03 Uhr #944404VTG01Teilnehmer
Also beim MK-Treffen letztes WE wurde auch ein bisserl darüber nachgedacht, GPU ist zwar relativ schnell gebastelt aber sowohl Stromverbrauch, Abwärme und vorallem die Betriebskosten sind ein Haken. Einen Blade mit 8 Hochleistungskarten kannst du mit Luft nicht mehr bändigen – und den Strom kannst du dir kaum leisten. Ausserdem sind solche Dinger dann meist für ein Projekt optimiert. Wenn das aus ist oder ein paar Tage Pause macht steht das Ding (gut für die Stromkosten).Ich denke nicht dass ein EMK³ die Dimension eines EMK² errecihen soll sondern für den “Otto-Normalcruncher” leistbar sein muß. Sprich zwischen 300 – 400Watt Dauerleistung ist sicher ein Limit. In i7 Blades bist du dann auch schon mal bei 6-9 Stück. Also nichts das man verachten kann. Mit dem Ding rechnest du schon mal weit vorne mit. Wenn du die Stromleistung in eine Graka Maschine steckst schaut das nicht mehr wirklich gut aus.
-
5. März 2014 um 22:03 Uhr #944406downhillschrottTeilnehmer
Das sehe ich eben nicht so. Ein i7/Xeon hat bei 80W TDP ein Fünftel der Credits/Tag wie mit einer Graka mit 100W TDP. Also imho ist Credits/W bei der GPU besser aber eben die Projekte an einer Hand abzuzählen.. und da sind wir wieder bei der Frage: Credithure oder Boincsupporter?Das ein Blade mit 8 Grakas nicht mehr mit Luft zu bändigen ist, ist ja auch klar. Aber die Rechenleistung auf dem Raum ist mit CPU auch nicht machbar.
-
6. März 2014 um 9:03 Uhr #944410konfettiTeilnehmer
Das Problem ist aber, das beim Pentathlon z.B. nur eine Disziplin in GPU gerechnet wird, höchstens 2, das wars aber auch schon.vlt. kommt der Tag, wo es auch so ASICs für Boinc gibt, so wie bei den Minern… – dann hat alles andere eh ausgediehnt, aber der Vorteil aktuell ist ja, die große Vielfallt an Maschinen und auch die Möglichen Befehlsätze der CPUs gegenüber denen von GPUs – immer ganz nach Aufgabe…
-
6. März 2014 um 9:03 Uhr #944411JabbaTeilnehmer
Der Vergleich des 80W Xeons hinkt etwas.Aktuell läuft bspw. jedes Blade bei VTG mit unter 50W. Die zum Vergleich herangezogene Graka aber eher mit mindestens 100W.Da sieht die Energiebilanz nicht mehr so schlecht aus.Die Sinnhaftigkeit der meisten GPU Projekte habe ich ja bereits in Frage gestellt.Wenn wir wirklich etwas in Sachen GPU Crunchen fürs Team reißen wollen sollte jeder eine dickere Graka bei sich stecken.Das verteilt die Stromkosten, die wirklich erheblich sind. Außerdem kommt nicht permanent das Wärmeproblem zum Tragen.Letzteres ist selbst in normalerweise kühlen Kellern erheblich. Ich hatte in meinem Keller zu Pentathlonzeiten bereits Temperaturen jenseits der 30° (4 geöffnete Fenster, 35qm, 2KW Dauerlast).Sollte jemand eine ungenutzte(!) Stromflat haben, würde ich mein Miningwissen für einen entsprechenden Cruncher zur Verfügung stellen.GrußJabba
-
6. März 2014 um 21:03 Uhr #944427JabbaTeilnehmer
also wenns Dir nur ums Credithuren geht gibts auch andere CPU Projekte mit entsprechenden Optimierungen bzgl. der zu rechnenden WUs. Da geht dann auch deutlich mehr als bei den Standardprojekten.Wenn Du natürlich die dicken Grakas hinzuziehst sieht das anders aus. Dann nimm bitte aber auch keinen i7 sondern nen E5 oder einen Opteron mit 12+ Kernen als Vergleich.Tendenziell gehen wirklich mehr Punkte bei der Graka her, gar kein Thema. Nur: die Sinnhaftigkeit dieser Projekte (bspw. Collatz, Prime) stelle ich weit hinter beinahe jede CPU Anwendung. Selbst habe ich Collatz auch nur aus Verlegenheit gerechnet und weils eben Punkte gab. Überzeugt bin ich davon nicht.
-
6. März 2014 um 21:03 Uhr #944426downhillschrottTeilnehmer
Der Vergleich des 80W Xeons hinkt etwas.Aktuell läuft bspw. jedes Blade bei VTG mit unter 50W. Die zum Vergleich herangezogene Graka aber eher mit mindestens 100W.Da sieht die Energiebilanz nicht mehr so schlecht aus.
Da stimme ich überhaupt nicht zu.Ein Beispiel: Ein i7-2700@3,5GHz mit Projekten wie Simap, Einstein, Rosetta, Malariacontrol errechnet ca. 2000-2500 Credits pro Tag laut BAM. Dabei verbraucht er rund 50W. Der gleiche Rechner mit einer GTX650Ti macht 12-15.000 credits pro Tag, die Graka macht also rund 10.000. Das ist mind. das 4-fache. Den aktuellen Verbrauch der GPU kenne ich nicht aber der i7 hat eine TDP von 95W die Graka 100W. Wenn die Kühlung für die 100W ausgelegt sind, dann benötigt die das nie, da die GPU nie über 60°C kommt. Nehmen wir für den i7 die günstgen 50W und für die Graka die TDP, dann errechnet die Graka beim gleichen Stromkonsum mind. doppelt so viele Credits. Ohne Optimierungen. Das verbessert sich noch bei dickeren Karten – je nach Projekt.Vielleicht habe ich da einen Denkfehler, aber wenn es um Credits/W geht sind GPUs imho besser als CPUs. Natürlich muß man sich dann die Projekte genau aussuchen und wenn man Spitzenwerte will OS, Treiber etc wie schon erwähnt abstimmen. Klar verbraucht das System pro Board absolut mehr W (klar), aber weniger als wenn ich die gleiche Rechenleistung in CPUs realisieren würde.Ich lerne gerne dazu – bitte um Berichtigung wenn ich falsch liege.
-
6. März 2014 um 22:03 Uhr #944428littledevilTeilnehmer
prinzipiell könnte man sinnhafte GPU-Projekte anbieten, aber leider gibt es diese gerade nicht.
Möglichst effizient das Flasche zu tun ist auch nicht gerade effektiv 😀
-
6. März 2014 um 22:03 Uhr #944429downhillschrottTeilnehmer
Credithuren: Auf der einen Seite wird hier über Turniere diskutiert, auf der anderen Seite sollen nur “sinnvolle” Projekte unterstützt werden. Das paßt nicht zusammen.1. Entweder gehts um Punkte oder eben nicht.2. Wer entscheidet was sinnvoll ist oder nicht? Das kann nur jeder für sich selbst machen. Für den einen sind Proteinfaltungen wichtig, der andere verliert sich in Rainbow Tables und der nächste glaubt fest an eine Kommunikation mit E.T.Wenn es nicht (auch) um Punkte geht, benötigt man keinen Super Boinc Rechner mit 16 GPUs. Dann modernisiert man besser den EMK2 und verkleinert das ganze – wie oben von VTG01 erwähnt.Ein E5 oder Opteron 12 Kerner hat gegen GPUs auch keine Chance weder absolut noch in Credits/W. Was macht ein E7-8895 v2 anders als ein Haswell QuadCore? Ca. 3-fache Performance bei 155W TDP und ein fettes Board -> noch mehr Strom. Das schlägt sogar eine 650Ti, eine 680Ti lacht darüber nur.Nö, also wenns um Credithuren geht dann GPU. Ansonsten ist ein EMK3 sicherlich ein schöner Aufbau. Ich täts kombinieren: Auf jedes ITX Board mit einem Haswell i7/Xeon eine GPU. Das läßt sich auch schön in “Blades” organisieren umd fremd belüften. Genauso wie man die Boards optimiert müßte man auch die GPU handhaben sprich Spannung und Taktrate anpassen.
-
6. März 2014 um 23:03 Uhr #944430JabbaTeilnehmer
Turniere ungleich CredithurenDa gehts um Taktik, Disziplin und Teamgeist.Das Thema mit 16 GPUs ist ziemlich durch. Stromverbrauch und die damit einhergehende Abwärme dürfte sich keiner ans Bein binden wollen.Und nur um in einem oder zwei GPU-Projekten gut dazustehen lohnt sich aktuell kein reiner GPU-Cruncher. Da stell ich ggf. mal einen Miner zur Verfügung und gut ist.
-
7. März 2014 um 9:03 Uhr #944431konfettiTeilnehmer
Also grad wenn man den Pentathlon anschaut, wird da durchaus bei diesen Turnieren geschaut, das man nicht Projekte mit möglichst vielen Credits pusht, sondern Projekte, die auch einen Sinn haben. Genauso wie manch andere Chalenges – man muss auch nicht bei jeder mit machen!
-
7. März 2014 um 11:03 Uhr #944436downhillschrottTeilnehmer
ad Turniere: wie schon erwähnt, da kenne ich mich nicht aus. Wenn Rechenleistung nicht so zählt, dann ist was was anderes.ad 16GPUs: 16 Stk sicher nicht, aber einen EMK2 stellt sich auch so leicht niemand ins Haus.ad MIner: Der wird vermutlich auf AMD Radeon basieren. Ein Boinc Cruncher sollte ein Linux OS haben. Ohne Hand anzulegen ist die Performance unter Boinc mehr als mies. Es soll zwar Linux Geeks geben die für nvidia nur F Wörter verwenden 😉 aber die Treiber von AMD für Linux sind imho immer noch unter aller Sau obwohl schon viel besser als noch vor Jahren. Relativ sorgenfrei out-of-the-box funkt nur nvidia mit dem proprietären Treiber.ad EMK3: Ich persönlich finde zB Einstein und MilkyWay sinnvoll – die gefallen mir einfach. Beide unterstützen GPUs. Also mir wäre ein Boinc Cruncher “für den Heimgebrauch” wie von VTG01 beschrieben auf reiner CPU Basis zu wenig sinnvoll.Genauso wie ein EMK2 “für den Heimgebrauch” zu groß wäre ist natürlich ein Rack mit 16 oder auch 8 GPUs zu groß. Man sollte schon eher unter 1kW bleiben, das wären dann max. ~4 optimierte CPU + GPU Einheiten mit dicken Karten oder 8 Blades mit Mittelklasse GPU (wie performt jetzt eigentlich Maxwell?) oder nur jedes zweite mit GPU bestückt – je nachdem.Irgendeine Performancemessung pro verbrannter Energie muß man hernehmen sonst kann man Komponenten nicht vergleichen. Ob das jetzt Credit/W oder was auch immer ist. Am Ende sollten so viele WU pro W rauskommen wie möglich, sonst ist die ganze schöne Überlegung doch sinnlos.
-
10. März 2014 um 9:03 Uhr #944482ThaRippaAdministrator
Hast du da mal nen Link?
-
10. März 2014 um 9:03 Uhr #944480downhillschrottTeilnehmer
Evtl interessant: Für den i7-4470R gibts jetzt auch einen Barebone von Gigabyte. Evtl. kommt da ein Mainboard nach? Das wäre doch brauchbar für einen Boinc Cruncher, weil i7 + Iris 5200 die ja auch für Boinc rechnen kann, ist imho eine effiziente Variante. CPU direkt am Board verlötet macht das ganze sehr kompakt.
-
10. März 2014 um 10:03 Uhr #944483downhillschrottTeilnehmer
Gigabyte Brix: http://www.anandtech.com/show/7648/gigabyte-brix-proDer Barebone ist überteuert und hat Probleme mit der Kühlung und man kriegt das Board (noch) nicht einzeln.Auch interessant: Der Atom C2750. Die halbe Performance wie ein Xeon E3-1230 V3 aber bei einem Drittel des Stromverbrauchs. Leider sehr teuer. Beispiel: http://geizhals.at/de/supermicro-a1sai-2750f-retail-mbd-a1sai-2750f-o-a1014061.html
-
10. März 2014 um 10:03 Uhr #944485ThaRippaAdministrator
Meh, der is ja riesig verglichen mit normalen NUC/Brix.Das Atom-Teil ist eindeutig nicht für uns Consumer gedacht. Und wenn ich die hälfte der Leistung eines 1230v3 will, kaufe ich einen Core i3 und undervolte den ein wenig. Oder nen NUC. Reicht auch.Edit: dein Post hing im Spamfilter, daher hast du doppelgepostet.
-
10. März 2014 um 10:03 Uhr #944484downhillschrottTeilnehmer
Gigabyte Brix mit intel i7-4770R: http://www.anandtech.com/show/7648/gigabyte-brix-proEvtl. auch interessant: Der Atom C2750 8-Kerner. Halbe Performance eines Xeon E3-1230 V3 bei einem Drittel des Stromverbrauchs. Teuer ist es halt. Bsp: http://geizhals.at/de/supermicro-a1sai-2750f-retail-mbd-a1sai-2750f-o-a1014061.html
-
10. März 2014 um 11:03 Uhr #944487downhillschrottTeilnehmer
ad Brix: Klar, der Barebone ist nix. Ging ja nur ums Board. Wenn man das einzeln zu einem brauchbaren Preis bekommen könnte, wäre das imho eine gute Basis für einen EMK3.Wenn man den EMK2 hernimmt, da habt ihr geschätzte 42GFlops @ 50W pro Board. Der i7-4770R macht ohne GPU glaube ich 170? (4-fache) bei einer Gesamtaufnahme eines Systems von ich glaube 65W TDP + 10W fü Boinc+Board, Wenn man den undervolted seit ihr sicherlich bei der dreifachen Performance bei gleichem Verbrauch. Da könnte man die Anzahl der Boards dritteln oder halbieren, also statt 13 gingen sich sicher 4-6 aus.Dann kommt noch die Rechenleistung (des 5ten Kerns 😉 ) der GPU dazu.
Der Vorteil des i7-4770R gegenüber einem i7/K:- aufgelötet -> kompakter- leistungsfähigere GPU (5200 statt 4600) ad Atom: Klar ist das nix für Consumer. Ein EMK3 aber auch nicht. 😉 Mit dem i3 und undervolten hast aber sicher recht wobei 20W für das Ding finde ich schon eine Ansage.ad Spamfilter: Ist mir erst aufgefallen, als ich den zweiten schon abgesendet hatte. Dachte ich hätte versehentlich den Browser geschlossen, bevor ich auf Antworten geklickt habe. :p -
10. März 2014 um 14:03 Uhr #944490konfettiTeilnehmer
Naja, das Atom-Board von SM ist eher was für Storage-System 😉 – den gibts ja auch als Octacore – und von Asrock mit gleich 12 SATA-Ports…
-
10. März 2014 um 15:03 Uhr #944499xfn99Teilnehmer
http://geizhals.de/intel-xeon-e3-1230-v3-bx80646e31230v3-a954057.html 200€http://geizhals.de/msi-h87m-e33-7817-002r-a953910.html 53€http://geizhals.de/corsair-vengeance-low-profile-blau-dimm-8gb-cml8gx3m1a1600c10b-a847911.html 67€http://geizhals.de/samsung-ssd-840-evo-120gb-mz-7te120bw-a977934.html 70€http://geizhals.de/be-quiet-tfx-power-2-300w-gold-tfx12v-2-4-bn229-a1074265.html 52€Macht zusammen 442€ dann kann man sich ja denken was jeder “normale” Mensch nehmen würde 😀
-
10. März 2014 um 15:03 Uhr #944496ThaRippaAdministrator
Huch, ja wir sind ja hier im BOINC-Thread. ;)Nun, dann nehme ich für 400€ lieber den ganzen 1230v3, plus Board, plus Ram, plus SSD, plus Netzteil. Ja das ist etwas übertrieben, vielleicht bekommt man das Netzteil nicht mehr rein. Der Atom mag weniger verbrauchen pro Credit, aber wenn man dafür dann wieder doppeltsoviele Boards braucht… auch doof.
-
10. März 2014 um 15:03 Uhr #944491RenovatioTeilnehmer
Hast du zu den Board mal ein Link, konfetti?
-
10. März 2014 um 15:03 Uhr #944498downhillschrottTeilnehmer
@ThaRippa und xfn99: Ihr habt recht, mit dem Atom braucht man doppelt so viele Boards. Abgesehen von den Anschaffungskosten braucht auch das Board Strom und Platz.Also doch eher Xeon/i7.
-
10. März 2014 um 15:03 Uhr #944494ThaRippaAdministrator
Ja auch da wieder, mag ja sein, dass man ein paar Watt mehr verbraucht, aber am Ende dauert es dann selbst bei 24/7 ewig, bevor da die 200€ eingespart werden, die ein billiges 1150-Board plus i3 weniger kosten.
-
10. März 2014 um 15:03 Uhr #944493downhillschrottTeilnehmer
@SM Board:1. war das nur ein Beispiel für den Atom Octacore2. Naja, nur weil ein Teil für etwas anderes geplant/gebaut ist, heißt es nicht, dass es nicht sinnvoll einzusetzen ist. (Außerdem: Das ist nicht für Storage sondern für Webserver.) Ich glaube nicht, dass es dezitierte Bauteile für Boinc Cruncher zu kaufen gibt. 😉 Aber ThaRippa hat schon recht, da könnte man vermutlich auch einen Haswell undervolten/-takten. Ist halt die Frage ob man die Effizienz dann erreicht.edit: Link zum Asrock Board: http://geizhals.at/de/asrock-c2750d4i-a1040153.html
-
10. März 2014 um 15:03 Uhr #944495xfn99Teilnehmer
i3 halte ich aber für komplett sinnlos. Man braucht mehr Mainboards, was in höherem Stromverbrauch und höheren Kosten resultiert. (Im Vergleich zu i5/i7)
-
10. März 2014 um 16:03 Uhr #944502JabbaTeilnehmer
Ist mir auch gerade so gegangen. Der optimale Hardware für BOINC-Thread überschneidet sich gerade…Neben der Mehrzahl der Boards nervt mich bei solchen Gedankenspielen schon die Tatsache, daß ich mit noch mehr System hantieren muß -> noch mehr Fehlerquellen.Irgendwie wäre mal ein Mobo schön, daß einfach nur CPU-Fassungen hat und man nach Bedarf ausbauen kann und nicht gleich irgendwelche 4k€ CPUs benötigt.Sozusagen ‘Cluster on a Board’
-
10. März 2014 um 16:03 Uhr #944503xfn99Teilnehmer
Kann mir jemand erklären warum meine Posts die ganze Zeit verschwinden 😮
-
10. März 2014 um 16:03 Uhr #944500xfn99Teilnehmer
Hmm mein Post ist irgendwie nicht angekommen…Dann halt nochmal :Dhttp://geizhals.de/be-quiet-tfx-power-2-300w-gold-tfx12v-2-4-bn229-a1074265.html 60€http://geizhals.de/samsung-ssd-840-evo-120gb-mz-7te120bw-a977934.html 70€http://geizhals.de/corsair-vengeance-low-profile-blau-dimm-8gb-cml8gx3m1a1600c10b-a847911.html 70€http://geizhals.de/msi-h87m-e33-7817-002r-a953910.html 55€http://geizhals.de/intel-xeon-e3-1230-v3-bx80646e31230v3-a954057.html 200€Wobei das Netzteil dann für 6Mainboards reichen dürfte und die SSD ja eigentlich beliebig viele befeuern kann.Wenn man 6Stück anschaffen würde, würde es am Ende 315€ Pro Blade plus 60€fürs Netzteil und 70€ für die SSD kosten.Also insgesamt 2020€ wenn ich mich nicht verrechnet habe.
-
10. März 2014 um 18:03 Uhr #944506xfn99Teilnehmer
Ok kein Problem. Was muss man anders machen das die Nachricht nicht in den Spamschutz kommt ?
-
10. März 2014 um 18:03 Uhr #944505ThaRippaAdministrator
Spamschutz. Tut uns leid.
-
10. März 2014 um 19:03 Uhr #944507ischTeilnehmer
Der i7-4770R ist ja nicht schlecht aber welches sinnlose GPU Projekt soll man da drauf rechnen ?
-
10. März 2014 um 20:03 Uhr #944508VTG01Teilnehmer
@xfn99Dein Board ist zu gross, schau dir mal das ITX asrock-b85m-itx-90 hier an. Beim Speicher verwenden wir meist Eirgel die mit 1,35 V aus kommen, zu empfehlen sind 16 GB je Board. /crucial-ballistix-sport-dimm-kit-16gb. Oder die Crucial Ballistix Tactical LP DIMM Kit 16GB habe ich nun in 3 Blades drinnen.Wenn du vor hast so viel zu kaufen schau dich in den Foren um, mit Geduld bekommst du gute gebrauchte Komponenten.
-
10. März 2014 um 21:03 Uhr #944509ThaRippaAdministrator
@Spamfilter kann man leider nix machen, nahezu alles was nen Link hat muss ein Mod freigeben zur Zeit.
-
11. März 2014 um 9:03 Uhr #944511xfn99Teilnehmer
Ich hatte eigentlich nicht vor was zu kaufen :DDas war nur wegen den 400€ für das Atom Board…Bin noch ein Schüler und mein Vater würde da glaube ich nicht so einverstanden sein 😉
-
11. März 2014 um 17:03 Uhr #944519littledevilTeilnehmer
rein vom Formfactor her finde ich Half-size SSI gut, aber die Preise für solche Dual-Boards und die passenden CPUs sind jenseits von “Gut und Böse”
-
12. März 2014 um 21:03 Uhr #944533downhillschrottTeilnehmer
Half Size SSi ist schon nett aber da legt man dann pro Board mit 2x Xeon 12Core + Ram ~5000,- hin. Ok, das sind dann 24Kerne, 48 Threads aber das ganze geht auch mit 6 normalen 1150 Boards. Ob das Serverboard + 2x 2011 auch effizienter arbeitet als 6x 1150 glaube ich persönlich nicht.Dafür muß man weniger administrieren.
Mein Bauvorschlag6 Stk Mini ITX 1150er Boards – 3 Stockwerke im Tower, pro Stockwerk 2 davonDer Tower bildet nur das äußere Gehäuse.Die Boards werden versetzt angeordnet, so dass in den PCIe Steckplatz eine Radeon oder Geforce reinpaßt (optional). Ohne GPU ist das ein kompakter EMK2.Die Breite der ITX Boards und die Höhe der GPUs bilden ein Rechteck. Dazwischen müssen die passiven CPU Kühler passen. RAM sollten VLPs sein.Die Außenmaße eines Stockwerkes werden von einem Aluprofil umschlossen. Vorne und/oder hinten kommt ein Lüfter drauf. Die Graka saugt von “außen” Luft aus dem Tower an. Diese wird wird vom Luftstrom im Profil mitgenommen und nach hinten ausgeblasen. Damit kühlt man auch GTX Titan oder AMD R9 wenns sein muß. Ein Netzteil für alle, ein kleiner Fast Ethernet Switch wird im Tower eingebaut.Falls gewünscht kann man einen 6-fach Monitor-, Maus-, und Tastaturumschalter im Gehäuse integrieren (teuer).Die Boards bekommen ein Linux System ohne GUI – vermutlich nur möglich wenn keine GPU eingesetzt wird?Administriert wird über ssh.Die boinc Clients werden über Netz von einem Rechner mit Manager gesteuert – so ists ja auch gedacht.Mehr brauchts nicht. Den Softwareaufbau vom EMK2 würde ich persönlich nicht so machen. Ich habe da lieber 6 Einzelsysteme. Hat wer ein 3D File von einem 1150er Board und einer GTX Titan oder AMD R9? Step oder Iges oder so. -
14. März 2014 um 10:03 Uhr #944557downhillschrottTeilnehmer
isch;515373 said:
Der i7-4770R ist ja nicht schlecht aber welches sinnlose GPU Projekt soll man da drauf rechnen ?Ich verstehe deinen Frust. Ich finde es auch nicht in Ordnung, dass bestimmte mathematische Projekte auf GPU Basis so viel mehr Credits einbringen als alle anderen.
Trotzdem ist es nicht zielführend deswegen alle GPU Projekte als sinnlos zu bezeichnen. Einstein, MilkyWay, Asteroid usw. halte ich persönlich durchaus für sinnvoll. Ein Mathematikbegeisterter wird dafür andere Prioritäten setzen und eben die Projekte rechnen die andere nur wegen der Credits laufen haben.Es ist halt schade, dass manche Projekte auf “Credithuren” setzen. 😉 Wie auch immer, ich finde das gehört nicht in diesen Thread. Wenn dich GPU Projekte stören, mach einen eigenen auf.
-
14. März 2014 um 11:03 Uhr #944558Christoph!Administrator
downhillschrott;515425 said:
isch;515373 said:
Der i7-4770R ist ja nicht schlecht aber welches sinnlose GPU Projekt soll man da drauf rechnen ?Es ist halt schade, dass manche Projekte auf “Credithuren” setzen. 😉 Wie auch immer, ich finde das gehört nicht in diesen Thread. Wenn dich GPU Projekte stören, mach einen eigenen auf.
Ruhig Brauner. Nur mal son Tipp und das ist jetzt nicht böse gemeint, aber es gibt hier Leute die schon schon sehr viel mehr Zeit und Geld in Boinc@MK investiert haben als 44 Beiträge im gesamten Forum. 😉
-
14. März 2014 um 12:03 Uhr #944559downhillschrottTeilnehmer
Lieber Christoph!1. Ich soll ruihg sein? Warum, Ruhiger geht es doch nicht. Wenn ein User seriöse Projekte als sinnlos bezeichnet, dann darf ich doch meine persönliche Meinung dagegenhalten, dass dem nicht so ist. Ich habe weder geschimpft noch sonst etwas.2. Nur mal son Tip: 44 Beiträge: Das ist doch lächerlich,. Was weiß du was ich investiert habe? Ich rechne seit mehr als 6 Jahren für Boinc. Alleine die Stromrechnung ist genug Investition.3. Ist das hier ein Kindergarten oder eine erwachsene Diskussionsgruppe?
-
14. März 2014 um 13:03 Uhr #944561Christoph!Administrator
Mir gings nicht um BOINC mir gings nur um das TEAM Meisterkuehler.deWar ja nur so ein Gedanke…
-
14. März 2014 um 14:03 Uhr #944562xfn99Teilnehmer
Leute back to the topic 😉
-
14. März 2014 um 15:03 Uhr #944563konfettiTeilnehmer
Vlt. sollte man die Diskussion über sinnhafte und sinnlose Projekte in einem der anderen Themen betrachten.Was ich mich aktuell Frage, gehts hier eigentlich noch um die Machbarkeit oder nur noch darum, was man machen wird?Wenn ich irgendwann dieses Jahr mal endlich Platz in meiner Werkstatt habe, werde ich mich auch um meinen GPU-Cruncher kümmern – derzeit steht der halbzerlegt rum – leider.Ich hatte mir damals ja ein MSI K9A2 Platinum geholt, weil es 4 PCIe X16 Slots hatte, und mit 2x 4850 und einer GT9800 sicher nicht das beste, aber alles was ich noch hatte bestückt – das ging mit der Wakü auch recht gut zu kühlen – in wie weit es sich rentiert, das ganze auf moderne Karten zu heben, kommt auch drauf an, was ich dafür ausgeben muss. – Zumal es ja nicht nur mit einer Karte getan ist, es kommen ja noch Kühler und Kleinzeug hinzu.Über einen möglichst kompakten und trotzdem noch kühlbaren Bauvorschlag bin ich gern offen, derzeit les ich hier mehr mit, als mich aktiv zu beteiligen… 😉
-
14. März 2014 um 15:03 Uhr #944564ThaRippaAdministrator
Das Problem ist halt, dass man aktuell für neu gekaufte GPUs quasi nur die Oberklasse zum Crunchen nehmen kann. Das bedeutet Credits pro PCI-E-Slot und auch Credits pro W sind dort halt am besten. Aber andererseits heißt das auch, dass man idealer weise also 4 Stück 350€-GPUs plus Kühler bezahlen muss, wo es letztes Jahr quasi noch 4 gebrauchte 5850er für je 100€ waren. Ja, ich weiß das ist ein wenig unfair, aber so ist nunmal der aktuelle Gedankengang. 5850er braucht man halt 2 Stück um eine R280x zu ersetzen, also vielleicht etwa 3 für eine 290x – dann ist das Mainboard aber fast voll. Und dabei verbraucht die dicke R9 auch mal geschwind 300W, also definitiv mehr, als deine 4850 und 9800 so verheizt haben. Das darf man nicht unterschätzen, insgesamt, bei rund 1KW Heizleistung (Die CPU will ja vielleicht auch mit rein) kann schon mal das Wasser zu warm für das letzte Bauteil sein, wenn man einen klassischen Kreislauf baut. Zu warm heißt hier, dass die Karten runtertakten würden. Also nicht schlimm, aber doof.Und genau wegen dieser “Randbedingungen” tun wir uns hier grad recht schwer. Ich glaube auch fast, es wäre das beste jeder schafft eine 290 an(ohne x, weil mir 10% Mehrleistung nicht 30% Mehrkosten wert sind), und lässt die halt zu Wettkämpfen Crunchen.
-
14. März 2014 um 17:03 Uhr #944566ischTeilnehmer
konfetti;515431 said:
Vlt. sollte man die Diskussion über sinnhafte und sinnlose Projekte in einem der anderen Themen betrachten.Was ich mich aktuell Frage, gehts hier eigentlich noch um die Machbarkeit oder nur noch darum, was man machen wird?Machbar ist vieles aber zu welchen kosten? Hier im Forum gibt es genug die das nötige Hardware/Software Wissen haben.So ein GPU Cruncher ist einfach zu Speziell.Wenn wir den gebaut hätten für POEM wie es ja mal gedacht war hätten wir seit Monaten nichts gerechnet weil das GPU Projekt von POEM beendet ist.Andere GPU Projekte mit so kleinen Grakas sind von der P/W Leistung halt nicht besonders da lohnt sich dann eine oder mehrere dicke Karten.Bei GPUGRID sind die kleinen Karten auch wieder im Nachteil. Die neuen 750Ti sind ja sehr Effizient aber es gibt noch keine vernünftigen Tests bei GPUGRID was die Karten leisten.Wenn dann die großen Karten kommen sieht es eh wieder anders aus.
-
16. März 2014 um 22:03 Uhr #944607littledevilTeilnehmer
Ich denke, das das Kernteam zum aktuellen Stand das Projekt nicht weiter verfolgt.
Sollte sich das Angebot an passenden Projekten erweitern, kann mand as Thema nochmal aufrollen.Wer so etwas in kleinerem Maßstab machen möchte, kann aber mit 4-7 58xx Karte relativ günstig ein System zusammen stellen, welches dann eben nur bei Wettkämpfen rechnet oder eben Teilweise zur Refinanzierung irgendwelche Coins…
Falls jemand im Raum Berlin eine sichere Möglichkeit hat, mit wenig und keinen Stromkosten einen Cruncher zu betreiben, bitte PN an mich.
Da ich allein vom haben wollen gern meine 6GPU Cruncher bauen möchte, würde ich den dann auch zum Cruncher außerhalb von Wettkämpfen zur Verfügung stellen. -
7. Juni 2014 um 21:06 Uhr #946545xfn99Teilnehmer
http://www.golem.de/news/adapteva-parallela-kickstarter-supercomputer-mit-64-kernen-wird-ausgeliefert-1404-106129.htmlDenkt ihr dieses Teil würde man unter Boinc ordentlich zum Laufen bekommen ? 100Gflops @2Watt wäre dich super für einen neuen Cluster oder ?:)
-
7. Juni 2014 um 23:06 Uhr #946546ThaRippaAdministrator
Naja 100Gflops verteilt auf 64 Kerne bedeutet bei BOINC selbst wenn man sie nutzen kann dass man 64 WUs gleichzeitig rechnet, die aber ewig lange brauchen. Und wenn die WUs dann auch nur ein wenig RAM brauchen… 200MB mal 64 macht … einiges. Zuletzt: wenn die Kerne als normale ARM-CPU-Kerne zählen, könnte der interne SRAM ein Problem werden. Denn die ARM-WUs sind ja auf auf Cortex-Cores ausgelegt, und die haben ein wenig Cache und dann halt das geteilte System-RAM. Sprich ohne optimierte WUs kommt da nicht die beschriebene Leistung rum.
-
8. Juni 2014 um 9:06 Uhr #946547xfn99Teilnehmer
Okay aber so wie ich das verstehe, wird die Arbeit von den 2 A9 Kernen auf die kleinen verteilt. Korrigieren mich bitte wenn ich das falsch verstehe und gerade Mist erzählt habe 😉
-
8. Juni 2014 um 9:06 Uhr #946548ThaRippaAdministrator
Die Frage ist ja was “sieht” ein Programm oder das Betriebssystem, was da drauf liefe. Ich kann ja nicht ein Programm, was nur einen Thread hat, auf 64 Kerne aufteilen. Oder zwei.
-
8. Juni 2014 um 9:06 Uhr #946549xfn99Teilnehmer
“Technisch handelt es sich bei dem Epiphany IV genannten Chip um ein Arrangement von 64 kleinen RISC-Kernen mit je 32 KByte SRAM und einem Cortex-A9 als Steuereinheit. “Da wäre jetzt hakt interessant wie Steuereinheit definiert wird. Wenn die Teile ausgeliefert werden bekommt man bestimmt genauere Infos also muss man vermutlich warten.
-
28. Juni 2017 um 17:06 Uhr #963097AnonymInaktiv
:+ *hust*
Wie sieht es mit Mining Grakas aus und der Mainboards?
https://www.computerbase.de/2017-06/mining-ethereum-pascal-polaris-asus-msi-galax/ -
28. Juni 2017 um 18:06 Uhr #963099Mad-MaxModerator
*husthust*Wirste nicht bekommen Angeblich kaufen die Miner ja aktuell alle R5x Karten etc auf und selbst ältere Generationen gut minender Grakas soll sich grad gut verkaufen * hust* hätt da noch ne Wakü HD7970… Gesendet von meinem D5503 mit Tapatalk
-
28. Juni 2017 um 20:06 Uhr #963100JabbaTeilnehmer
Hi Zap,hab da schon noch was rumliegen…. Radeon 7990er… Mainboards mit CPU etc… Melde Dich mal, was Du Dir vorstellst und wieviel Du ausgeben willst.Ich kann Dir da helfen, wenns ums Mining geht.
-
28. Juni 2017 um 21:06 Uhr #963101AnonymInaktiv
Oh sorry das Husten sollte wegen dem Datum sein.
Dachte das man Mining-Hardware zum Bonic benutzen kann.
Gibt ja jetzt Mainboard mit 16 PCI-E Slots für 16 Grafikarten.
Wollte nur fragen ob sowas Möglich wäre mit Mining Hardware, weil ja das Thema passt mit 16 Grafikkarten. -
28. Juni 2017 um 21:06 Uhr #963102
-
28. Juni 2017 um 22:06 Uhr #963103JabbaTeilnehmer
Das mit dem Mainboard laß mal. Da mußt genau wissen, was Du tust. Zudem: 16 Grakas willst Du nicht im Zimmer haben.Dir reichen schon 2 x 7990. Da ists selbst im Winter mehr als ausreichend warm.
-
11. Juli 2017 um 10:07 Uhr #963191AnonymInaktiv
😥 Sorry meine ja nur das der Mining Boom auch für den
Super-Boinc-Rechner mit 16 Grafikkarte vielleicht geeinte ist.Steht ja noch bei “Ankündigen” mit dem Bonic Rechner mit 16 Grafikarten
Hier auf ebay
https://www.ebay-kleinanzeigen.de/s-multimedia-elektronik/mining-rig/k0c161
werden alle jetzt abgestoßen weil der Währungskurs gefallen ist.
:fresse: aber 7000€ ist echt viel um zb. beim Pentathlon mit so einem Mining Rig BONIC laufen zu lassen.
Ich habe eh keine Kohle um mir einen neuen Gaming PC zu kaufen ^^ Und ~7000 € ist schon hardcore :banana:
meine Frage war ja nur ob so ein Mining Rig auch für Bonic geeignet wäre , hat halt zum Thema gepasst das mit den 16 Grakas.
-
11. Juli 2017 um 13:07 Uhr #963193ThaRippaAdministrator
Stimmt schon, die Ziele und Anforderungen sind ja fast identisch.
-
11. Juli 2017 um 13:07 Uhr #963192NeronAdministrator
Grundsätzlich ist das nichts anderes. 😉 Bei dem einen gibts nur noch etwas Geld, beim anderen lediglich Credits. :)Gesendet von iPhone mit Tapatalk
-
12. Juli 2017 um 8:07 Uhr #963200Mad-MaxModerator
Eben, das tät rocken Aber vermutlich wollen die lieber Geld verdienen Gesendet von meinem D5503 mit Tapatalk
-
12. Juli 2017 um 8:07 Uhr #963199AnonymInaktiv
😆 Okay
Jetzt muss man allen nur noch verklickern das die nächstes Jahr um den Boinc-Pentathlon Ihre Mining Rigs fürs Meisterkuehler-Team laufen lassen.:-k O:-)
-
12. Juli 2017 um 9:07 Uhr #963201NeronAdministrator
Die Rigs werden bis November alle kaputt oder verkauft sein! ;)Gesendet von iPhone mit Tapatalk
-
12. Juli 2017 um 10:07 Uhr #963203AnonymInaktiv
Die eBay Kleinanzeigen sind voll davon, weil der Kurs im Keller ist.
Aber es wird nur was Platzmangel zu wenig Zeit und wird zu warm das Ganze und vielleicht Stromverbrauch in den Kleinanzeigen geschrieben 😀
Aber nichts davon das der Kurs eine Talfahrt macht. -
12. Juli 2017 um 11:07 Uhr #963204Mad-MaxModerator
Ethereum ist wohl noch im Aufwind, aber wenn da jeder neihupst kommts auf selbe raus.Ist der Kram denn dann spottbillig? Dann könnten wir uns ja für den nächsten Wettbewerb eindecken 😀 Gesendet von meinem D5503 mit Tapatalk
-
12. Juli 2017 um 13:07 Uhr #963206Mad-MaxModerator
Na dann dürfte es ja bald wieder Grafikkarten geben B-) Gesendet von meinem D5503 mit Tapatalk
-
12. Juli 2017 um 13:07 Uhr #963205KiroTeilnehmer
Soweit ich weiß bricht der Ethereum Kurs grad mächtig ein. Der Punkt an dem sich Mining nicht mehr lohnt, stellt sich wohl grad ein. :/Gesendet von iPhone mit Tapatalk
-
12. Juli 2017 um 17:07 Uhr #963208ThaRippaAdministrator
Abwarten, aber ja, dürfte es. Mittelfristig dürften damit auch die Neupreise für 570er und sowas fallen, denn der Gebrauchtmarkt wird gewaltig sein. Dann könnte man durchaus Karten kaufen, die man gar nicht braucht. xD
-
12. Juli 2017 um 17:07 Uhr #963210Mad-MaxModerator
Jetzt wirds interessant… Sollt ich noch versuchen meine R9 290er loszuwerden? Fragen über Fragen…Gesendet von meinem D5503 mit Tapatalk
-
12. Juli 2017 um 17:07 Uhr #963211ThaRippaAdministrator
Jetzt oder nie. In 4 Wochen waten wir knietief in RX x70ern, die ja etwa genau so schnell sind bei weniger Verbrauch.
-
12. Juli 2017 um 18:07 Uhr #963212NeronAdministrator
Dann kann ich mir ja überlegen meine 380 4Gb auszutauschen Gesendet von iPad mit Tapatalk
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.