Die Berkeley Open Infrastructure for Network Computing (BONIC) ist eine Software-Plattform für verteiltes Rechnen.Die BOINC-Plattform wird an der Universität Berkeley entwickelt und ermöglicht es, vielen tausend Computern über das Internet oder Intranet verfügbar zu machen. Dies geschieht in Form von Projekten, die meist gemeinnützig arbeiten und von Universitäten oder anderen Institutionen betreut werden.
Der Super-Boinc-Rechner mit 16 Grafikkarten?
- Dieses Thema hat 613 Antworten und 41 Teilnehmer, und wurde zuletzt aktualisiert vor 5 Jahre, 10 Monaten von
Neron.
-
AutorBeiträge
-
-
13. November 2012 um 17:11 Uhr #929271
-
13. November 2012 um 17:11 Uhr #929268
Renovatio
TeilnehmerHey,eine sehr geile Idee. Mit dem runden Gehäuse machen wir alles richtig und bietet sicherlich dann auch genug Platz. Schön das auch die Beiträge im Forum sowie der Gruppe einbezogen wurde und das daraus was gemacht wurde. An welche Boards mit CPUs denkt ihr für die Grafikkarte einzusetzen?Andre
-
13. November 2012 um 17:11 Uhr #929269
konfetti
Teilnehmerhm, das erinnert mich ja irgendwie an die Cray-1Wo soll der dann stehen?
-
13. November 2012 um 17:11 Uhr #498901
ulv
TeilnehmerNachdem unsere CPU Version mit 84 Kernen mittlerweile schon über 1 Jahr läuft wird es langsam Zeit über die Grafikkarten-Version nachzudenken:
phil68 und ich haben mal ein wenig rumgesponnen wie ein würdiger Nachfolger aussehen könnte:
Ein rundes Gehäuse mit
4 x ITX
4 x PCIe Splitter
16 x GT640 alles an
1 x Netzteil mit einem
600er Lüfter
Das Bild war leider zu groß für den Scanner – es geht natürlich rund rum weiter.PS: Die Splitter sind schon erprobt und bremsen BOINC nicht aus.
-
13. November 2012 um 17:11 Uhr #929270
Kiro
Teilnehmerdie Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀
-
13. November 2012 um 18:11 Uhr #929273
isch
TeilnehmerGPUs sollten schon SingleSlot sein.Bei den CPUs kann ja ja nur so was wie der i7 3770 oder Xeon E3-1245V2 oder Xeon E3-1240V2Und der Splitter bremst das ganze nicht aus?Der muss ja ständig 4 Karten mit Daten versorgen.Für welche Projekte soll der dann laufen?
-
13. November 2012 um 19:11 Uhr #929275
ulv
TeilnehmerIst ja nur ein Entwurf.Jemand eine Idee wie wir das mechanisch überhaupt lösen können?Das muss ja möglichst einfach zu fertigen sein. Aber dennoch stabil genug.
-
13. November 2012 um 19:11 Uhr #929277
schannall
TeilnehmerHmm. Fräsen würde ich sagen. Aus einem Stück. Wenn ihr Irgendwo ein Riesen Alu/Metallblock rumliegen habt. Ansonsten Kirschholz o.ä. mit vielen Schrauben..Aber EIN Netzteil für 16 GraKas? Wird eng :)sC
-
13. November 2012 um 19:11 Uhr #929278
isch
TeilnehmerWenn ich am WE etwas Zeit habe mache ich mal ein paar Zeichnungen mit Sketchup.Macht es denn nicht mehr Sinn die Karten so wie die ITX zu Platzieren?Also vor jeden ITX 4 Karten.Dann sind zwar die ecken leer aber so sollte sich das besser kühlen lassen.
-
13. November 2012 um 20:11 Uhr #929280
phil68
Teilnehmer@ulvGenau so hatte ich mir das auch vorgestellt 🙂 Ich würde nur die Grakas parallel zum ITX verbauen. Graka würde ich diese nehmen: http://geizhals.de/794563… CPU siehe isch :d:
Aber EIN Netzteil für 16 GraKas? Wird eng
Die GT 640 verbraucht optimiert ca. 30W, sodass die Kiste ca. 700W(grob geschätzt)[eher weniger] verbrauchen wird.
Für welche Projekte soll der dann laufen?
POEM wäre natürlich in Bezug auf Credits der Hammer… zumal das ein Projekt ist, welches ich mehr als unterstützenswert halte. Das wären dann für den Rechner etwa 5-6Mio/Tag… selbst bei PG schmeißen die Karten immernoch ca. 1,8Mio/Tag… und wir hätten immernoch 16 Kerne für CPU Projekte :DGrüße Dirk
-
13. November 2012 um 20:11 Uhr #929285
isch
TeilnehmerDei ATi7750 sind mit den neuen Beta Treibern auch nicht zu verachten.Sollten von der c/W Performens her noch besser sein als die 640 aber brauchen halt etwas mehr.
Wenn WCG zu ende ist werde ich mal testen was da so geht 🙂
-
13. November 2012 um 21:11 Uhr #929289
Gillian
TeilnehmerDie Idee finde ich super…Bitte nicht gleich auf mich einschlagen, aber wenn je CPU vier Kerne eh für die GraKa’s ‘rechnen’ müssen, wäre dann nicht die Bulldozer Architektur auch interessant für uns? Preislich ja auf jeden Fall, oder wegen der TDP eher nicht?GrußGunnar
-
13. November 2012 um 21:11 Uhr #929288
ulv
TeilnehmerHübsch wäre es schon, aber ……. ich hab mal eben nochmal nach ATX mit >= 4 PCIe geschaut:MB 100€ + CPU 30€Das kostet ja nicht mal die Hälfte vom Splitter alleine! :roll:4 solche und ein Lüfter und alles wäre sofort gut.Und weil die GT640 keinen Strom-Stecker hat wäre nicht ein einziges Kabel nötig.Was meint Ihr? Wie viel darf das Design kosten?
-
13. November 2012 um 22:11 Uhr #929292
isch
Teilnehmer@ ULV die CPU kannst vergessen.Bei 4 GPU braust 8 Kerne/Threads mit mindesten 3,3GHz sonst verhungern dir die GPUs.Die neuen Graka Projekte brauch leider teils viel CPU um die WU zu berechnen.@Gillian Die Bulldozer verbrauch leider viel zu viel.Das kannst fast 2 i7 betreiben.
-
13. November 2012 um 22:11 Uhr #929298
isch
TeilnehmerEine Karte braucht ca 30W sind also 120W:Ist sogar noch weniger als eine von deinen ATIs.DOPPELTE GENAUIGKEIT wird ja nur für einige wenige Projekte gebraucht.
-
13. November 2012 um 22:11 Uhr #929297
VTG01
TeilnehmerDie Idee finde ich gut, dennoch gilt es von Beginn an zu bedenken:
– Wie versorge ich die Grakas mit Strom – vom Board her wird das nichts werden mit so vieln GRAKAS, auch wenn die nur wenig Watt haben.
– Ich wurde eine Art von “Rack” vorschlagen, die man teilen kann und auf verschiedenen Standorten betreiben kann. Ich halte es für problematisch eine weitere Maschine mit 700W im Dauerbetrieb zu finanzieren. z.B. 4 Gehäuse mit je 4 Karten, die über LAN koppelbar und als 1 Rechner zu betreiben sind. (Betriebskosten /4, bzw. Energieeinsparung durch trennen von Gehäusen) Auch Kühlung und Bastelarbeit sollten sich dadurch in Grenzen halten ….
– Grundsätzlich stellt sich die Frage in wie weit die DOPPELTE GENAUIGKEIT bei Berechnungen eine Rolle spielt oder nicht. Meine 5 Garkas rechnen in 3 Rechnern (seit gestern Abend) und alle für doppelte Genauigkeit ausgelegt.
– Im gegensatz zu Prozessoren stelle ich mir den Aufwand für Kühlung deutlich schwieriger vor wenn man leistungsstarke Karten hat. Die Karten strahlen auch auf der “Rückseite” ordentlich Wärme ab, was dazu führt das der “Hintermann” deutlich mehr Aufwand für Kühlung hat. Ich rege an auf Querlüftung – also im rechten Winkel zu den Karten – die Hauptlüftung zu machen. In wie weit das Kabelgewirr und die Switche hier den Luftstrom hindern gilt es zu prüfen.
-
14. November 2012 um 8:11 Uhr #929301
Obi Wan
Verwalterwarum wollte ihr diese Graka nehmmen -> GeForce GT 640 ?hat das einen Grund ?
-
14. November 2012 um 9:11 Uhr #929303
Sc0rp
TeilnehmerRe,
Kiro;499028 said:
die Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀Wie kommst du darauf?GTX460 = 907 GFlops SP und 75,6 GFlops DP (bei 160W)GT640 = 691,2 GFlops SP und 28,8 GFlops DP (bei 34W)Also die GTX460 (Werte hier ohne OC) schlägt bei der reinen Rechnenleistung die GT640. Allerdings sieht das bei Performance/Watt natürlich wesentlich besser für die GT640 aus, aber das erwartet man ja auch von einem zwei Generationen besseren Chip, oder?Den runden PC finde ich mal richtig innovativ – allerdings erzeugt das auch heftige Probleme, besonders beim Betreiben / Aufstellen. Bauen ist nicht das Problem (wenn mal kurz drüber nachdenkt was für Profis hier im Forum unterwegs sind *auf die DKM schiel*). 700W ist auch super für so ‘ne Maschine, hört sich für mich alles sehr stimmig an.Wenn man die GraKa’s parallel setzt, könnte man auch ein PICMG-Gehäuse (19 Zoll) nutzen, die haben auf der Rückseite mehr Slotbleche – und die ITX-Boards würden bequem übereinander passen (mit popeligen Abstandsbolzen ;)).Oder man nimmt dieses hier, und moddet die Rückwand (mehr Slots) und baut in die Front zwei 140er (160er) Lüfter …Sc0rp
-
14. November 2012 um 16:11 Uhr #929307
littledevil
TeilnehmerITX + Splitter halte ich auch für zu kostspielig.
Etwas mit matx und 3-4 Steckplätze sollte gut passen:
MSI Z68MA-G45 (G3) / MSI Z68MA-G45
Mit 3 Steckplätze und evtl. recht sparsam und vor allem schönkompakt:
ASUS P8H61-MXWie verhält es sich von der Performance zw. i5 und i7? Lohnt der i7 wirklich oder dann besser nur 2-3 Karten pro blade?
Ein i5-3350P, 4x 3.10GHz sieht preislich sehr gut aus. -
14. November 2012 um 19:11 Uhr #929310
Sc0rp
Teilnehmerphil68;499067 said:
Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).
Grüße Dirk
Jo Dirk … und was wäre bei OC?
Bzw. überhaupt der ganzen Takterei?
Woher nimmst du die Werte?
Ach ja, nicht zu vergessen: bei POEM only? Oder ist das generell so?
Wie sieht es (ganz aktuell) bei WCG-HCC@GPU aus?Das Thema interessiert mich ganz besonders, hab ja ‘ne EVGA GTX460SC am Laufen – und 30W vs. 160W sind schon ‘ne Hausnummer. Geplant ist ein GraKa-Upgrade auf eine GTX670 … da ich nebenbei auch zocke. Wenn sich eine GT640 fürs BOINCen rentiert, könnte ich die ja auch noch irgendwo reinklemmen …
Sc0rp
-
14. November 2012 um 19:11 Uhr #929311
isch
TeilnehmerEs sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.@Sc0rp bei WCG rennen die ATI 7xxx besonders gut.
-
14. November 2012 um 19:11 Uhr #929308
phil68
TeilnehmerSc0rp;499062 said:
Re,Kiro;499028 said:
die Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀Wie kommst du darauf?
GTX460 = 907 GFlops SP und 75,6 GFlops DP (bei 160W)
GT640 = 691,2 GFlops SP und 28,8 GFlops DP (bei 34W)
Also die GTX460 (Werte hier ohne OC) schlägt bei der reinen Rechnenleistung die GT640. Allerdings sieht das bei Performance/Watt natürlich wesentlich besser für die GT640 aus, aber das erwartet man ja auch von einem zwei Generationen besseren Chip, oder?Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.
Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).
Grüße Dirk
-
14. November 2012 um 20:11 Uhr #929314
Sc0rp
TeilnehmerRe,
isch;499072 said:
Auch bei POEM/WCG mit den neuen Karten?Hat nix mit dem Projekt oder der Hardware an sich zu tun, sondern mit der Art wie GPGPU funktioniert – GPGPU braucht keine extravaganten Texturen zwischen Festplatte/Hauptspeicher und GraKa zu tauschen, daher braucht man hier keine breitbandige Anbindung. Die Steuerbefehle bzw. Daten die bei GPGPU ausgetauscht werden sind dagegen lachhaft klein …
Bildlich: kleines Arbeitspaket wird an die GraKa geschickt, die rechnet mordsmäßig und vor allem parallel das Paket durch (evtl. wird es im GraKa-RAM etwas aufgeblasen -> trotzdem lächerlich), dann geht ein kleines Ergebnispaket zurück …
Sc0rp
-
14. November 2012 um 20:11 Uhr #929312
Sc0rp
TeilnehmerRe,
isch;499070 said:
Es sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.Wurde bereits positiv getestet … durch Jabba (sofern ich mich richtig erinnere) -> es reicht Dicke. Die Rechenleistung bei GPGPU wird nicht durch den peripheren Bus gebremst.
isch;499070 said:
@Sc0rp bei WCG rennen die ATI 7xxx besonders gut.Jo, angeblich noch besser mit Beta-Treibern … aber ich werde auf meinem SCHLUMPF (AMD-System mit HD5850 für die Stube bzw. Frau) kein Beta-Treiber draufmachen und ganz sicher kommt MEIN Workstation-GraKa-Update vor dem meiner Frau :devil:!Sc0rp
-
14. November 2012 um 20:11 Uhr #929313
isch
TeilnehmerSc0rp;499071 said:
Re,isch;499070 said:
Es sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.Wurde bereits positiv getestet … durch Jabba (sofern ich mich richtig erinnere) -> es reicht Dicke. Die Rechenleistung bei GPGPU wird nicht durch den peripheren Bus gebremst.Sc0rp
Auch bei POEM/WCG mit den neuen Karten?
-
14. November 2012 um 21:11 Uhr #929316
phil68
TeilnehmerSc0rp;499069 said:
phil68;499067 said:
Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).
Grüße Dirk
Jo Dirk … und was wäre bei OC?
Bzw. überhaupt der ganzen Takterei?
Woher nimmst du die Werte?
Ach ja, nicht zu vergessen: bei POEM only? Oder ist das generell so?
Wie sieht es (ganz aktuell) bei WCG-HCC@GPU aus?Das Thema interessiert mich ganz besonders, hab ja ‘ne EVGA GTX460SC am Laufen – und 30W vs. 160W sind schon ‘ne Hausnummer. Geplant ist ein GraKa-Upgrade auf eine GTX670 … da ich nebenbei auch zocke. Wenn sich eine GT640 fürs BOINCen rentiert, könnte ich die ja auch noch irgendwo reinklemmen …
Sc0rp
Hi Chris 🙂
Die Werte für die GTX460 hab ich vom Projekt selbst(nach GTX460 gesucht). Die Werte der GT640 hab ich aus eigenem Bestand(2 Stück).
Weitere Tests hatte ich noch bei PG gefahren…
GTX560ti vs. GT640
160k vs. 115k pro TagFür die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.
Grüße Dirk
-
15. November 2012 um 15:11 Uhr #929324
konfetti
Teilnehmer11 Minuten? – meine GTX260 rechnet im schnitt bissl über 8 Minuten pro HCC GPU WUansonsten find ichs trotzdem interessant 😉
-
15. November 2012 um 16:11 Uhr #929328
ulv
TeilnehmerDa die laufenden Kosten bei 24/7 der größte Kosten-Anteil sind ist es extrem wichtig, dass der Rechner viele Credits/Watt macht. Nur danach sollten wir die GPU aussuchen.
Zur Verdeutlichung: Bei 20 Cent/Watt kosten 500 Watt Dauer-Last im Laufe von 2 Jahren fast 2000€!
-
15. November 2012 um 16:11 Uhr #929327
littledevil
Teilnehmerkonfetti;499083 said:
11 Minuten? – meine GTX260 rechnet im schnitt bissl über 8 Minuten pro HCC GPU WBei welchem, VErbrauch? 😆
-
15. November 2012 um 17:11 Uhr #929329
Sc0rp
TeilnehmerRe Dirk,
phil68;499075 said:
Für die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.Meine GTX460SC braucht zwischen 00:04:55 und 00:07:44 pro WCG-HCC@GPU-WU 😉 – klar, im Verbrauch schlägst du mich – aber nicht bei der absoluten Zeit 😉 -> schnella!
Wie kann man die GT640 eigentlich tunen? Kann man an der was “schrauben”? Preislich gehen die grade ab ca. 70€ über den Tisch, da könnte ich 2-3 noch in den Server schrauben ;).
Sc0rp
-
15. November 2012 um 18:11 Uhr #929331
phil68
TeilnehmerWie verhält es sich von der Performance zw. i5 und i7? Lohnt der i7 wirklich oder dann besser nur 2-3 Karten pro blade?Ein i5-3350P, 4x 3.10GHz sieht preislich sehr gut aus.
Wenn dann sollten wir einen I7 nehmen… Wenn es nur 4 Kerne sein sollen, kann man auch zum wesentlich billigerem I3 greifen. Der I3 3220 läuft sogar mit 3,3GHz und dürfte kaum langsamer(bei BOINC) sein als der I5(6MB Cache gegenüber 3MB des I3) :-k
Sc0rp;499088 said:
Re Dirk,phil68;499075 said:
Für die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.Meine GTX460SC braucht zwischen 00:04:55 und 00:07:44 pro WCG-HCC@GPU-WU 😉 – klar, im Verbrauch schlägst du mich – aber nicht bei der absoluten Zeit 😉 -> schnella!Wie kann man die GT640 eigentlich tunen? Kann man an der was “schrauben”? Preislich gehen die grade ab ca. 70€ über den Tisch, da könnte ich 2-3 noch in den Server schrauben ;).Sc0rp
😀 Ja, aber wie schon geschrieben… die GT640 braucht ohne Optimierung ca. 30Watt. Wenn dann mal das passende BIOS und Flash Tool auf den Markt kommt, lässt sich da sicher noch etwas mehr Effizienz rauskitzeln. Bei POEM schafft eine GTX 680 ca. 1Mio k pro Tag bei etwa 180 Watt und einem Anschaffungspreis von ca. 430€ !Die GT640 macht ca. 370k bei 30 Watt und kostet 70€ !!Mehr muss ich wohl nicht dazu sagen :+ d.h. halbe Anschaffungskosten… halber Preis… selbe Leistung!!!(um ähnliche Credits zu erreichen) So ist das eben bei BOINC… wir wollen, wie ulv schon geschrieben hat, die max. Credits bei so wenig wie möglich Verbrauch.Grüße Dirk
-
15. November 2012 um 20:11 Uhr #929337
isch
TeilnehmerPassen in den Splitter Dualslot Karten? man kann das auf dem Bild so schlecht erkennen und im Text habe ich auch nichts gelesen ( Oder verstanden 🙂 )
-
15. November 2012 um 20:11 Uhr #929335
phil68
Teilnehmerisch;499093 said:
Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Bei nur 4 Kernen würde da ein Stau entstehen und die Credits würden sich fast halbieren.
Genau… ganz vergessen, dass wir ja 4 Karten haben 🙂
-
15. November 2012 um 20:11 Uhr #929338
Sc0rp
TeilnehmerRe,
isch;499096 said:
Passen in den Splitter Dualslot Karten? man kann das auf dem Bild so schlecht erkennen und im Text habe ich auch nichts gelesen ( Oder verstanden 🙂 )Das ist ein PCIe-Splitter, der die Lanes aufteilt – ist hier irgenwo im Forum schonmal diskutiert und beschrieben worden. Der macht dann z.B. aus einem PCIe x4 viermal PCIe x1 und Stromversorgung könnte man quasi direkt an den Splitter löten. Es gibt welche mit einer festen Platine und welche mit Flachbandkabeln …EDIT: Google ist dein Freund: http://www.amfeltec.com/products/x4pcie-splitter4.phpSc0rp
-
15. November 2012 um 20:11 Uhr #929334
isch
TeilnehmerEs muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Bei nur 4 Kernen würde da ein Stau entstehen und die Credits würden sich fast halbieren.
-
15. November 2012 um 21:11 Uhr #929339
VTG01
Teilnehmer@isch
Das mit dem Verbrauch stimmt, meine beiden 5870er laufen leicht übertaktet bei 875mhz. Selbst bei diesen Aussentemperaturen ist eine Raumtemperatur von unter 20°C nicht möglich! Leistungsaufnahmetest mache ich am WE
@phil, @isch
Es kommt immer darauf an welche Projekte gerechnet werden und welches Ziel da ist. Ein GPU-Cruncher muss einfach nur GPU-Projekte rechen können. Dummerweise brauchen die aber doch immer wieder deutlich CPU. Somit schlage ich vor die einzelnen Grakas die in Frage kommen auf mehreren Projekten zu testen und mit den “Dauerbrennern” a la 5870, GTX… zu vergleichen. So kommt man dann relativ schnell auf ein Projekt bei dem eine deutlich “schwächere” Karte bei BOINC deutlich effizienter ist als die “Dauerbrenner”. Vielleicht ist es möglich dass sich ein paar Personen an den Tests beteiligen. Ich stelle mich mit dem I7, einen Q9400, sowie einen x4 gerne in die Testreihe mit einer 5850er, 5870er und der doch schon deutlich schwächeren 5770. 4 Rechner, 3 Karten 8 Projekte (oder mehr) können durchaus ein Ergebnis darstellen.
@ulv
Dein Hinweis zum Stromverbrauch finde ich ganz toll. Bei einem günstigen Board, günstigen Prozzi und günstigen Grakas sind die Betriebskosten innerhalb weniger Jahre bereits höher als die Anschaffungskosten!Frage in die Runde:
An einem Picu 160xt mit einem 190er Netzteil sollte es doch möglich sein 2 30Watt Grakas zu betreiben – der Rechner braucht Spitze um die 65 Watt. Habt ihr das schon mal probiert? Wenn ich in Geizhals schaue brauchen die GT640er jedoch alle um die 65 Watt, ihr sprecht oben vom 30 Watt – wie das?Ich könnte mir durchaus vorstellen in mein MSI Z77A-G45 an stelle der 2 5870 ein paar (nicht 2 sondern mehr) GTX 640 oder 7750er rein zu bauen. Ob wirklich 7 rein passen glaube ich nicht. 3x über PCIe x16 sind sicher kein Problem, aber die 4 über PCIe x1 brauchen doch auch noch Strom. insgesamt 7*30 Watt = 210 Watt sollte noch gehen aber 7* 60 Watt (lt. Datenblatt)= 420 Watt ist dann schon ein bisserl viel über den 2xP4 + 24Pin Stecker am Board. Auch das Netzteil mit 580Watt hat da ein bisserl Probleme da die Schienen nicht zusammengeschaltet werden können. Najy – vielleicht doch ein wenig Hirngespinst. 😆
-
15. November 2012 um 21:11 Uhr #929340
isch
TeilnehmerDas prinzip ist mir schon klar wollte nur wissen ob in diesen 4er x1 Tower Dualslot Karten passen oder nur Singleslot.
VTG01;499098 said:
@phil, @ischEs kommt immer darauf an welche Projekte gerechnet werden und welches Ziel da ist. Ein GPU-Cruncher muss einfach nur GPU-Projekte rechen können. Dummerweise brauchen die aber doch immer wieder deutlich CPU. Somit schlage ich vor die einzelnen Grakas die in Frage kommen auf mehreren Projekten zu testen und mit den “Dauerbrennern” a la 5870, GTX… zu vergleichen. So kommt man dann relativ schnell auf ein Projekt bei dem eine deutlich “schwächere” Karte bei BOINC deutlich effizienter ist als die “Dauerbrenner”. Vielleicht ist es möglich dass sich ein paar Personen an den Tests beteiligen. Ich stelle mich mit dem I7, einen Q9400, sowie einen x4 gerne in die Testreihe mit einer 5850er, 5870er und der doch schon deutlich schwächeren 5770. 4 Rechner, 3 Karten 8 Projekte (oder mehr) können durchaus ein Ergebnis darstellen.Das Problem bei den ATI 7xxx und NV 6xx Karten ist das bislang nur POEM und WCG davon Profitieren.Bei anderen Projekten sieht es dann nicht mehr ganz so rosig aus.
VTG01;499098 said:
Frage in die Runde:An einem Picu 160xt mit einem 190er Netzteil sollte es doch möglich sein 2 30Watt Grakas zu betreiben – der Rechner braucht Spitze um die 65 Watt. Habt ihr das schon mal probiert? Wenn ich in Geizhals schaue brauchen die GT640er jedoch alle um die 65 Watt, ihr sprecht oben vom 30 Watt – wie das?Ich habe eine und phil auch (siehe meine teste).Eine 7750 habe ich auch hier und wird nach der WCG Challenge ausführlich getestet.
-
16. November 2012 um 10:11 Uhr #929352
littledevil
Teilnehmerisch;499093 said:
Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Wieviel Mehrleistung haben denn die 4 Pseodokerne tatsächlich?Es kommt ja auf dei tatsächliche GEschwindigkeit an und nciht nru dei Kernanzahl, oder?P.S. was haltet Ihr vom Asus P8P67 Pro B3 ?Da hat ein bucht-Händler ne ganze Menge da. Denke mal, das man die günstig schnappen könnte – habe die grad in Beobachtung3 Karten direkt stecken und die vierte über einen Riser auf x16
-
16. November 2012 um 16:11 Uhr #929374
isch
Teilnehmerlittledevil;499116 said:
isch;499093 said:
Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Wieviel Mehrleistung haben denn die 4 Pseodokerne tatsächlich?Es kommt ja auf dei tatsächliche GEschwindigkeit an und nciht nru dei Kernanzahl, oder?P.S. was haltet Ihr vom Asus P8P67 Pro B3 ?Da hat ein bucht-Händler ne ganze Menge da. Denke mal, das man die günstig schnappen könnte – habe die grad in Beobachtung3 Karten direkt stecken und die vierte über einen Riser auf x16
Ist ja egal wie viel Mehrleistung die 4HT Kerne haben.Wenn nur die 4 echten das sind werden auch nur 4 Threads ausgeführt und somit kannst nur auf jeder Graka 1 WU laufen lassen.Asus und Stromsparen widerspricht sich doch eigentlich.
-
16. November 2012 um 21:11 Uhr #929386
isch
TeilnehmerJa cpu power wird benötigt.da bringt ein hoher takt abhielfe.Bei 2 wus hast du fast die doppelten Kredits weil eine wu die GPU kaum auslastet.
-
16. November 2012 um 21:11 Uhr #929383
littledevil
TeilnehmerHattest Du nicht geschrieben, das da recht viel CPU power benötigt wird?
wieviel weniger Output hat dieGPU, wenn nur eine WU pro GPU gerechnet wird?
Vom verbrauch her bin ich mit meinem Asus P8H61-M LE/USB3 sehr zufrieden.
Ist vielleicht kein Rekordhalter, aber man kompfortabel undervolten ohne irgendwelche MOD-BIOS Tricks… 😀
Auf nem P8P67 Pro mit nem i7 könnte man dann 4 GPUs betreiben.
Hast Du mal versucht eine Graka mit x1 zu ebtreiben, um sicher zu gehen, das der Busspeed kaum eine Rolle spielt?
-
16. November 2012 um 22:11 Uhr #929387
ulv
TeilnehmerHier mal ein Bulldozer-Board wo definitiv 4 dual-Slot-Grakas ohne Basteln laufen: http://geizhals.de/646940
AMD CPUs sind im Vergleich zu Intel ja günstig… http://geizhals.de/761214
Das wären 350€ für Mainboard und 8-Kern-CPUIrgendwie ist mir das aber nicht recht, dass wir für das Mainboard mehr zahlen als für die Grakas. Auch verbraucht hier das Board vermutlich schon so viel Strom wie zwei der Grakas. Das macht doch keinen Sinn.
Wenn wir es doch mit Single Slot versuchen. :-k
30 Watt müsste doch gehen, wenn man den Lüfter weg schraubt, die Slotbleche weg schraubt und einfach von hinten dagegen bläst. Selbst mit Slotbelch sollte das mit einem Luft-Kanal bei so einer Low-Profile Karte doch gehen – oder? 🙄
Die Sparcle z.B: http://geizhals.de/796257Vorher müsste man aber noch prüfen, ob 7 oder 8 Karten von Boinc unter Linux (bzw. Windows) erkannt werden. Bei den Nvidia unter Linux könnte ich mir das schon vorstellen, weil die ja auch ohne X-Server, Dongle etc. laufen.
Und dann bleibt noch der Stromverbrauch im Non-PEG-Slot. Die haben ja nur 25 Watt nach der Spec.
3 (bzw. 4) der Karten müsste man also modden, damit sie die 12 Volt direkt aus dem Netzteil ziehen. Das wäre aber nicht so schwer zu machen. Ganz ohne Löten ist ja dann doch langweilig. O:-)@Dirk
Soll ich mal zum testen 2 oder 3 GT610 Modden (oder GT620) und dir zum testen schicken?
@All
Hat sonst jemand ein Board mit mehr als 4 PCIe (x16 physikalisch) und möchte das testen? -
16. November 2012 um 23:11 Uhr #929385
littledevil
TeilnehmerOb ein AMD 8-Kerne es schafft, 4 Karten halbwegs sparsam zu versorgen? :-kBei nem i7 1155 sehe ich da eher ne Chance z.b. ASUS P8P67 WS Revolution Rev 3.0 – wenn es ohne basteln sein mußWobei ein Riser-kabel nu auch nicht das Problem sein sollte. Da kann man dann gleich die Stromversorgung drüber laufen lassen… ;)Wenn man eh ne Stromversorgung basteln muß und x1 genügt: ASRock H61DEL
-
16. November 2012 um 23:11 Uhr #929391
isch
TeilnehmerAMD verbraucht einfach zu viel und fällt meiner Meinung nach komplett raus (leider :-((( )@ ULV Singleslot Karten gibt es doch wie Sand am Meer.Drück mich fest.Von den 610,620 und 630 Karten rate ich ab da das nur umgeläbelte 5xx Karten sind.Die werden auch noch in 40nm Hergestellt.Bei diesem Sockel 1155 Board gibt es:5x PCIe 3.0 x161x PCIe 2.0 x161x PCIe 2.0 x1Sind also schon mehr Slots als wir brauchen.Tante Edit:Hier ist mal ein erster versuch mit Sketchup.Ich hoffe man erkennt was es sein soll.Da ich nich sie Slotabstände vom Splitter kenne habe ich den Graka Block 25cm breit gemacht.Das kann noch mehr oder weniger sein was sich ja auf das außen maß der Gehäuses auswirkt.Jetzt hat es einen Durchmesser von 1m und ist 17cm hoch.
-
17. November 2012 um 11:11 Uhr #929395
littledevil
TeilnehmerFalls man das Board tatsächlich für ~100 eur bekommt, wäre das Sapphire PURE Black P67 Hydra
sehr interessant.Bei 4 Karten und nem i7 kämen man dann etwa mit 750 EUR pro blade exl. Netzteil heraus
-
17. November 2012 um 12:11 Uhr #929396
isch
TeilnehmerJa das sollte auch gehen.Nur wie sieht es bei den Boards mit dem verbrauch aus ?Müsste man ja vorher mal testen.Soll es jetzt doch ohne Splitter werden???
-
17. November 2012 um 13:11 Uhr #929399
VJoe2max
TeilnehmerDarf ich mich da mal bezüglich des Gehäusebaus einschalten?Mit den kleinen 7,5mm Alfer-Combitech-Profilen und Verbindern habe ich in anderer Sache mal was angefangen und bin erstaunt wie schnell und doch solide man damit eine Art Gehäuserahmen bauen kann. Für nicht tragende Wände bieten sich Hartschaumplatten an. Tür tragende Wände Alu-Platten. Die Verbindung erfolgt über Vernieten oder mit Einpressmuttern und Schrauben. Das Material lässt sich ist über den Shop schnell bestellen und wenn mal was fehlt, gibt´s viele Teile auch im Baumarkt. Ein sechseckiger Grundriss mit sechs ITX-Bords um einen Mittelblock und ein weiteres größeres Sechseck außen herrum, an dem die Grakas sitzen, wäre z.B. ne feine Möglichkeit, um sogar noch mehr Ausbaumöglichkeiten zu haben. Man könnte auch nur vier oder fünf aktive Abteilungen machen und die restlichen zum Anschließen nach außen hin oder zur Frischluftversorgung nutzen. Außen rund halte ich dagegen für recht schwierig machbar. Lasst es mich wissen, wenn es an ein Grundgerüst für das Gehäuse geht, falls es denn mit einer solchen Rahmenkonstruktion machbar sein sollte. Hab da jetzt einiges an Erfahrung gesammelt und könnte evtl. entweder das ganze Grundgerüst oder zumindest den Zusammenbau beisteuern ;). Ne Kappssäge zum exakten Ablängen der Profile (auch auch auf Gehrung in versch. Winkeln) habe ich ebenfalls da. Da ich inzwischen auch nicht mehr weit von München entfernt wohne, gäbe es auch kein Versandproblem etc. (gehe jetzt mal davon aus, dass das neue Gerät wieder seinen Standort in München haben wird).
-
17. November 2012 um 14:11 Uhr #929401
littledevil
TeilnehmerSpitze Joe 🙂 6-Eck dürfte auf jeden Fall einfacher zu realisieren sein, als rund.
@isch Splitter würden ja nur bei ITX Sinn machen, da wir rein CPU-mäßig ja eh nicht mehr als 4 GPUs pro i7 Versorgen können.
Da ein Splitter + Board aber 2-3x soviel kostet, wie ein Board, wäre es gut, wenn wir drauf verzichten könnten.
Vielleicht kann ja mal jemand bzgl. Sponsoring bei der Firma anfragen [-o< Das Sapphire P67 sieht zumindest nicht so vollgefrachtet mit Zusatzoptionnen und extrem OC-Features aus - köntne sich positiv auf den Verbrauch auswirken O:-) -
17. November 2012 um 17:11 Uhr #929409
isch
Teilnehmerlittledevil;499169 said:
@isch Splitter würden ja nur bei ITX Sinn machen, da wir rein CPU-mäßig ja eh nicht mehr als 4 GPUs pro i7 Versorgen können.Jein mit etwas tricksen an der App.info kannst auch 16 WUs laufen lassen wodurch aber die Wu Laufzeiten sich verlängern.Damit das nicht passiert müsste man wieder OC was den verbrauch ja wieder nach oben Treibt.Ob man dann mehr C/W bekommt müsste man testen.Das ASRock Z77 WS hat ja 6 x16 Slot die man bestücken könnte.Dafür bräuchte man 6Kerne/Threads und man könnte 12 WUs gleichzeitig rechen.Der CPU Takt müsste dann aber auf 4GHz.Vielleicht sollten wir uns erst mal einig werden ob mit Splitter oder Boards mit vielen Steckplätzen.Dann kann man sich auch mal Gedanken ums Gehäuse machen.
-
17. November 2012 um 20:11 Uhr #929418
isch
TeilnehmerPro WU 1 Kern bei 2 Wu pro Graka =2 Kernmit etwas Tricksen in der app.info2 WU pro Graka =1 Kern den eingesparten Kern kannst aber durch OC mit hohen Takt wieder ausgleichen.
-
17. November 2012 um 20:11 Uhr #929417
littledevil
TeilnehmerBenötigt man nun pro GPU 1 oder 2 Pseodo-Kerne?
-
18. November 2012 um 11:11 Uhr #929427
littledevil
TeilnehmerWie verteilt sich das bei 6 GPU und 8 Kernen?Ich denk mal, das 4 Karten pro Blade ein gute Kompromiss sein dürften.Sind eigentlcih alle Asrock B75 sparsam?ein andere Ansatz köntne sein, ein das kompakte ASRock P75 Pro3 zu nehmen und dazu 2 preisgünstige x1 und x16 riser.Damit könnt eman die Abstände für die Belüftung entpsrechend gestalten. Evtl. kann auch eine karte obne drüber querP.S: Fall man 6 Karten sinnvoll und effizient betreiben kann: MSI Z77A-G45 + 3 x1 -> x16 riser (Da würden soagr 7 KArten gehen)
-
18. November 2012 um 12:11 Uhr #929432
isch
Teilnehmer0,125 für CPU? Sind in 20 Minuten etwa 8+2+4=14 Tasks mit 5 KartenIch schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt
-
18. November 2012 um 12:11 Uhr #929431
VTG01
TeilnehmerMit meinen Karten fahre ich zur Zeit im Verhältnis i7: 0,125 CPU: 0,25 GPU (2x5870er) braucht ca. 20-23 Minuten (Board:MSI Z77A-G45)Q9400: 0,5 CPU: 0,5 GPU (1x5850er) braucht um die 20 Minuten je Taskx4 9750: 0,25 CPU: 0,5 GPU (2x5850er) braucht um die 20 Minuten je TaskSind in 20 Minuten etwa 8+2+4=14 Tasks mit 5 Karten wobei die Karten insgesamt nur 3 Cores verwenden. Die anderen 13 Cores sind für CPU-Projekte reserviert.Daneben läuft LEIDEN bzw am i7 die MP-YOYO’s in voller Speed.Sobald es wieder WU’s für WCG gibt werde ich am i7 für WCG 4 CPU-Kerne zur Verfügung stellen.Anmerkung: unter Collatz mache ich mit der Kombi etwa 12 WU’s je Stunde = 36.000 Credits je Stunde bzw. 850.000 am Tag, daneben rennen noch 16 Cores für Leiden oder YOYO. Vielleicht schaffe ich es noch und messe den Energiebedarf für Collatz und WCG am i7. Ich habe den Eindruck, dass WCG deutlich weniger Strom benötigt (es ist kühler im Raum):p
-
18. November 2012 um 12:11 Uhr #929434
VTG01
Teilnehmerisch, welche Karte hast du und was leisten die? Ich habe in Erinnerung dass du eine NV640 und einer ATI7750 hast. Wie ist der Vergleich zwischen den beiden Karten?
Kommt es bei WCG auf den Speichertakt der Karte an? Bei Collatz ist der nahezu egal – bzw. ist nicht messbar, da zählt nur der GPU-Takt.
Bei meinen Konstruktionen ist der CPU voll beschäftigt…. Ich denke die GPU langweilt sich zwischendurch. Speziell am Beginn und am Ende geht die Auslastung weit runter – teilweise sogar auf NULL (Afterburn).
Gibt es single-slot Karten die die bevorzugen würdest?
-
18. November 2012 um 13:11 Uhr #929436
isch
TeilnehmerIst eine 7870.Speichertakt ist glaube ich egal war jedenfalls bei POEM so.GPU Takt bringt da mehr.Das die Auslastung am Anfang und ende untergeht liegt daran das da der CPU Teil berechnet wird.Für die Challange wurden bei WCG 2 WUs in einer gepackt so das CPU|Graka|CPU|CPU|Graka|CPu gerechnet wird.Hatte mich am Anfang gewundert das die bei 49,x% immer anhalten und dann nach einer weile doch wieder weiter liefen.
-
18. November 2012 um 14:11 Uhr #929441
VTG01
Teilnehmerhmm, 7870er gibt es nicht im Single-Slot Design und ausserdem ist die mir zu teuer.:roll:
-
18. November 2012 um 14:11 Uhr #929442
-
18. November 2012 um 19:11 Uhr #929446
-
18. November 2012 um 19:11 Uhr #929450
isch
TeilnehmerBei WCG sieht es so mit der 7878Hier wird grade die GPU belastet.
jetzt wird wieder die CPU gefordert.
Das ist immer ein Berg auf und Berg ab.Bei POEM sieht das etwas anders aus.Wenn mich nicht alles täuscht war bei POEM bei weniger als 3,4GHz schon deutliche Credit verluste zu spüren.Schaut mal im internen da hatte ich ja schon einige test gemacht.
ulv;499215 said:
@ischWas ist denn, aus deiner Sicht, die kleinste Intel CPU für 4 bzw. 8 Grakas der Sorte GT640?Es sollte schon der i7 3770 oder ein vergleichbarer Xeon sein.
-
18. November 2012 um 20:11 Uhr #929452
ulv
TeilnehmerSo mal die Intel Varianten:
Alle mit wenigstens 7PCIe und davon 4 mal x16 physikalisch für dual-Slot-Karten.Sockel 2011
mit Chipsatz X79:
siehe: http://geizhals.at/de/?cat=mbp4_2011&xf=2961_7#xf_top
279€ / 284€ / 322€ + Quadcore ab 244€ [SIZE=”3″]= 523 bis 566 €[/SIZE]
Sockel 1155:
siehe: http://geizhals.at/de/?cat=mbp4_1155&xf=2961_7#xf_top
mit Chipsatz P67
177€ / 181€ / 371€ + Quadcore ab 150€ [SIZE=”3″]= 327 bis 521 €[/SIZE]mit Chipsatz Z77
223€ / 262€ / 375€ / 330€ + Quadcore ab 150€ [SIZE=”3″]= 373 bis 525 €[/SIZE]Socket 1366:
http://geizhals.at/de/?cat=mbp4_1366_ddr3&xf=2961_7#xf_top
mit Chipsatz X58
425€ + Quadcore ab ca. 300€? [SIZE=”3″]= 725 €[/SIZE]Socket 1156:
http://geizhals.at/de/?cat=mbp4_1156&xf=2961_7#xf_top
mit Chipsatz i3450
258€ + Quadcore ab 179€ [SIZE=”3″]= 437 €[/SIZE] -
19. November 2012 um 8:11 Uhr #929464
littledevil
TeilnehmerIst das mit Risern so schlimm?
Von Deine Auswahl Christian, wäre das ASUS P8P67 WS Revolution noch am bezahlbarsten, aber sparsam sehen die alle nicht aus :-k
Das Sapphire PURE Black P67 Hydra ginge da auch noch. -
19. November 2012 um 15:11 Uhr #929469
ulv
Teilnehmerlittledevil;499233 said:
Ist das mit Risern so schlimm?Nö, wieso schlimm?
Ich wollte mir nur mal die Alternativen ansehen.
Die ATX verbrauchen mir aber eigentlich viel zu viel Strom. (Das geht ja bis 100 Watt Idle und 200 Watt Last 🙁 )
Und die Preise finde ich echt gesalzen. Ein 1155er ITX gibt es ja schon ab 50€!Wenn man dadurch 100 Watt einsparen könnte wäre im Vergleich zu den ATX sogar ITX mit Intel Mobil-Technik (+Splitter) möglich. 100 Watt Einsparung bei Board und CPU sind auf 2 Jahre ja auch 350€.
Damit wären wir auch mir dem Design wieder frei!So etwas:
185 + 229 + 250 (Splitter) = 664€ => 664 – 350 (Strom-Einsparung) = 300€Müsste ich mich jetzt gleich entscheiden wüsste ich es schon….
-
19. November 2012 um 18:11 Uhr #929471
isch
TeilnehmerDas ASRock Z77 WS mit einem 3770 und 6 GT640 sollte unter last nicht mehr als 300W ziehen.
Wobei ich für CPU und Board 120W rechne was aber wahrscheinlich völlig übertrieben ist.250W-260W sollten drin sein.
Die x79 Bretter kannst wahrscheinlich alle in die Tonne hauen von verbrauch her.Obwohl so ein &Kerner mit 12Threads schon was feines wäre 🙂
Wenn Interesse besteht würde ich mir mal ein ASRock Z77 WS und ein 3770/Xeon E3 1240V2/1245v2 bestellen und mit meiner einen Gt640 testen.
Wie sieht es eigentlich beim Xeon ohne Graka aus?Die brauchen wir doch nicht das ja genug andere vorhanden sind.Der wäre ja vom Preis und verbrauch her der beste.
@ ulv die Mobil Dinger sind einfach viel zu langsam.Da verschenkt man so viele Credits.Schaut mal hier da habe ich ein paar Tests mit verschiedenen Taktraten gemacht.
-
19. November 2012 um 20:11 Uhr #929482
VTG01
TeilnehmerIch schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt
Also das schaffe ich beim Besten Willen überhaupt nicht!
Ich habe mich gestern nahezu den Ganzen tag herum gespielt und versucht den i7 zu optimieren. Das Beste was ich mit 2 5870er heraus bekomme sind 10 Tasks in etwa 23 Minuten. Das Verhältnis CPU/GPU steht dabei auf 0,7/0,18. Bei 0,7/0,20 ändert sich nahezu nichts (die Sekunden habe ich im Mittel rausgeschätzt) bei 0,5/0,20 brauche ich für 10 WU’s etwa 24 Minuten. Ich habe mich für die 0,5/0,20 Lösung entschieden da ich hier 3 Tasks LEIDEN mitrechnen kann.
Ich arbeite zur Zeit mit 12.10 Catalyst Treibern, die 12.11beta traue ich mich nicht drauf spielen da ich doch einige Probleme hatte 😯Nach dem Contest kommen die 2 Karten raus – wieder in eine schwächere MAschine zum Collatz rechnen. Da wird keine CPU benötigt.
Ich bin am überlegen ob ich mir stattdessen eine AMD 7750 oder eine GT640 rein baue und damit ein bisserl GPU-Projekte mitrechne. Hintergrund ist, dass der Rechner an einer USV hängt die die 400 Watt die er jetzt benötigt nicht einmal übernehmen kann. Bei 250Watt ist da Schluß. Die Gretchenfrage ist natürlich AMD oder NVIDIA!!
Da ich davon ausgehe dass es POEM als Projekt wird – oder liege ich hier falsch – sollte man mal schauen welche Karte sich besser eignet.
Isch – hast du da schon Vergleiche gesehen/gefunden zwischen 7750er und GT640er? Wichtig ist mir Singel-Slot – eventuell passt eine low-format wie zum Beispiel ASUS oder Sparkle oder Club haben sehr geringe Bauhöhe und könnten sogar in Slot eines Blades Platz finden.
[SIZE=”3″]Mal ne Idee die man weiter verfolgen könnte:[/SIZE]
Blade ASROCK B75ITX, Splitter auf 2/3 oder 4 Grakas, Anordnung der Grakas liegend neben dem Blade. Das ITX ist 17 cm breit, die Grakas (Ohne Slotblende um die 65mm/80mm? Die Länge übersteigt die 170mm auch nicht. Ich schaffe die i7 mit boxed Kühler auf etwa 70mm zu packen, das sollte ausreichen für 3 Grakas, steigert man den Abstand auf 80mm an Stelle von 70mm für die Blades könnte man theoretisch auch 4 Grakas nehmen. Der Stromverbrauch liegt bei Vollast von 2 Blades mit einem i73770 bei 3,7 Ghz (ohne Grafik ) bei ca. 105-108 Watt was je Blade etwa 55 Watt entspricht. Versorgt von einem Pico 160xt wären da doch noch 2 Grakas mit etwa 50Watt möglich.Preis: Board etwa 80.-
Prozzi mit 4 Kernen i3: etwa 130.-
Speicher 8 GB Kingston Low-profile (nur 1 Riegel je Blade – sollte für 4 Cores reichen) ca. 35.-
macht gesamt je Blade ohne Graka knapp 245.-oder
Prozzi mit 8 Kernen Xeon: etwa 240.-
mit 8 GB und Board wie oben ein bisserl über 355.-und dann die Grakas.
Splitter habe ich leider keine Ahnung was 1 auf 2 kostet.Versteht das wer oder soll ich mal den Bleistift spitzen und eine Skizze vom Blade mit den seitlichen Grakas basteln?
-
19. November 2012 um 20:11 Uhr #929484
isch
Teilnehmer[QUOTE=VTG01;499255]
Ich schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt
Also das schaffe ich beim Besten Willen überhaupt nicht!Ich habe mich gestern nahezu den Ganzen tag herum gespielt und versucht den i7 zu optimieren. Das Beste was ich mit 2 5870er heraus bekomme sind 10 Tasks in etwa 23 Minuten. Das Verhältnis CPU/GPU steht dabei auf 0,7/0,18. Bei 0,7/0,20 ändert sich nahezu nichts (die Sekunden habe ich im Mittel rausgeschätzt) bei 0,5/0,20 brauche ich für 10 WU’s etwa 24 Minuten. Ich habe mich für die 0,5/0,20 Lösung entschieden da ich hier 3 Tasks LEIDEN mitrechnen kann.Ich habe auch noch weiter optimiert.Schaffe jetzt 30 WUs in 24min :DIch arbeite zur Zeit mit 12.10 Catalyst Treibern, die 12.11beta traue ich mich nicht drauf spielen da ich doch einige Probleme hatte 😯Und das ist mit ein Grund warum du dich nicht verbesserst.Die 12.11 Beta bringen richtig Leistung.Nach dem Contest kommen die 2 Karten raus – wieder in eine schwächere MAschine zum Collatz rechnen. Da wird keine CPU benötigt.Ich bin am überlegen ob ich mir stattdessen eine AMD 7750 oder eine GT640 rein baue und damit ein bisserl GPU-Projekte mitrechne. Hintergrund ist, dass der Rechner an einer USV hängt die die 400 Watt die er jetzt benötigt nicht einmal übernehmen kann. Bei 250Watt ist da Schluß. Die Gretchenfrage ist natürlich AMD oder NVIDIA!!Da ich davon ausgehe dass es POEM als Projekt wird – oder liege ich hier falsch – sollte man mal schauen welche Karte sich besser eignet.Isch – hast du da schon Vergleiche gesehen/gefunden zwischen 7750er und GT640er? Wichtig ist mir Singel-Slot – eventuell passt eine low-format wie zum Beispiel ASUS oder Sparkle oder Club haben sehr geringe Bauhöhe und könnten sogar in Slot eines Blades Platz finden.Nach WCG werde ich die 7750 bei POEm mal ordentlich testen und dann können wir uns entscheiden.
Mal ne Idee die man weiter verfolgen könnte:Blade ASROCK B75ITX, Splitter auf 2/3 oder 4 Grakas, Anordnung der Grakas liegend neben dem Blade. Das ITX ist 17 cm breit, die Grakas (Ohne Slotblende um die 65mm/80mm? Die Länge übersteigt die 170mm auch nicht. Ich schaffe die i7 mit boxed Kühler auf etwa 70mm zu packen, das sollte ausreichen für 3 Grakas, steigert man den Abstand auf 80mm an Stelle von 70mm für die Blades könnte man theoretisch auch 4 Grakas nehmen. Der Stromverbrauch liegt bei Vollast von 2 Blades mit einem i73770 bei 3,7 Ghz (ohne Grafik ) bei ca. 105-108 Watt was je Blade etwa 55 Watt entspricht. Versorgt von einem Pico 160xt wären da doch noch 2 Grakas mit etwa 50Watt möglich.Preis: Board etwa 80.-Prozzi mit 4 Kernen i3: etwa 130.- Speicher 8 GB Kingston Low-profile (nur 1 Riegel je Blade – sollte für 4 Cores reichen) ca. 35.-macht gesamt je Blade ohne Graka knapp 245.-oderProzzi mit 8 Kernen Xeon: etwa 240.-mit 8 GB und Board wie oben ein bisserl über 355.-und dann die Grakas.Splitter habe ich leider keine Ahnung was 1 auf 2 kostet.Versteht das wer oder soll ich mal den Bleistift spitzen und eine Skizze vom Blade mit den seitlichen Grakas basteln?[Um so mehr Blades man nutzt um so ineffizienter wird es ja.2-3 ITX/CPU/RAM verbrauchen dann ja mehr als ein ASRock Z77 WS mit einer CPU/RAM./QUOTE]
-
19. November 2012 um 20:11 Uhr #929480
littledevil
TeilnehmerLeistungsfähige Mobil-CPU sind auch nicht viel sparsamer – einzig beim Board spart man Einiges ein.
Bei Boards mit vielen Steckplätzen findet man ja leider kaum jemanden der mal in Richtung Sparsamkeit optimiert hat. In den Tests gehts ja meist um OC.
Wenn X1 genügt, wäre das ASRock H61DEL immer noch m,ein Favorit. Das hatten auch einige Bitcoiner im Einsatz.
Das ist schön kompakt, sparsam und hat 6 Pcie slot, von denen man 5 mittels x1 -> X16 Riser nutzbar machen kann. Ein Slot ist direkt x16Dazu passend wird der Intel Xeon E3-1270V2, 4x 3.50GHz vom BIOS unterstützt. Da wäre die Frage, ob sich der Aufpreis für den 1270 lohnt. Unter Features ist ” Idle States” gelistet. Haben das nicht alle?
Der E3-1240V2 schafft ja 3,8 GHz im Turbo – sollte ja ausreichen, oder? -
19. November 2012 um 21:11 Uhr #929485
VTG01
TeilnehmerIch habe auch noch weiter optimiert.Schaffe jetzt 30 WUs in 24min
Was soll ich dazu sagen –> mir drückt es die Tränen in die Augen!! :crymk: :crymk:
Und das ist mit ein Grund warum du dich nicht verbesserst.Die 12.11 Beta bringen richtig Leistung.
Ich hadere noch – muss wohl über Fernzugriff installieren, nur falls das in die Hose geht komme ich erst morgen am Abend zu Gerät – ich werfe eine Münze…
Nach WCG werde ich die 7750 bei POEm mal ordentlich testen und dann können wir uns entscheiden.
Auf das freue ich mich schon.
Um so mehr Blades man nutzt um so ineffizienter wird es ja.2-3 ITX/CPU/RAM verbrauchen dann ja mehr als ein ASRock Z77 WS mit einer CPU/RAM.
Das trifft POEM, nicht aber WCG – oder täusche ich mich da?
Nach WCG werde ich auch mal POEM auf den 5850er und 5870er testen.
-
19. November 2012 um 21:11 Uhr #929491
isch
TeilnehmerWie es bei WCG mit der GT640 aussieht weiß ich nicht aber hier sollten die ATI die Nase vorn haben.Tante Edit: Ich habe mir Grade mal die Host Stats von WCG angeschaut und die erst NV Karte ist ca auf Platz 120 und das auch nur weil es 3 x GTX 580.Der nächste ist dan ca 10 Plätze weiter hinten mit 2 GTX 580.Bis dahin sind es nur ATI 7xxx Karten.Keine 6xxx oder 5xxx auch nicht im 2 3 oder 4er Verbund.
-
24. November 2012 um 8:11 Uhr #929679
isch
Teilnehmer -
24. November 2012 um 9:11 Uhr #929681
VTG01
TeilnehmerDie ersten test mit meiner 7750 laufen und ich kann nur sagen7750
Also mir wäre das ganz recht …Kanst du ein neues Thema anfangen in dem die Test alle aufgelistet sind. Soll ich mit den 5850er und 5870 und dem i7 auch Projekte testen? Ich könnte heute bzw. morgen Grakas umstecken. Unter der Woche geht das leider nicht da der rechner nicht bei mir ist.
-
24. November 2012 um 10:11 Uhr #929685
isch
TeilnehmerJa ich kann ein neues Thema aufmachen.Bislang habe ich aber nur hochgerechnet was in 24h ercruncht wird.Was wirklich bei rum kommt werde ich in 2-3 Tagen sehen dann hat man einen vernünftigen Ansatz.
-
24. November 2012 um 15:11 Uhr #929697
isch
Teilnehmerin ca 15 Std habe ich 313000C gemacht.Sind dann 500k am Tag.Die app habe ich erst mal so pi mal Auge erstellt da muss ich noch einiges Testen.Was mir noch aufgefallen ist da waren einige WUs mit fast doppelter Laufzeit bei gleich Credits dabei.Ich weiß jetzt nicht ob das an den WU liegt oder an meiner Graka.
-
24. November 2012 um 15:11 Uhr #929696
phil68
TeilnehmerNaja… weggeben wird sich nicht lohnen. Es schadet nie sowohl NV, als auch ATI zu haben 😉
Grüße Dirk
-
24. November 2012 um 15:11 Uhr #929695
isch
Teilnehmerdie GT 640 kannst wieder weg gebenDas ganze geht aber nur mit den neuen Beta Treiber.Wie das dann wieder bei linux aussieht weiß ich nicht.Wenn wir dann das System aufbauen muss es halt mit win7 sein.
-
24. November 2012 um 15:11 Uhr #929694
phil68
Teilnehmer -
24. November 2012 um 16:11 Uhr #929699
VTG01
TeilnehmerWelche 7750er hast du zum Testen?
-
24. November 2012 um 17:11 Uhr #929700
-
25. November 2012 um 8:11 Uhr #929714
isch
TeilnehmerLeider habe ich mich mit den 500K am Tag vertan.Irgendwie läuft das auf den ATIs anders als auf den NV.Hatte ja neben bei noch Leiden laufen und das hat die ganze Sache aus gebremst.Die Leiden WUs die ich noch hatte habe ich noch zu ende rechnen lassen und dann nur noch POEM.
-
25. November 2012 um 19:11 Uhr #929743
Renovatio
TeilnehmerDann sind wir mal auf deine Resultate gespannt.
-
25. November 2012 um 22:11 Uhr #929759
littledevil
Teilnehmerisch;499489 said:
DieseWie schaut die von der Lautstärker her aus? Was ist die min Lüfterdrehzahl?
-
25. November 2012 um 23:11 Uhr #929763
isch
TeilnehmerMir war die zu laut und ich habe einen Arctic Cooling Accelero S1 Plus mit einem 120 bequiet drauf gemacht.
Muss aber dazu sagen das ich ein silent Freak bin 🙂
Lüfterdrehzahl war min 30% aber wie viel rpm das waren weiß ich nicht.
-
26. November 2012 um 18:11 Uhr #929796
ulv
TeilnehmerFinde ich total toll, dass du dich da so reinhängst. Danke!Optimierst du das System nur in Richtung Credits/Tag oder auch in Richtung Credits/Watt?Kannst du auch mal einen PCIe mit x1 probieren? Würde mich interessieren wegen dem Splitter.PS: Der gh-Wunschlisten-Link funktioniert leider nicht.
-
26. November 2012 um 18:11 Uhr #929797
isch
TeilnehmerHauptziel ist natürlich soviel Credit bei so wenig verbrauch wie möglich.gh habe ich mal geändert.Bei mir funzt der aber.Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M
-
26. November 2012 um 18:11 Uhr #929794
isch
TeilnehmerIch weiß garnicht so richtig wo ich anfangen soll.Als ersten könnt Ihr meine 500C/d Hochrechnung mal ganz schnell wieder vergessen.Die Einstellungen in der app.info waren ein Griff ins Klo und die neben bei laufenden CPU WUs haben die Sache noch verschlimmert.Dann hatte ich das Problem das er diese Nacht und Heute morgen abgestürzt ist.Ich habe jetzt mal ein paar Bios Einstellungen geändert und um 17.00Uhr eine neue Testphase angefangen.Sollte es wieder zu abstürzen kommen habe ich noch 2 andere Sachen in verdacht die ich dann halt noch mal testen muss.Danach kann ich die app.info noch mal etwas optimieren obwohl ich da im Moment keinen großen Spielraum mehr sehe.Dann mal hier ein paar Verbrauchswerte. CPU 3,7GHz GPU 800/800 app.ino 0.33/2/0.16[table “” not found /]
Die WU laufzeiten sind eigentlich 174xs und die 860K sind nur errechnet1750s:60=29,16min1440min:29=49,6549×6=294WUs294x2925C=859950Wie man sieht sollten es sogar noch etwas mehr sein.BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.Da in der Nacht aber noch ein paar CPU WUs liefen kommt das in etwa hin.Wie man sieht lastet eine GPU einen i7 @3,7GHz um die 30% aus was bedeutet das max 3 Gaka pro CPU Sinn machen.Dann habe ich da auch schon mal was zusammen gestellt.1 x Samsung SSD 840 Series 250GB, 2.5″, SATA 6Gb/s (MZ-7TD250BW)1 x Intel Xeon E3-1240V2, 4x 3.40GHz, Sockel-1155, boxed (BX80637E31240V2)1 x G.Skill DIMM 8GB PC3-12800U CL11-11-11-28 (DDR3-1600) (F3-1600C11S-8GNT)3 x Club 3D Radeon HD 7750, 1GB DDR3, VGA, DVI, HDMI (CGAX-7752Z)1 x ASRock Z77 Extreme3, Z77 (dual PC3-12800U DDR3)1 x Antec EarthWatts EA-450 Platinum, 450W ATX 2.32 (0761345-04740-1/0761345-04741-8)1 x Microsoft: Windows 7 Home Premium 64Bit inkl. Service Pack 1, DSP/SB, 1er-Pack (deutsch) (PC) (GFC-02054)Bei einem Blade macht das ca 900€ Anschaffungskosten wobei ich noch kein Gehäuse mit eingerechnet habe aber dafür eine Win7 Version. Der verbrauch sollte dann im schlimmsten Fall 200W betragen.Wobei wir dann ca 2,4Mio c/d errechnen.Hierbei habe ich aber noch nicht den geringeren Takt des Xeons bedacht (weniger verbrauch aber wahrscheinlich auch weniger C/d).GPU untervolting kommt ja auch noch dazu.ToDo:wenn ich die abstürze in Griff habe-app.info Optimieren um mehr C/D raus hohlen-mit 0,5 und 5 WUs testen-mit 3,4GHz testen (Xeon Takt)-GPU untervolten [in Afterburn leider nicht möglich)-GPU untervolten und gleichzeitig OC-GPU im x4 Slot testen da das vorgeschlagene Board 1x 3.0 x161x 3.0 x81x 2.0 x4hat-event. eine 2Graka hohlen um CPU last und c/d zu testen.Wenn noch wer was wissen will immer Fragen. -
26. November 2012 um 18:11 Uhr #929798
phil68
TeilnehmerHallo isch 🙂
Auf meinem Q9550 und der HD 6850 habe ich in der app_info.xml mit 0.5 CPU die größten Erfolge erzielt.
BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.
Selbst 800k ist für eine Karte ne echte Hausmarke :respekt:
Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M
Es reicht schon, wenn du den Vergleich zwischen x16 und x4 hast… wird sicher kaum etwas ausmachen.
Grüße Dirk
-
26. November 2012 um 19:11 Uhr #929804
isch
TeilnehmerCf wird nicht benötigt.THX für den link werde die mal beobachten.
-
26. November 2012 um 19:11 Uhr #929801
VTG01
TeilnehmerSchaut mal was da in der Bucht ist. Leider liefern die nicht nach Österreich, sonst würde ich da mitgehen…. und ob die Verpackung eine Beule hat sollte doch egal sein.PS: Ich habe gelesen dass die 7750 keine Crossfire Brücke benötigt und dennoch Crossfire läuft. Das sollte auch ein bisserl weniger “Monitorstecker” benötigen.
-
26. November 2012 um 19:11 Uhr #929799
isch
Teilnehmermit 0.5 kann ich auch mal testen bei das dann mit 3 Karten und einem i7 schon wieder schlecht aussieht.Dann müsste man auf 5 WUs senken was ich dann auch mal testen werde.
-
26. November 2012 um 19:11 Uhr #929800
isch
Teilnehmerphil68;499592 said:
Hallo isch :)Auf meinem Q9550 und der HD 6850 habe ich in der app_info.xml mit 0.5 CPU die größten Erfolge erzielt.BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.
Selbst 800k ist für eine Karte ne echte Hausmarke :respekt:
Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M
Es reicht schon, wenn du den Vergleich zwischen x16 und x4 hast… wird sicher kaum etwas ausmachen.Grüße Dirk
Wobei die 7750 kaum mehr verbraucht als die GT640 und die war ja bis zur Einführung der beta Treiber die beste GPU was c/w angeht.
-
26. November 2012 um 19:11 Uhr #929806
Sc0rp
TeilnehmerRe,
isch;499590 said:
Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75Mein einfachsten Fall einfach mit (derbem aber dünnem) Klebeband abkleben, allerdings muss man da unglaublich vorsichtig sein. Besser ist es einen PCIe x1-Riser zu nehmen (den oder einen anderen)
Sc0rp
-
27. November 2012 um 11:11 Uhr #929840
littledevil
TeilnehmerVTG01;499595 said:
Leider liefern die nicht nach Österreich, sonst würde ich da mitgehen.Wenn Du den extra Versand nacxh Ö drauf legt, kann ich die für Dich ersteigern und schicke Sie Dir dann.
Bei interesse PN. Wir sollte nur nicht alle drauf bieten, sondern uns vorher absprechen. 😀 -
27. November 2012 um 18:11 Uhr #929901
isch
TeilnehmerLeider gab es Heute morgen wieder einen Absturz.Habe dann mal auf 5WUs reduziert und immer noch 99% Graka last gehabt aber die Laufzeiten haben sich auf 1500s reduziert.Heute Mittag dann wieder einen.Habe jetzt auf 4 gestellt und die Auslastung liegt bei 97-98%.Sollte es jetzt immer noch abstürze geben weiß ich auch nicht mehr woran das liegen kann.Dadurch das jetzt nur noch 4 WUs laufen hat sich auch die CPU last auf 25%.So könnte man auch wieder 4Karten mit einem i7 betreiben.Was mich an der sache allerdings wundert das ich bei 4 WUs fast 100% und in anderen Foren sind es bei 6WU meist unter 90% ???Wie lange jetzt die Laufzeiten sind und wie viel c/d es geben wird schreibe ich später.Hatte bei 4 WUs auch wieder einen Absturz.Ich vermute mal das die CPU im Teillast Bereich durch dieses sch… offset gedönse nicht stabil ist. Dann gibt es leider schlechte Nachrichten:
Hi everybody,I have to apologize for the long period of silence regarding this topic, but I didn’t want to give any misleading information before we discussed the problem here.We are still waiting for our new server hardware, but unfortunately this won’t fix the problem here entirely.Fact is, these GPU calculations are running so rapid, that we have to evaluate real floods of information. We were talking about possibilities to send out more GPU work units, but at the moment there is no way to process it in time.I want to thank all of you for spending so much computing time. It’s absolutely okay to give your GPU power to another project now, there may be more use for it at the moment. The crystallization studies will still continue, but the follow-up projects with GPU support are not yet in a state to be sent out over the BOINC network, so the situation is not likely to get better in the near future.I hope you can understand this, and are still willing to support us.Best regardsThomas
Rechne grade meine letzten 4 WUsDie haben ca 1360s gebraucht bei 98% GPU und 25 CPU last.Verbrauch lag bei 85W.Wenn die WUs durch sind baue ich die Graka aus und rechne Leiden.
-
4. Dezember 2012 um 20:12 Uhr #930180
ulv
TeilnehmerIch würde gerne nochmal auf das Gehäuse zu sprechen kommen:
Die Lösung mit ITX Boards und (Non-GPU-) Xeon 1155 + Splitter lässt mich nicht mehr los.
VJoe said:
Darf ich mich da mal bezüglich des Gehäusebaus einschalten?Das wäre ja ein Traum. Bei deinen Qualitäten… sehr gerne. :d:
Mit den 150°-Alfer-Verbindern kann man wenn ich es richtig verstehe nur ein 12-Eck bauen, oder? Das würde vermutlich auch gut passen:
Also 6 ITX mit dem Gesicht (CPU+Kühler) nach innen um ein Netzteil und außen herum bis zu 24 Grakas. :-kRund würde mir aber schon auch sehr gut gefallen. Evtl. nur ein kleines rundes Gehäuse an dessen Rand die PCIe Steckplätze sind und die Grakas dann freifliegend drumherum in einem Gitter-Käfig, der bündig mit dem Lüfter (siehe unten) abschließt?
Ich hab jetzt auch schon einen Lüfter – ähm, besser müsste man wohl Gebläse sagen – gefunden:
http://www.ebmpapst.com/media/content/info-center/downloads_10/catalogs/update_2011_1/axial/Axialventilator_AC-HyBlade_DE.pdf
Das sind sehr sparsame Lüfter! Die gibt es mit 50cm bis fast 1 Meter Durchmesser. 😯
Kein Scherz die gibt es schon ab 90 Watt. Etwas gedrosselt sind es vermutlich nur 20-30 Watt. Total leise und zuverlässig. -
4. Dezember 2012 um 22:12 Uhr #930182
Gillian
TeilnehmerOptisch fände ich ein rundes oder auch ein 12-eckiges Gehäuse ‘richtig scharf’ 😉
Aber technsich wäre es doch sicher schlauer, wenn wir das ganze modularer aufbauen, ich kann mir nicht vorstellen, dass wir alle 24 GraKas an einem Netzteil betreiben wollen.
Oder doch?
Dann bin ich sofort für die 12-Eck Variante, kann dazu aber handwerklich kaum was beitragen 🙁
Gruß
Gunnar
-
5. Dezember 2012 um 8:12 Uhr #930186
Jabba
TeilnehmerNachdem das Thema wieder Fahrt auf nimmt, darf ich auch mal meinen Senf dazu beitragen.
Da ich ja noch aus diversen Testbauten einen 4fach PCIe Splitter habe und demnächst ein Mini ITX 1155 Board mit Xeon ins Haus steht, werde ich selbiges mit dem Splitter bestücken und testen.
Diese Splitter funktionieren nicht auf jedem Board. Bspw. können unsere Mini ITX Platinen im EMK2 nicht mit dem Splitter umgehen – wird einfach nicht erkannt. Andere µATX Boards funktionieren problemlos.
Ein Nachteil ist der Preis des Splitters, der seinerzeit bei deutlich über €200 lag. Wer schön sein will muß eben leiden.Bei der Länge der PCIe Kabel kann ich leichte Entwarnung geben. Ich konnte bereits zwei ineinander gesteckte PCIe Verlängerungen von jeweils ca. 17cm erfolgreich betreiben. Allerdings auch hier wieder die Einschränkung: geht nicht in jedem Slot, nicht mit jedem Board, nicht mit jedem Kabel. Scheinbar ist man hier am Ende der Spezifikation.
Was mir beim Bau solcher Graka-Gräber immer wieder in die Quere kam ist die Höhe der Dualslotkühler. Single Slot Varianten sind hierbei deutlich angenehmer zu verbauen und auch zu kühlen. Wahlweise auch ein Singleslot Wasserkühler.
Mal ein kleiner Praxiswert aus dem Bitcoinmining:
7 Rechner bestückt mit jeweils 4 x 5870 erzeugten trotz geschlossenem Gehäuse, 6 Lüftern je Gehäuse und zwei extern anblasenden Ventilatoren plus einer Klimaanlage eine Tischtemperatur von weit über 40°. Die Aura rund um die Rechner war nur noch als ungemütlich zu beschreiben. 😉
Kein Wunder bei 7 KW Abwärme….Gruß
Jabba
-
5. Dezember 2012 um 12:12 Uhr #930194
ulv
TeilnehmerDas hört sich vielversprechend an! Hoffentlich findet sich ein ITX wo der Splitter läuft.
Mir würde mitlerweile die Lösung mit den 6 ITX in der Mitte am allerbesten gefallen. Also die Lösung mit den CPU Kühlern nach innen. Und dem Splitter auf der Rückseite vom ITX. Das muss dann auch nicht mehr rund sein. Auf der Rückseite der ITX wären dann die 5 PCIe-Slots montiert die alle nach außen zeigen. (Je GPU wären dort etwa 4cm Platz). Das würde mit einem einzigen ITX schon funktionieren und kann dann mit der Zeit erweitert wedern bis evtl. der Stern voll wird. Das Netzteil (mehr als 1,5 kW kommt für mich nicht in Frage!) kann dann ja auch unten in eine Ecke und in die andere Ecke der Switch, SSD etc.
Wenn ich mich nicht verrechnet habe dann ginge das immer noch mit normalen PC Abmaßen also ca. 60cm Höhe, 60cm Breite und ca. 30cm Tiefe ab.Und ich will unbedingt so einen Mörder-Lüfter! 😀
-
5. Dezember 2012 um 12:12 Uhr #930193
x20011
TeilnehmerJabba;499991 said:
Mal ein kleiner Praxiswert aus dem Bitcoinmining:
7 Rechner bestückt mit jeweils 4 x 5870 erzeugten trotz geschlossenem Gehäuse, 6 Lüftern je Gehäuse und zwei extern anblasenden Ventilatoren plus einer Klimaanlage eine Tischtemperatur von weit über 40°. Die Aura rund um die Rechner war nur noch als ungemütlich zu beschreiben. 😉
Kein Wunder bei 7 KW Abwärme….Ich habe mich eben mal in das Thema bitcoinmining eingelesen.Lohnt sich das bei dem Hardware Aufwand und den stromkosten überhaupt?
-
5. Dezember 2012 um 12:12 Uhr #930195
Jabba
Teilnehmer@x20011
Seit Mitte diesen Jahres macht es kaum noch Sinn mit Grakas zu rechnen. Die Stromkosten sind einfach zu hoch. Es sei denn Du spekulierst auf massiv steigende BTC Kurse.
Ansonsten brauchst Du eine Stromflat.
Ich selbst habe bereits auf FPGAs umgestellt. Im Januar / Februar zündet die nächste Evolutionsstufe – dann kommen ASICs. -
5. Dezember 2012 um 13:12 Uhr #930196
littledevil
Teilnehmerulv;499981 said:
Das sind sehr sparsame Lüfter! Die gibt es mit 50cm bis fast 1 Meter Durchmesser. :shock:……Etwas gedrosselt sind es vermutlich nur 20-30 Watt. Total leise und zuverlässig.
hast Du die schon mal Live erlebt?
-
5. Dezember 2012 um 18:12 Uhr #930207
ulv
Teilnehmerlittledevil;500001 said:
hast Du die schon mal Live erlebt?Im Datenblatt steht 90 Watt bei 560 Umin => 50 dB(A) bei ca. 3000m³/h (1800CFM) (Bei einem Druck von 29 Pa = 2,858 Aqmm)
Zum Vergleich die 8 Lüfter vom E=mk² haben 8*3,6 Watt = ca. 30 Watt haben dabei auch schon je 38 dB(A) bei je 175 m³/h
=> Bei 8 Lüftern macht das +9bB = 47dB(A) bei ca. 700 m³/h (Bei einem Druck von 5,484 Aqmm).Den großen Lüfter kann man aber noch um einiges drosseln, wir brauchen ja nicht 3000m³/h (der E=mk² braucht ja tatsächlich auch nur so 300 m³/h)
Der große Lüfter wird gedrosselt also um ein vielfaches leiser sein als der E=mk².BTW: Die Lüfter kennst du von Klimaanlagen an jedem Supermarkt. Ich kenne die bzw. ähnliche aus dem Rechenzentrum. Ist halt ein besserer Standventilator…
-
6. Dezember 2012 um 11:12 Uhr #930233
littledevil
TeilnehmerIst das dann ein AC oder DC-Lüfter?
-
6. Dezember 2012 um 12:12 Uhr #930234
-
6. Dezember 2012 um 15:12 Uhr #930243
Jabba
TeilnehmerKann man per Kondensator machen.Dann allerdings nicht regelbar.
-
6. Dezember 2012 um 15:12 Uhr #930242
littledevil
TeilnehmerWomit willst Du die drosseln ulv?
-
6. Dezember 2012 um 16:12 Uhr #930246
ulv
TeilnehmerDie Lüfterdrehzahl kann man z.B. mit so etwas steuern:
http://www.conrad.de/ce/de/product/084529/Aber auch z.B. aller Dimmer für Hochvolt-Halogen.
-
6. Dezember 2012 um 22:12 Uhr #930256
Renovatio
TeilnehmerBin mal auf den Test des Lüfters gespannt. ^^
Wäre sicherlich eine gute Alternative gegenüber den kleineren Lüftern. -
9. Dezember 2012 um 12:12 Uhr #930354
VJoe2max
Teilnehmer@ulv: Hast natürlich recht mit den Alfer-Winkeln. Ein Zwölfeck müsste es werden. Das würde aus meiner Sicht für zwölf ITX-Boards oder µATX-baords mit je einer Karte (ITX) oder zwei Karten (µATX) sprechen. Von der Komplexität her wäre der Aufbau so sicher einfacher und weniger Fehleranfällig als mit Splittern, es könnten sich Viele mit einem ganzen System beteiligen und die CPU-Performance pro Board wäre nicht so kritisch. Insgesamt kann man auf billigere Komponenten setzen und muss nicht auf irgendwelche, wo möglich anfälligen Splitterkonstrukte zurückgreifen. Wenn das dann irgendwann nicht reicht baut man halt ein zweites Stockwerk mit weiteren zwölf ITX-Bays drauf. Das Belüftungskonzept mit einem zentralen Riesenlüfter könnte man dahingehend denke ich sogar beibehalten.
-
21. Dezember 2012 um 18:12 Uhr #930925
Obi Wan
Verwaltervor Weihnachten geht nix mehr, oder ist das Projekt bis ins nächste Jahr auf Eis gelegt ?
-
21. Dezember 2012 um 22:12 Uhr #930942
Renovatio
TeilnehmerWird sicherlich noch was dauern bis hier weitergeht. Bin mal aber gespannt auf die Recherchen. 😀
-
21. Dezember 2012 um 22:12 Uhr #930935
littledevil
TeilnehmerWir sind ja noch in der Recherchephase… 😉
Ich würde sogar behaupten, das da bis zum Penthalon noch nix fertig ist… #-o -
30. Dezember 2012 um 12:12 Uhr #931221
ulv
TeilnehmerVJoe2max;500174 said:
@ulv: Hast natürlich recht mit den Alfer-Winkeln. Ein Zwölfeck müsste es werden. Das würde aus meiner Sicht für zwölf ITX-Boards oder µATX-baords mit je einer Karte (ITX) oder zwei Karten (µATX) sprechen. Von der Komplexität her wäre der Aufbau so sicher einfacher und weniger Fehleranfällig als mit Splittern, es könnten sich Viele mit einem ganzen System beteiligen und die CPU-Performance pro Board wäre nicht so kritisch. Insgesamt kann man auf billigere Komponenten setzen und muss nicht auf irgendwelche, wo möglich anfälligen Splitterkonstrukte zurückgreifen. Wenn das dann irgendwann nicht reicht baut man halt ein zweites Stockwerk mit weiteren zwölf ITX-Bays drauf. Das Belüftungskonzept mit einem zentralen Riesenlüfter könnte man dahingehend denke ich sogar beibehalten.Sorry, für die späte Antwort. Bei mir war einfach gnadenlos viel los.Die Splitter sind von Peter ausgiebig getestet worden und laufen sehr stabil. Die sehr flexiblen auf Plastik gedruckten Leitungen sind für die Ewigkeit. Auch logisch ist der Splitter eine sehr saubere Lösung trennt er doch die PCIe x4 nur in einzelne PCIe x1 auf. Das ist kein Murks sondern mal einen schöne und Software-Transparente Lösung. Solche Splitter-Chips sind auf praktisch jedem Mainboard drauf.Zumindest Dirk und ich wollen nicht nur einen Rechner von der Stange und gerade die Splitter machen meiner Meinung nach den Unterschied so wie die PICOs und Samuel im E=mk² den Unterschied machen. Ich möchte, dass das einfach auch beeindruckend und besonders aussieht.So zum Beispiel:
Das Gehäuse könnte auch mit bis zu 6 ITX noch 12-eckig sein. Man müsste nur achten, dass alle Teile symmetrisch sind, dann kann man das so oder so ähnlich lasern oder fräßen lassen. Was denkst du, ist das machbar?Zugegeben das ist nicht die günstigste Lösung, aber das Gehäuse incl. Splittern könnte man vermutlich über mehrere Jahre so beibehalten und nur die ITX und Grakas tauschen. Schön wäre es wenn das langsam wachsen kann und auch die etwas ältere Hardware noch bei Bedarf mitrechnen kann.Mehr als 24 Grakas machen aber wohl keinen Sinn. :DIch denke, dass langfristig bei allen GPU-Projekten die CPU-Last weiter sinken wird. Die Probleme sind meiner Meinung nach nur in der Umstellungsphase gegeben. Und dann werden hoffentlich 4 GPUs auch an einer (sehr) keinen CPU laufen. Die PICOs bringen ja eh auch nur so 70 Watt! Und 12 ATX Netzteile kommen wohl nicht recht in Frage, oder?
-
30. Dezember 2012 um 12:12 Uhr #931224
isch
TeilnehmerMit den Splittern wird das bei POEM wohl nicht werden.IM P3D Forum haben einiger reichlich getestet was am meisten C/D bringt.http://www.planet3dnow.de/vbulletin/showpost.php?p=4706929&postcount=1145http://www.planet3dnow.de/vbulletin/showpost.php?p=4708146&postcount=1230http://www.planet3dnow.de/vbulletin/showpost.php?p=4710047&postcount=1275http://www.planet3dnow.de/vbulletin/showpost.php?p=4709823&postcount=1267
-
30. Dezember 2012 um 13:12 Uhr #931230
VJoe2max
TeilnehmerHmm – wären die Grakas dann die Striche außen? Da müsste dann noch was außen rum, damit die Karten nicht so frei in der Gegend rum hängen – oder?Wenn die Karten nach innen zeigen würden, wäre das kühltechnisch sicher einfacher zu bewerkstelligen. Machbar ist jedenfalls fast alles ;). Da muss man auch nicht viel fertigen lassen – höchstens zur Zeitersaprnis. Die Blechtafeln kann man sich z.B. zuschneiden lassen – ist aber mehr Zeitersparnis, als wirklich nötig. Evtl. hab ich auch bald ne Tafelshere – da hätte sich das Thema auch erledigt. Dass ein Gehäuse, welches komplett aus Alu-Profilen und Alu-Platten besteht, nicht ganz so billig, wie irgendwelche PC-Gehäuse von der Stange sein wird, versteht sich. Dafür ist das Ganze aber stabil, erweiterbar und genau auf die Hardware abstimmbar. Insgesamt sollte so eine Konstruktion auf jeden Fall deutlich billiger sein, als wenn man sich da was Individuelles komplett anfertigen lässt. Abgesehen davon kann man so auch problemlos erweitern und umbauen.Wenn ihr da schon ein konkretes Konzept im Kopf habt, sollten wir uns vllt,. in absehbarer Zeit mal treffen und die Details besprechen, oder ne kleine Planungs-Session machen ;).Wäre dann natürlich gut, wenn zumindest so ein Splitter zum Maß nehmen da wäre. Der Rest ergibt sich dann.Was die Netzteile angeht: Könnte mir durchaus vorstellen, dass man sechs oder zwölf-ATX-Netzteile formschön unterbringen kann, aber ich glaube das ist doch etwas zu viel des Guten – oder? Hinsichtlich Effizienz wird das denke ich eher schwierig.
-
30. Dezember 2012 um 13:12 Uhr #931226
schannall
Teilnehmerulv;501096 said:
Die PICOs bringen ja eh auch nur so 70 Watt! Und 12 ATX Netzteile kommen wohl nicht recht in Frage, oder?Warum nicht einfach 2 oder 3 ATX Netzteile und da dann einfach auf 4-6 Boards verteilen?
sC
-
30. Dezember 2012 um 14:12 Uhr #931237
littledevil
Teilnehmer@isch dann müsste die ja @x1 stark einbrechen, oder?
-
30. Dezember 2012 um 15:12 Uhr #931243
isch
TeilnehmerJa vermute ich.Es bringt ja nicht wenn 4 Stück @ x1 nur so viel wie zwei @ x16 schaffen.Und wenn ich das richtig sehe sind das doch nur PCIe Splitter und keine PCIe Gen3 was ja dann noch mal eine extreme Reduzierung der Bandbreite wäre.
-
30. Dezember 2012 um 16:12 Uhr #931246
littledevil
Teilnehmeralso eher in richtung 3 PCIe 3.0 x16 steckplätze pro Baord planen`
z.b. MSI Z77A-GD65
-
30. Dezember 2012 um 18:12 Uhr #931253
Lukas
TeilnehmerHi ich wollte mal fragen ob ich mich wärend den Planungen “einschleichen “dürfte und euch helfen dürfte.
Also Wir wissen jetzt dass wir ein mainboard brauchen dass wenig Strom zieht bzw keine Unnötige Funktionen haben soll , wass drei PCie x16 anschlüsse haben soll und ein i7 oder Xenon drauf soll
-
30. Dezember 2012 um 18:12 Uhr #931254
Obi Wan
Verwalterich denke Lukas, jeder ist hier willkommen 😉
-
30. Dezember 2012 um 18:12 Uhr #931257
Lukas
Teilnehmer@ Obi thxBraucht ihr vllt iw Werte von i7 3770k und ich hätte da noch ein Mainboard http://geizhals.de/749609 Halten wir jetzt noch ein einer ” runden ” Lösung fest ? und ham wir uns schon um Kühlung der Cpu befasst weil im eim geschlossenen Case wenn der Lüfter oben ned ist kann der CPU schon anfangen zu schwitzen. Ich fande die Idee mit mehreren case von jeweils 4 Gk drin sind auch ned so schlecht
-
30. Dezember 2012 um 19:12 Uhr #931263
isch
TeilnehmerHallo Lukas und Willkommen an Boarddein verlinktes Board ist ja sogar µATX was natürlich noch besser ist.Gigabyte ist leider für nicht Stromsparende Boards bekannt.Das MSI ist dagegen schon Stromsparend.Ich habe das GD55 und das liefert gute werte.
-
30. Dezember 2012 um 19:12 Uhr #931264
VTG01
Teilnehmerhmm, Auch mal ein Vorschlag von mir:
ASROCK Z77 WS,
Das Board hat einen zusätzlichen Stromamschluss für die Karten, theoretisch passen dann auch 6 Grakas Single-Slot in X16 Steckplätze rein. Theroretisch sind auch 4 Single-Slots und 2 Dualslot Karten mit extra Stromstecker möglich. Als CPU bleibt wohl nur ein 3770K über.Es stellt sich die Frage ob man auch 2 Graka Projekte parallel rechnen kann – samt definition welche Graka wo rechnet. So wäre es möglich POEM zu optimieren und parallel ein 100% GPU-Projekt zu rechnen. So wäre es sicher möglich 6 GRAKAS in einem Rechner auszunutzen.
-
30. Dezember 2012 um 20:12 Uhr #931265
ulv
TeilnehmerDass Poem mehr Punkte/Tag macht je mehr die CPU glüht verstehen wir denke ich alle. Wie gut das auch für Punkte/Watt gilt ist für mich immer noch offen.
Nix gegen Poem aber ich denke wir müssen nochmal grundlegend entscheiden ob der neue vom Design her ein 100%-GPU Rechner werden soll oder bzw. oder auch ein Poem-CPU-GPU-Hybrid.
BTW: Wenn es bei Poem einen deutlichen Unterschied zwischen Single-, Dual- und Tripple Channel RAM gibt dann ist vermutlich auch der PCIe x1 eine große Poem-Bremse.
-
30. Dezember 2012 um 21:12 Uhr #931266
isch
TeilnehmerJa Quadchannel auf einem x79 ist am schnellsten und schneller RAM bringt auch noch mal einiges.
Aber die x79er Boards/CPU verbrauch ja so viel.
Hier noch der 3930k@3,8GHz, MSI X79A-GD45 (8D), 16GB DDR1600 Quadchannel mit 3 x HD7750@900MHz.
GPU1, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
GPU2, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
GPU3, PCIe3.0 x8, mit 6WUs, GPU-Last 91%, 2230s, gibt 680k
= 2160k/Tag bei 270WHier mal mein Sys
i7 3770k 4,3GHz @ 1,176V
MSI Z77A-GD55
Crucial SATA RealSSD C300
16GB Crucial Ballistix Tactical 1600MHz @ 8-8-8-24-1T @ 1,4V
HIS Radeon HD 7870 GHz Edition @ Arctic Cooling Accelero S1 Plus mit 2 Noiseblocker NB-eLoop S-Series B12-1 @ 5V
FSP Fortron/Source Aurum Gold 400WIdle 43W-44W
Prime95 129W
8x Leiden in einer VM 110Wmacht noch 160W für 3 Grakas die aber bei weitem nicht so viel verbrauchen.
Wenn ich jetzt noch runter takten und die 7870 raus nehme bin ich bei weit unter 100W
-
30. Dezember 2012 um 22:12 Uhr #931271
littledevil
TeilnehmerNaja soviel ist das doch gar nicht. Du müßtest den 3770k ja auf über 5GHz laufen lassen, um eine vergleichbare Leistung zu erzielen… :devil:
Ich denkemal, das man mit optimeirungen da schon einiges heraus holen kann.
Habe leider immer noch keine CPU für mein GIGABYTE X79-UD3
-
31. Dezember 2012 um 11:12 Uhr #931289
Burntime
TeilnehmerWieviel CPU-Leistung bräuchte ich denn um mit 12 Grafikkarten zu Arbeiten?Würden 6 Xeon Kerne mit 2 GHZ ausreichen?
-
31. Dezember 2012 um 14:12 Uhr #931297
Lukas
Teilnehmer@above
Irgendeiner hat ausprobiert dass der 3770k mit 1 GK 30 % Auslastung hatte und mit 2 ca. 60 % ( sofern ich mich erinnern kann 😀 ) also 3 90 % und 4 waren 120 % ( geht ned ) der 37k hat 4 kerne und kann drei Gpus nutzen also müsste ( stimmt auch nicht kommt auf CPU an) der Xenon 5 schaffen. -
31. Dezember 2012 um 14:12 Uhr #931299
isch
TeilnehmerBei 2GHz verhungern dir die Grakas.Damit kannst nicht mal eine Karte ordentlich versorgen.Bei den Optimierten Anwendungen auf die ATI 7xxx und NV 6xx Karten wir auch viel CPU Power benötigt (da für diese aufgaben die GPU nicht geeignet oder zu langsam ist)
-
31. Dezember 2012 um 15:12 Uhr #931302
Lukas
TeilnehmerWirf hier mal noch eine Idee in den Raum 😀
Headpipe Kühler wird aber bei der idee nix wenn mans aus der Perspektive nimmt
Schreibt euren Komments ruhig dazu
P.S Bin nicht sehr gut in Sketchup 🙂
-
31. Dezember 2012 um 16:12 Uhr #931307
Lukas
Teilnehmer@ ulv Meinst du dass allgemein oder spezifisch auf meine Zeichnung?
-
31. Dezember 2012 um 16:12 Uhr #931304
ulv
TeilnehmerAlso ihr würde euch bitten einen eigenen Thread für einen Poem-Only-Rechner aufzumachen.
Das passt aus meiner Sicht einfach nicht zusammen!
1) Wenn die CPU 100% Last hat dann kann man die nicht sinnvoll mit einer PICO-PSU versorgen! => jedes Board braucht dann ein eigenes ATX-Netzteil => Es macht meiner Meinung nach sehr wenig Sinn mehrere ATX-Netzteile in ein Gehäuse zu stecken. => Das ist irre aufwendig und kostet dann nur extra.2) Für diesen Thread wünsche ich mir ausschließlich eine Betrachtung Credits/Watt. Die ganze EMKx Idee lebt doch gerade davon effiziente Hardware anstelle der eigenen rechnen zu lassen (und nur im Wettkampf mal dazuzufeuern.) Und die Erfahrung aus dem EMK2-Projektk ist doch auch, dass die laufenden Kosten am Ende (fast) alles sind was zählt!
-
31. Dezember 2012 um 16:12 Uhr #931308
isch
TeilnehmerDas Problem ist doch ehr welche sinnvollen Projekte brauchen bei Graka Nutzung so gut wie keine CPU???Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?Bei den Projekten sind dann auch wieder die dicken Grakas in vor teil aber die ziehen ja dann wieder so viel Strom.
-
31. Dezember 2012 um 17:12 Uhr #931315
ulv
TeilnehmerLukas;501187 said:
@ ulv Meinst du dass allgemein oder spezifisch auf meine Zeichnung?War nicht auf deine Zeichnung bezogen.
isch said:
Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?BTW: Die Meisterkühler haben bisher mehr als die Hälfte aller Credits bei PrimeGrid und Collatz errechnet. Und nur ca. 5% bei Poem.Im vergangenen Monat waren es sogar über 85% bei Prime und Collatz!Aber klar die Sinnfrage kann man hier schon stellen. Aber sind es nicht die MK-User selbst die hierauf auch die Antworten geben?Aber wenn das so ist dann also ab jetzt hier uATX und Grakas.Sind dafür dann alle Antworten schon gepostet? Oder fehlt noch etwas.Ein kleines Gehäuse mit ATX-Netzteil, uATX-Board mit Xeon, und drei Grakas + SSD?Sollen wir dazu eine genaue Kaufempfehlung geben – oder kann das jeder selber basteln.
-
31. Dezember 2012 um 17:12 Uhr #931311
littledevil
TeilnehmerSofern der P4 Strom direkt an einer 12V Schienen vom großen NT hängt, wird übers pico gar nicht so viel gezigen. Da sind eher die Grakas das Problem…
Jutn Rutsch :devil:
-
31. Dezember 2012 um 18:12 Uhr #931316
isch
Teilnehmerulv;501195 said:
isch said:
Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?BTW: Die Meisterkühler haben bisher mehr als die Hälfte aller Credits bei PrimeGrid und Collatz errechnet. Und nur ca. 5% bei Poem.Im vergangenen Monat waren es sogar über 85% bei Prime und Collatz!Aber klar die Sinnfrage kann man hier schon stellen. Aber sind es nicht die MK-User selbst die hierauf auch die Antworten geben?
Bei Collatz haben wir gestern 1,3Mio C gemacht.Davon hat Schildkroete 855k mit 5 x58xx und einer 7870 (meine ich hier mal irgendwo gelesen zu haben)Der Stromverbrauch liegt doch bestimmt bei 750W und mehr ?Mit einem POEM Blade/3Graka sollten über 2Mio drin sein.Wenn man ganz großzügig rechnet sollte ein Blade bei 200W liegen.Also C/W ist POEM zur zeit die Nummere uno.
-
31. Dezember 2012 um 20:12 Uhr #931317
ThaRippa
VerwalterNaja wenn’s ein allgemeiner Challenge-Rechner werden soll, muss genug CPU-Leistung für alle erdenklichen Aufgaben da sein. Eine Spezialisierung macht meines Erachtens nach keinen Sinn. Klar kann jeder ein Board mit 3 Grakas und einem i7 bestücken und ein ATX Netzteil dran hängen. Was ich von euch aber erwartet hätte ist ein Gehäuse mit mehreren davon oder ein modulares Design.
-
31. Dezember 2012 um 20:12 Uhr #931318
ulv
TeilnehmerAlso gut:[SIZE=”3″]Xeon CPU Sockel 1155: CPU: Quad-Core “Ivy Bridge” Fertigung: 22nm[/SIZE]263€ : Intel Xeon E3-1265LV2 (_mit_ IGP), 4x 2.50GHz, TDP 45W -> http://geizhals.de/?cat=cpuppro&v=l&sort=r&xf=25_4~2_22~4_45#xf_top225€ : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W -> http://geizhals.de/?cat=cpuppro&bpmax=&asuch=&v=l&plz=&dist=&xf=2_22~25_4&sort=r293€ : Intel Xeon E3-1270V2 _(keine IGP), 4x 3.50GHz, TDP 69W -> http://geizhals.de/778205%5BSIZE=”3″%5DMainboard: Chipsatz Z77 (uATX geht nicht recht, weil bereits der 2. PCIe dort scheinbar elektrisch immer nur 8x ist)[/SIZE]Edit: Jetzt wo die ATX auch fast alle nur 8+8 können füge ich die uATX evtl. doch noch dazu – mal sehen…ATX mit 2x PCIe 3.0 x16 + 1x PCIe 2.0 x4(x16) der ist ungefähr so schnell wie ein PCIe3.0 x2_96€: MSI Z77A-G45 -> http://geizhals.de/746836 (Im Handbuch nicht beschrieben :x; vermutlich 16, 8+8, 16+2, “8+8+2”)114€: MSI Z77A-GD55 -> http://geizhals.de/746837 (Im Handbuch nicht beschrieben :x; vermutlich 16, 8+8, 16+2, “8+8+2”) <- von isch121€: Biostar Hi-Fi Z77X -> http://geizhals.de/838352 (Im Handbuch 16, 8+8, 16+2, 8+8+2)ATX mit 3x PCIe 3.0 x16146€: MSI Z77A-GD65 -> http://geizhals.de/746838 __(Im Handbuch nur 16, 8+8, 8+4+4)162€: MSI Z77 MPOWER -> http://geizhals.de/823426 (Im Handbuch nur 16, 8+8, 8+4+4)184€: MSI Z77A-GD80 -> http://geizhals.de/756504 __(Im Handbuch nur 16, 8+8, 8+4+4)ATX mit 4x PCIe 3.0 x16*253€: ASUS P8Z77 WS______ -> http://geizhals.de/749614 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8) 358€: ASUS P8Z77-V Premium -> http://geizhals.de/771794 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8) ATX mit 5x PCIe 3.0 x16* bis 4 Grakas dual Slot (ab 5 Grakas zwei davon single Slot)215€: ASRock Z77 WS_____ -> http://geizhals.de/837323 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???) 259€: ASRock Z77 Extreme9 -> http://geizhals.de/775925 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???)[SIZE=”3″]Grafikkarte: Nvidia GT640 (GK107)[/SIZE]65-100€ -> http://geizhals.de/?cat=gra16_512&xf=1439_GT+640#xf_topjetzt auch mit 42 Watt!? -> http://geizhals.de/846273auch single Slot + low Profile -> http://geizhals.de/?cat=gra16_512&xf=1439_GT+640~1481_1~351_low+profile#xf_top* Was ich komisch finde ist, dass der Z77 eigentlich nur 16 PCIe Lanes zur CPU hat, wie kann der dann 8+8+8+8 machen -> http://de.wikipedia.org/wiki/Intel-7-Serie#Modell.C3.BCbersichtPS: Die Angaben aus dem Handbuch gelten natürlich nur für Ivy Bridge CPUs -> sonst gibt es ja gar keine PCIe 3.0!
-
1. Januar 2013 um 3:01 Uhr #931319
Obi Wan
Verwalterschade, das wir kein vb4 Forum haben, sonst würde ich dem letzten Beitrag ein LIKE verpassen.schöne Zusammenfassung UlV
-
1. Januar 2013 um 10:01 Uhr #931321
isch
TeilnehmerFrohes neues Jahr an alle
@ ulv da hast ja schon mal eine super Zusammenstellung gemacht.
263€ : Intel Xeon E3-1265LV2 (_mit_ IGP), 4x 2.50GHz, TDP 45W zu teuer und viel zu wenig Takt
225€ : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W ausreichend Takt “günstiger” Preis
293€ : Intel Xeon E3-1270V2 _(keine IGP), 4x 3.50GHz, TDP 69W viel zu teuer für 100MHz mehrDer 1240V2 ist die bester wahl von der P/L her und ein bisschen OC sollte ja auch noch gehen.
Beim Board brauchen wir nur 3 PCIE Steckplätze weil die CPU nicht mehr schafft.
Wenn ich das jetzt richtig sehe bei deiner Auflistung ist ja nur max 16+8+8 bei 3 Graka das höchst mögliche.
253€: ASUS P8Z77 WS
358€: ASUS P8Z77-V Premium
215€: ASRock Z77 WS
259€: ASRock Z77 Extreme9Vom Preis her fällt das ASUS P8Z77-V Premium ja schon mal raus.Beim verbrauch ist Asus ja eigentlich nicht die erste wahl müsste man dann halt mal testen.
Die GT640 kannst leider vergessen.Bevor ATI die neuen Treiber raus gebracht hat war die mal die beste Karte für POEM.
Die 7750er wischen mit den GT640 den Boden auf.
Doppelter Output bei nur ein paar Watt mehr.Aber Achtung diese gilt nur mit den aktuellen Beta Treibern wie das bei Linux aus sieht weiß ich nicht.
Hier noch mal SingleSlot 7750Beim RAM sollte es dann was schnelles sein
1600MHz
2x 8GB 1,35V CL9-9-9-24, very low profile <- liegen hier bei mir schon rum bin aber noch nicht zum testen gekommen. Crucial Ballistix Sport VLP
2x 8GB 1,35V CL8-8-8-24, low profile
Crucial Ballistix Tactical LP1866MHz
2x 8GB 1,35V CL11-11-11-27
Mushkin Enhanced Blackline Frostbyte -
1. Januar 2013 um 11:01 Uhr #931328
isch
TeilnehmerWaren glaube um die 40W für eine 7750
-
1. Januar 2013 um 11:01 Uhr #931324
phil68
TeilnehmerGesundes Neues Jahr 🙂
Danke für die Zusammenstellung Christian :d:
Hab zwar wenig Zeit, wollte denoch fix etwas dazu schreiben. Ich würde trotzdem die ITX Variante bevorzugen. Nur weil bei Poem der Hardwarehunger so groß ist, schmeiß ich nicht alles über den Haufen. Andere Projekte laufen super nebenher und brauchen keinen ganzen Kern dafür.
Edit: Jetzt wo die ATX auch fast alle nur 8+8 können füge ich die uATX evtl. doch noch dazu – mal sehen…
GPU1, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
GPU2, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
GPU3, PCIe3.0 x8, mit 6WUs, GPU-Last 91%, 2230s, gibt 680k
= 2160k/Tag bei 270WMit dem Mehrverbrauch der Full-ATX gegenüber ITX, kann ich 2 GT640 betreiben. Dabei kann ich in Kauf nehmen, dass die etwa nur 500k @x1 schaffen. Abgesehen davon glaube ich nicht, dass wir uns nur auf ein Projekt konzentrieren sollten. Es wäre möglich immer 2 ATI mit 2 NV zu betreiben und 2 verschiedene GPU Projekte zu rechnen. Wirklich sinnvolle Projekte gibt es leider nur für NV Karten(POEM & GPUGrid). Ich werd sicher nicht mehr Collatz oder Primzahlen berechnen… In der Anfangszeit, als wir noch zu viert oder fünft gerechnet haben, war es wichtig ein Projekt zu wählen, dass ordentlich Credits abwirft. Jetzt wo wir eine beachtliche Zahl an Mitgliedern haben, könnten wir die Projekte nach anderen Kriterien auswählen :-k
Mein Xeon 1230 V2 läuft mit 100MHz weniger als der 1240 und liegt unter 200€. Wenn das neue Board kommt, kann ich mal testen wie weit der geht. Generell sollten wir auf die IGP verzichten.
Die GT640 kannst leider vergessen.Bevor ATI die neuen Treiber raus gebracht hat war die mal die beste Karte für POEM.
Die 7750er wischen mit den GT640 den Boden auf.Hallo isch, wie sieht das bei anderen Projekten aus? Ich vermute mal, dass die 7750 ca. 50W unter Volllast braucht, was dann immerhin 20W mehr als die GT640 sind :-k Das relativiert den doppelten Output auch wieder. Ich lass mich aber gern belehren, da ich noch keine Erfahrung mit der 7750 habe.
Grüße Dirk
-
1. Januar 2013 um 12:01 Uhr #931331
isch
TeilnehmerWo für 32GB RAM ?16GB sollten doch völlig reichen.
-
1. Januar 2013 um 12:01 Uhr #931329
ulv
TeilnehmerHab mir eben nochmal ein paar X79 Mainboards angesehen. Die machen ja Quad-Channel-RAM aber dafür sind die alle (solange es nur Sandy-Bridge-CPUs dafür gibt) nur mit PCIe 2.0 unterwegs. Dann wären aber selbst die PCIe 2.0 16+16+16 nur mit PCIe 3.0 8+8+8 vergleichbar.
=> Einziger Vorteil der “doppelt” so schnelle RAM. Dafür aber langsamere PCIe und “alte” CPUs.Dann wird es langsam übersichtlicher:
225€ : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W -> http://geizhals.de/781379?v=l
215€: ASRock Z77 WS -> http://geizhals.de/837323 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???)
400€: 3-4 Stück HD 7750 Grakas: http://geizhals.at/de/?cat=gra16_512&xf=1440_HD+7750#xf_top
240€: Extrem schneller Speicher: 4x8GB DDR3 2400 CL10 -> http://geizhals.at/de/?cat=ramddr3&xf=254_2400~256_4x~1454_8192~255_10#xf_top
150€: ATX Platinum Netzteil -> http://geizhals.at/de/?cat=gehps&xf=1248_600%7E366_abnehmbare+Anschl%FCsse%7E1119_80+PLUS+Platinum#xf_top
—–
1230€ + Gehäuse, CPU-Kühler, (Lüfter für Grakas etc.)Der Speicher scheint mir dann neben der CPU das Bottleneck des Rechners zu sein. Dann darf der auch ein wenig heizen, oder?
Mit mehr als 2400 gibt es leider nur 4GB Module und das macht dann bei 4 Slots nur max 16 GB. Zu wenig?Die 4. Graka könnte man für Races bei Collatz und Prime gut brauchen.
Ob die 4 Grakas UC oder 3 Grakas OC besseres Credit/Watt Verhältnis haben müsste man auch erst noch testen. Auf die 100€ kommt es dann aber auch nicht mehr an.Ich trage mal noch die geposteten Messwerte zusammen. Evtl. müssen wir dann nix mehr ausprobieren sondern können gleich starten. Pentathlon ist ja schon im Mai. 😉
-
1. Januar 2013 um 13:01 Uhr #931336
isch
TeilnehmerPOEM brauch so gut wie nichts an RAM16GB Reichen locker.Selbst bei 8x yoyo ecm (die dicken Dinger) reicht das noch wenn wir de CPU mal bei Challenges brauchen.Tante Edit:Können die Xeons überhaupt so hohe Taktraten beim RAM?Lassen die sich überhaupt beim RAM übertakten?
-
1. Januar 2013 um 13:01 Uhr #931334
ulv
TeilnehmerVergleiche richtig zitiert:
http://www.planet3dnow.de/vbulletin/showpost.php?p=4706929&postcount=1145
http://www.planet3dnow.de/vbulletin/showpost.php?p=4708146&postcount=1230
http://www.planet3dnow.de/vbulletin/showpost.php?p=4710047&postcount=1275
http://www.planet3dnow.de/vbulletin/showpost.php?p=4709823&postcount=1267[TABLE]CPU | RAM | CPU-Load | GPU-Load | PCIe 3.0* | Grakas | Credit/Tag/Graka | Ergebnis
CPU i7 (SandyB) 6x 3,2 | ? | 50% | 97% | 8+8 | 2 x HD7750@900MHz | 790k | mit je 6 WUs, Laufzeit 32min, Verbrauch 220W.
CPU i7 (SandyB) 6x 3,2 | ? | 75% | 94% | 8+8+4| 3 x HD7750@900MHz | 702k | Laufzeit GPU 0 + GPU 1 ca 36min
|||||| 617k | Laufzeit GPU 2 ca 41min, Verbrauch 255W.
|
CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | 23% | 99% | 8 | 1 x HD7750@900MHz | 990k | Laufzeit 1530sec
CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | 50% | 97% | 8+8 | 2 x HD7750@900MHz | 855k | Laufzeit 1770sec
CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | ? | ? | 8+4 | 2 x HD7750@900MHz | 860k | GPU-0 Laufzeit 1758sec
|||||| 813k | GPU-1 Laufzeit 1860sec
CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | ? | 92% | 8+8+4 | 3 x HD7750@900MHz | 740k | GPU1, 2050s
|||||| 740k | GPU2, 2050s
|||||| 680k | GPU3, 2230s, Verbrauch bei 270W
|
CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Dual | | | 16 | 1x HD7770 (1050MHz) | 841k
CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Dual | | | 8 | 1x HD7770 (1050MHz) | 834k
CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Single | | | 16 | 1x HD7770 (1050MHz) | 614k
CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1066 Dual | | | 16 | 1x HD7770 (1050MHz) | 784k
[/TABLE]
*bei SandyB läuft nur PCIe2.0 => nur halbe BandbreiteWas gibt es da zu lernen:
PCIe:
PCIe 3.0 x16 und x8 schenken sich selbst bei einer 7770 fast nix.
PCIe 3.0 x8 und x4 machen aber einen Unterschied auch bereits bei der 7750. => -5% bis -12% CreditsRAM: Bereits bei einer Graka (HD7770):
Single Channel RAM (-50% Bandbreite) => -27% Credits
RAM mit 1333 zu 1066 (-20% Takt) => -7% Credits
Je stärker die CPU belastet wird je kritischer wird logischerweise der RAM werden. -
1. Januar 2013 um 13:01 Uhr #931333
VJoe2max
TeilnehmerWürde es vllt. Sinn haben eine Hälfte mit nVidia-Karten und die andere Hälfte mit AMD-Karten auszustatten, um für versch. Projekte immer gut gewappnet zu sein und sich so nicht zu sehr zu spezialisieren? Oder ist das von der Aufgabenverteilung her schwierig?
-
1. Januar 2013 um 13:01 Uhr #931335
ulv
Teilnehmerisch;501211 said:
Wo für 32GB RAM ?
16GB sollten doch völlig reichen.Flexibilität oder Poem only?
Wie viel RAM brauchen denn 4*6 Poem WUs?
Wenn das wenig ist, dann sollten wir den schnellsten RAM für das Board kaufen, den wir kriegen können:
4x4GB DDR3 2800MHz -> http://geizhals.de/847539
(Das Board kann angeblich sogar bis 3000MHz) -
1. Januar 2013 um 14:01 Uhr #931337
-
1. Januar 2013 um 14:01 Uhr #931338
littledevil
TeilnehmerIch hoffe Ihr habt schön gefeiert und seid gut rein gerutscht O:-)
Ist ja schon ein wildes Treiber hier :respekt:
@isch wieviel CPU power wird pro 7750 benötigt? Mehr Output als Gt640 würde ja heißen, das auch mehr CPU power nötig ist, oder?Grundsatzfrage wäre, welchen fertigstellungstermin wir anpeilen.
„Ivy Bridge-EN/EP“ mit bis zu 12 Kernen bei 130 Watt TDP scheint ja erst im Herbst zu kommen, aber man kann ja den Rest schon vorher fertig machen und dann die CPU tauschen -
1. Januar 2013 um 15:01 Uhr #931341
Lukas
Teilnehmersry ganz ganz dumme idee 😀 aber was is mit Haswell oder dauert dass zu lange?
-
1. Januar 2013 um 15:01 Uhr #931344
isch
Teilnehmerlittledevil;501218 said:
Ich hoffe Ihr habt schön gefeiert und seid gut rein gerutscht O:-)Ist ja schon ein wildes Treiber hier :respekt:@isch wieviel CPU power wird pro 7750 benötigt? Mehr Output als Gt640 würde ja heißen, das auch mehr CPU power nötig ist, oder?Grundsatzfrage wäre, welchen fertigstellungstermin wir anpeilen. „Ivy Bridge-EN/EP“ mit bis zu 12 Kernen bei 130 Watt TDP scheint ja erst im Herbst zu kommen, aber man kann ja den Rest schon vorher fertig machen und dann die CPU tauschenBei 6Wus habe ich ca 30% CPU last auf meinem i7NV WUs brauchen mehr CPU als ATI.Auf einer GT 640 kannst aber nur 4 WUs laufen lassen.Im Endeffekt nimmt sich das nichts.
-
1. Januar 2013 um 15:01 Uhr #931343
ulv
Teilnehmerisch;501216 said:
Können die Xeons überhaupt so hohe Taktraten beim RAM?Lassen die sich überhaupt beim RAM übertakten?In einem Forum scheint es so beschrieben zu sein.
Wenn nicht dann halt ein i7-3770K, 4x 3.50GHz -> http://geizhals.de/761779
Der i7-3770K kann es mit Sicherheit! -> http://www.intel.com/content/dam/www/public/us/en/documents/datasheets/core-i7-memory-suppliers-datasheet.pdfMit Intel XMP 1.3 geht es eigentlich direkt bis 2800. Ist schon ein großer Unterschied ob 1600 oder 2800! Vor allem dann, wenn es hauptsächlich auf die RAM-Performance ankommt. Das könnten 30% mehr Credits sein.
-
1. Januar 2013 um 16:01 Uhr #931348
isch
TeilnehmerIst es den möglich mit einem NT 2 Boards zu betreiben?@ ulv ja mit dem K würde das ja dann wieder gehen.Eventuell könnte man auch noch auf die neuen Haswell CPUs warten die sollen ja noch mal Effizienter sein als die IBs
-
1. Januar 2013 um 16:01 Uhr #931351
littledevil
Teilnehmerisch;501224 said:
Bei 6Wus habe ich ca 30% CPU last auf meinem i7D.h. 3 Karten pro Board? Mit nem i7 3770k @4,3GHz
Oder einen 6 Kerner @3,8 GHz mit 4 Karten? -
1. Januar 2013 um 16:01 Uhr #931353
ulv
Teilnehmerphil68;501204 said:
Hallo isch, wie sieht das bei anderen Projekten aus? Ich vermute mal, dass die 7750 ca. 50W unter Volllast braucht, was dann immerhin 20W mehr als die GT640 sind :-k Das relativiert den doppelten Output auch wieder. Ich lass mich aber gern belehren, da ich noch keine Erfahrung mit der 7750 habe.In diesem Post (3. Zeile der Tabelle) siehst du, dass die dritte 7750 nur 25 Watt mehr gebraucht hat. Auch wenn das evtl. nicht ganz genau stimmt ist die 7750 um einiges besser als die GT640. Selbst wenn die auch nur ähnlich sind vom Credit/GPU-Watt dann ist das doch immer besser, wenn wir weniger Hardwareteile, Kühler, etc. brauchen.
phil68 said:
Mit dem Mehrverbrauch der Full-ATX gegenüber ITX, kann ich 2 GT640 betreiben.Der i7 im ATX-Board ist bei Poem mit 3x 7750 dann vermutlich fast so schnell wie 6 oder gar 10 GT640@x0.5 (der Splitter ist ja nur PCIe 2.0) im ITX mit Splitter.
Ich würde für den Splitter und das Design schon mehr zahlen, aber wenn dann zusätzlich noch die Performance stark leidet dann will ich nicht mehr.
Und so viel Strom kann das ATX-Board doch auch nicht mehr brauchen als ein ITX mit gleicher CPU, RAM und Chipsatz, oder?
Wenn das alles klappt dann macht der Rechner 2,5k/Tag bei ca. 200 Watt.
Und MK.de macht dann gleich mehr als doppelt so viel Credits/Tag als bisher.
Und wenn alles doch nicht so funktioniert stellen wir alles schnell auf ITX um. (Nur das Mainboard ist dann übrig)VJoe2max said:
Würde es vllt. Sinn haben eine Hälfte mit nVidia-Karten und die andere Hälfte mit AMD-Karten auszustatten, um für versch. Projekte immer gut gewappnet zu sein und sich so nicht zu sehr zu spezialisieren? Oder ist das von der Aufgabenverteilung her schwierig?Das sollte ja alles trotzdem noch gehen. Es könnten ja sogar gleichzeitig noch drei weitere Grakas in den Rechner (solange die nicht auch Poem rechnen wollen).
Oder doch lieber zusätzlich zwei Splitter mit je 4 Grakas. 😀isch said:
Ist es den möglich mit einem NT 2 Boards zu betreiben?Die einzig saubere Lösung sind, meiner Meinung nach, die PICOs aber die gehen ja so recht nur bis 70 Watt.
Ein Mörder-Board und nur ein einziges OS ist doch auch viel einfacher. Auch weil die aktuelle Hardware vermutlich erstmal mit Windows doch besser läuft. -
1. Januar 2013 um 16:01 Uhr #931352
isch
TeilnehmerAuf dem normalen i7 @3,7GHz
-
1. Januar 2013 um 17:01 Uhr #931357
ulv
TeilnehmerBurntime;501236 said:
Und beim EMK2 “einfach” Grafikkarten mit flexiblen Risern nachzurüsten wäre nichts?Das ist mit den PICOs schwierig, die können eigentlich nicht noch zusätzlich 25 bis 35 Watt ab.Dann müssten wir wieder am Gehäuse arbeiten, Kabel legen, die Riser müssten alle einzeln mit Strom versorgt werden, für das Netzteil ist es eigentlich jetzt schon zu knapp, etc.Die Software mit der wir momentan die Blades verwalten kommt auch nicht mit Grakas klar und und und.=> Never touch a running system. Besonders wenn es so gut läuft!
-
1. Januar 2013 um 17:01 Uhr #931358
VTG01
TeilnehmerMal ein kleiner Aufruf:Wir rechne (ich denke es sind 3 Personen) bei einer Collatz Challenge mit.Wäre mal ganz nett wenn ihr eure GT’s und 7750 und alle anderen mal ein bisserl Collatz rechnen lasst und mal notiert was die Karten so schaffen. So hätten wir auch gleich einen Vergleich was als 2. Projekt noch möglich ist und vor allen was an Credits zu erwarten sind.PS: Dauer nur mehr bis 03.01.2013 0:00 Uhr, also – lasst es krachen!!Zum Rest:Ich schätze dass die Stromversorgung der Grakas nicht so einfach werden wird – wobei 3 sicher möglich sein sollten, bei 5 Karten im Board die alle 60 Watt brauchen ist das sicher nicht mehr so einfach (3 für POEM, der Rest >90% GPU_Power)
-
1. Januar 2013 um 17:01 Uhr #931354
Burntime
TeilnehmerUnd beim EMK2 “einfach” Grafikkarten mit flexiblen Risern nachzurüsten wäre nichts?
-
1. Januar 2013 um 18:01 Uhr #931360
isch
Teilnehmer6 Graka sind auch kein Problem von der Stromversorgung.Die Boards haben einen zusätzlich Moles anschluss.Ich bekomme meine 7xxx Karten bei Collatz nicht zum laufen und mit einer NV brauch man erst gar nicht anfangen.Schau mal hier wie lange eine GT640 braucht.Dann kannst ja mal mit deinen 58xx Karten vergleichen.Und hier noch 7750er.
-
1. Januar 2013 um 20:01 Uhr #931365
littledevil
Teilnehmerulv;501239 said:
=> Never touch a running system. Besonders wenn es so gut läuft!Sehe ich ganz genau so :d:Das mit den zusätzlichen Grakas finde ich auch gut. dann sind es eben 3 Poem optimierte Grakas und der Rest hängt dann per x1 dran:z.b. MSI Z77A-GD65 + Xeon E3-1230V23x PCIe 3.0 x16, 4x PCIe 2.0 x1+G.Skill TridentX DIMM Kit 32GB PC3-12800Ualternativ das größere MSI Z77 MPOWER mit ATX 6-pin Power ConnectorWelche Projekte könnten wir mit Optimalen Credit/Watt-Verhältnis mit den 4x x1 karten bedienen?Wenn Poem Grad nicht Mode ist, kann man 7 Karten rechen lassen und die CPU ein CPU ProjektP.S. Falls die Stromversorgung keien Problem ist und 2 *schnell + einmal x4 auch für Peom genügt: MSI Z77A-G45
-
1. Januar 2013 um 22:01 Uhr #931369
isch
TeilnehmerDer link vom RAM ist falsch.Wir wissen ja noch nicht ob die Xeons den schnellen RAM unterstützen.Und 32GB finde ich etwas übertrieb.Außer einem höheren Stromverbrauch bringen 4 Riegel doch nicht.Die IB unterstützen doch nur Dualchannel.Das mit den anderen Grakas an den x1 Slots ist eine gute Idee.Da könnten ja dann GT640 rein und GPUGRID rechnen wenn die nicht viel CPU brauchen und sich das mit den kleinen Grakas lohnt.
-
1. Januar 2013 um 22:01 Uhr #931370
ulv
TeilnehmerBei mehr als 4 Grakas bleiben aber noch viele Fragen offen.Peter hat das glaube ich mal versucht aber das BIOS, Windows bzw. die Treiber sehen das so nicht direkt vor. Auch der BOINC-Client muss ja damit umgehen können.Irgendwie sollten wir das jetzt aber mal in Angriff nehmen:Variante 1) Erst mal RAM und CPU + ITX, eine GT640 und eine 7750Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750Oder es bastelt jemand los, der schon einen i7 oder Xeon ein Z77-Board oder eine Graka hat. Dann würde es noch etwas billiger für den Anfang.Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.
-
1. Januar 2013 um 23:01 Uhr #931372
phil68
TeilnehmerIch möchte nochmal kurz darauf hinweisen:
Abgesehen davon glaube ich nicht, dass wir uns nur auf ein Projekt konzentrieren sollten. Es wäre möglich immer 2 ATI mit 2 NV zu betreiben und 2 verschiedene GPU Projekte zu rechnen. Wirklich sinnvolle Projekte gibt es leider nur für NV Karten(POEM & GPUGrid).
Ein reiner POEM Cruncher wird uns z.B. beim Pentathlon und anderen Races nix bringen :-k
In diesem Post (3. Zeile der Tabelle) siehst du, dass die dritte 7750 nur 25 Watt mehr gebraucht hat. Auch wenn das evtl. nicht ganz genau stimmt ist die 7750 um einiges besser als die GT640. Selbst wenn die auch nur ähnlich sind vom Credit/GPU-Watt dann ist das doch immer besser, wenn wir weniger Hardwareteile, Kühler, etc. brauchen.
Das trifft eben aber nur auf POEM zu! Meiner Meinung nach sollte die Kiste, wie oben schon genannt, auch für andere Projekte tauglich sein! Bei PG Challenges z.B. kommt man mit der ATI nicht sehr weit…
Aber egal, ich hab sowieso vor in der nächsten Woche ein neues µATX Board und eine 7750 zu ordern, um mir selbst ein Bild zu verschaffen. Danach bin ich dann(vielleicht) schlauer. Einen x1 Riser hab ich hier auch noch, sodass ich:
Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750
Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.abdecken kann 😉
Bei mehr als 4 Grakas bleiben aber noch viele Fragen offen.
Peter hat das glaube ich mal versucht aber das BIOS, Windows bzw. die Treiber sehen das so nicht direkt vor. Auch der BOINC-Client muss ja damit umgehen können.Soweit ich mich erinnere, gab es da Probleme!
Mal ein kleiner Aufruf:
Wir rechne (ich denke es sind 3 Personen) bei einer Collatz Challenge mit.
Wäre mal ganz nett wenn ihr eure GT’s und 7750 und alle anderen mal ein bisserl Collatz rechnen lasst und mal notiert was die Karten so schaffen. So hätten wir auch gleich einen Vergleich was als 2. Projekt noch möglich ist und vor allen was an Credits zu erwarten sind.PS: Dauer nur mehr bis 03.01.2013 0:00 Uhr, also – lasst es krachen!!
Ich hatte meine Rechner umgeschwenkt, da das mit der Anmeldung nicht so recht geklappt hatte bin ich nach 2 Tagen wieder auf andere Projekte ausgewichen.
Grüße Dirk
-
2. Januar 2013 um 7:01 Uhr #931375
littledevil
TeilnehmerOb BOINC mehr als 4 GPUs ansprechen kann, ist natürlich die Frage. Windows kann es wohl scheinbar.Sofern Peter seiner Miner noch am Start hat, könnte er es ja mal checken… [-o<@isch was ist am RAM-LInk falsch? Ich denke DDR3-1600 geht auf jeden Fall??Bis auf das 2011er Board habe ich grad keins, das mehr als 4 PCIe Steckplätze hat und dafür fehlt mir noch die CPU
-
2. Januar 2013 um 12:01 Uhr #931383
ulv
Teilnehmerlittledevil;501258 said:
Ob BOINC mehr als 4 GPUs ansprechen kann, ist natürlich die Frage. Windows kann es wohl scheinbar.Kann es scheinbar aber nur zum Bilder ansehen und nicht für Boinc! Wenn du weiter liest dann steht dort, dass (zumindest) die AMD-Treiber das wegen einer Windows-Beschränkung nicht können.
Unter Linux scheint es aber zu gehen. 😎 -
2. Januar 2013 um 13:01 Uhr #931389
ulv
Teilnehmerphil68 said:
Aber egal, ich hab sowieso vor in der nächsten Woche ein neues µATX Board und eine 7750 zu ordern, um mir selbst ein Bild zu verschaffen. Danach bin ich dann(vielleicht) schlauer. Einen x1 Riser hab ich hier auch noch, sodass ich:Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.
Das ist ja super! =D>Du könntest auch das Gigabyte GA-Z77MX-D3H nehmen?[TABLE]MBoard | Format | PCIe 3.0 | PCIe 2.0 || 1 Graka | 2 Grakas* | 3 Grakas* | 4 Grakas* ASRock Z77 Pro4-M | uATX | 16 | 4+1+1 || 16 | 16+2 | 16+2+0,5 | 16+2+0,5+0,5Gigabyte GA-Z77MX-D3H | uATX | 16 , 8+8 | 4+1|| 16 | 8+8 | 8+8+2 | 8+8+2+0,5[/TABLE]* alles umgerechnet auf PCIe 3.0 SpeedGut zum testen wäre das ASRock evtl. sogar besser geeignet, weil einer der PCIe 2.0 x16 elektrisch nur x1 ist und du so einfach den Splitter-Speed messen könntest. Da du ja aber einen PCIe-x1-Riser hast geht das auch in dem Gigabyte.Für den Dauerbetrieb wäre das Gigabyte klar im Vorteil. 2 Grakas mit PCIe 3.0 x8 und ein Splitter (oder 3. Single-Slot-Graka) in PCIe 2.0 x4. Von den Slots würde man das selbst bei 2x Dual-Slot + Splitter einfach stecken können.So etwas wäre doch auch insgesamt eine nette Alternative mit 2x Poem PLUS 2-5 x Grakas für GPU-Only. Dann geht normaler RAM ein billigerer Xeon – eigentlich alles nur Vorteile. Vorausgesetzt der Splitter läuft. :-kOder eines dieser hier? Das Gigabyte GA-Z77MX-D3H ist nur das billigste.http://geizhals.de/749617, http://geizhals.de/746848, http://geizhals.de/764690Mann, die sind alle bei gh.de so blöd einsortiert da muss man jedes mal aufs Bild und ins Handbuch schauen. x(
-
2. Januar 2013 um 18:01 Uhr #931413
VTG01
TeilnehmerMal eine Idee die etwas günstiger (in Österreich etwa 465.-ohne Netzteil) ist als die oben genannte:
1 x Intel Core i3-3220, 2x 3.30GHz, boxed (BX80637I33220) (deutlich günstiger als ein i7-3770)
1 x Crucial Ballistix Tactical LP DIMM Kit 16GB PC3-12800U CL8-8-8-24, low profile (DDR3-1600) (BLT2C8G3D1608ET3LX0CEU)
2 x Club 3D Radeon HD 7750, 1GB DDR3, VGA, DVI, HDMI (CGAX-7752Z) (single slot, wobei auch Dualslot möglich sein sollte Gigabyte Radeon HD 7750 OC).
1 x ASRock Z77 Extreme4-M, Z77 (dual PC3-12800U DDR3)Nun die Fragen:
– Packt das noch eine PicoPSu? (160xt)
– Schafft die CPU 2 Karten in POEMEventuell ist mit einem “Blade” Aufbau die Leistung auch skalierbar, soll heissen 3 oder 4 Boards in einem Gehäuse (Eigenbau) sollten liegend möglich sein.
-
2. Januar 2013 um 19:01 Uhr #931428
isch
Teilnehmerlittledevil;501258 said:
@isch was ist am RAM-LInk falsch? Ich denke DDR3-1600 geht auf jeden Fall??Bis auf das 2011er Board habe ich grad keins, das mehr als 4 PCIe Steckplätze hat und dafür fehlt mir noch die CPUEs steht G.Skill Tridentx und verlingt sind Crucial Ballistix Tactical@ ulv Hardware ist bei mir genug vorhanden.MSI z77 GD55 mit i7 3770K und einer ATI 7870 so wie 2 x 8GB Crucial Ballistix Tactical CL8-8-8-24-1T 1600MHzASRock B75 Pro3-M i7 3770 @ 3,7GHz 2x 8GB G.Skill Ares CL10-10-10-30 DDR3-1600 mit Intel Onboard GrakaDann liegt hier noch eine ATI 7750,NV GT640 und eine NV GTX660TI rum Ab Mitte Januar habe ich Urlaub und damit auch einiges an Zeit zum testen.Ihr müsst nur sagen was ich zusammen Schustern soll und welche Projekt.Es ist auch kein Problem mit beiden Rechnern gleichzeitig zu testen.@ VTG01 der i3 ist mit 2 Karten bei POEM schon überfordert.Eine Karte lastet meinen i7 zu 30% aus was 2,66 Kerne sind.Klar kann man auch den i3 nehmen und weniger WUs laufen lassen was aber die Effizienz verringert.Und so viel Sparsamer als ein i7 wird der auch nicht sein.
-
2. Januar 2013 um 20:01 Uhr #931431
ThaRippa
VerwalterHab heute einiges über die GT640 gelesen. Sie kann wohl ihre vielen Streamprozessoren kaum ausspielen, weil es sie nur mit DDR3 gibt. Das soll sich wohl auch bei BOINC und PhysiX (für die zwei Anwendungen würd ich meine kaufen, und damit meine 7950 wieder Zero-Core kann) bemerkbar machen. Mich würd nun interessieren, wie sehr sich der Speichertakt der 640er auswirkt, bzw, was da “drin” ist. Aufschlussreich wäre ja z.B. wenn die nie voll Ausgelastet ist bei manchen WUs.
-
2. Januar 2013 um 20:01 Uhr #931432
ulv
Teilnehmerisch;501317 said:
@ ulv Hardware ist bei mir genug vorhanden.MSI z77 GD55 mit i7 3770K und einer ATI 7870 so wie 2 x 8GB Crucial Ballistix Tactical CL8-8-8-24-1T 1600MHz
ASRock B75 Pro3-M i7 3770 @ 3,7GHz 2x 8GB G.Skill Ares CL10-10-10-30 DDR3-1600 mit Intel Onboard Graka
Dann liegt hier noch eine ATI 7750,NV GT640 und eine NV GTX660TI rumAb Mitte Januar habe ich Urlaub und damit auch einiges an Zeit zum testen.Ihr müsst nur sagen was ich zusammen Schustern soll und welche Projekt.
Das ist ja perfekt! :d:
Kannst du dir noch ein oder zwei solche x1 – Riser kaufen?
z.B.: http://www.amazon.de/dp/B003Y3M2DS Datenblatt: http://www.delock.de/produkte/G_89159/merkmale.htmlMich interessiert hauptsächlich was der x1 Riser für Einbußen bei Poem hat <- das vor allem im Hinblick auf Credit/Watt und ob dadurch auch die CPU-Last sinkt, man also dann mehr von den Grakas einbauen kann. Es könnte ja sein, dass 6 GT640/7750 unter Poem gedrosselt auf deinem Board ganz OK laufen würden. Evtl. sogar mehr Credits/Watt und Credits/Tag machen als das doppelt so teure Board mit 3 GT640/7750. Vom Preis wäre das dann fast kein Unterschied für eine Prime-Challenge wäre der Unterschied aber enorm. Ansonsten wäre noch ein Vergleich von der GT640 mit der 7750 bzgl. Prime, Collatz und Poem jeweils Credit/Watt sehr interessant. Da bist du ja ohnehin schon dran. Wenn du das gleich fix und fertig testen willst dann können wir dir auch noch zwei GT640 oder zwei 7750 schicken. Möchtest du das?
-
2. Januar 2013 um 21:01 Uhr #931435
konfetti
TeilnehmerHi – also auch unter Windows hab ich 4 GPUs für Boinc zum laufen bekommen, auf dem MSI K9A2 Platinum hab ich 2 4850er, ne 9800GTX und eine 8600GT laufen gehabt – mit nem Dualcore und 4GB RAM – GPU-Auslastung bei >95% pro Karte. – Einzige Voraussetzung bei den ATIs war der Fake-Display Adapter um selbige für Boinc Aktiv zu haben – 100Ohm Widerstände in dem VGA-DVI-Adapter ham ja gut funktioniert ;)an der 9800GTX hing ja der Monitor und bei der 8600GT gings auch so.
-
2. Januar 2013 um 21:01 Uhr #931433
littledevil
Teilnehmerulv;501266 said:
Unter Linux scheint es aber zu gehen. 😎Läuft das GPU-Cruchen unter Linux mit alle Projekten?
Wäre es denkbar das System mit 4 x 7750 und 3 x GT 640 zu bestücken?
Das MSI Z77 MPOWER könnte man dann mit 4 güsntigen x1 Riser-Verlängerungen bestücken und per 6pin das Mainboard mit Strom unetrstütztenbzgl. Riser wären die sehr günstig und gut um die Grakas gut zu positionieren : Neu! PCI-E-Kabel 1x bis 16x Riser Extender Card SCN-0047
-
2. Januar 2013 um 21:01 Uhr #931439
-
2. Januar 2013 um 21:01 Uhr #931434
isch
TeilnehmerWie funktioniert das mit den Riser.Stecke ich die in den normalen x16 Slots?Dann würden beim B75 z.B. 2 Stück rein gehen und beim z77 3Wenn ich noch ein paar Karten mehr bekomme wäre nicht schlecht.Dann würde ich mir 3 von den Riser bestellen.
-
2. Januar 2013 um 21:01 Uhr #931436
littledevil
TeilnehmerAch Isch Du hast ja sogar das MSI Z77A-GD55 :d:
Nehme mal an, das ist gut im Verbrauch? O:-)Bestell Dir doch am besten gleich 4 von den günstigen Risern dazu 😎
Wieviele Grakas hast Du denn?
Habe leider keine 7750 oder 640er. GT240 o.ä. könnte ich Dir aber zum testen schicken, falls das etwas bringt.
-
2. Januar 2013 um 23:01 Uhr #931445
ulv
Teilnehmerlittledevil;501323 said:
bzgl. Riser wären die sehr günstig und gut um die Grakas gut zu positionieren : Neu! PCI-E-Kabel 1x bis 16x Riser Extender Card SCN-0047Lieferbar in 30 Tagen? :-k
Hat jemand noch GT640 oder 7750 übrig zum testen oder sollen wir gleich welche kaufen?
-
3. Januar 2013 um 12:01 Uhr #931466
littledevil
Teilnehmerulv;501335 said:
Hat jemand noch GT640 oder 7750 übrig zum testen oder sollen wir gleich welche kaufen?Peter habe ich zumindest jeweils eine geschickt – weis aber nicht, ob die übrig sind :fresse:
Wenns schneller gehen soll: Extender Riser Flex Kabel PCI-E PCIe x16-Karte x1-Slot -
3. Januar 2013 um 12:01 Uhr #931468
ulv
Teilnehmerisch;501352 said:
Dann lohnt sich das ja nicht.können wir die riser die ulv verlinkt hat dann im neuen cruncher gebrauchen?
Dann würde ich die 4 bestellen und dann spendenZum testen würde eine oder zwei davon sicherlich reichen.
Den Riser steckst du einfach dazwischen. Die Stromversorgung ist komplett durchgeschleift. Nur die zusätzlichen Lanes fehlen.
Wenn du Glück hast geht sogar das Gehäuse noch zu. Sind ja nur 2cm extra.Wenn die Karten auch mit x1 einigermaßen laufen dann kommt am Ende wohl die Splitter Lösung mit ITX oder uATX (wenn der Splitter in einem Z77 Board läuft) und dann brauchen wir die Riser am Ende wohl nicht mehr. Ich denke wir sollten erst mal versuchen die Fakten zu klären und dafür reicht vermutlich ein Splitter – außer du möchtest zwei GT640/7750 gleichzeitig an x1 testen.
Wenn du dir Grakas wünschen darfst was hättest du den gerne?
-
3. Januar 2013 um 12:01 Uhr #931462
isch
TeilnehmerDann lohnt sich das ja nicht.können wir die riser die ulv verlinkt hat dann im neuen cruncher gebrauchen?Dann würde ich die 4 bestellen und dann spenden
-
3. Januar 2013 um 12:01 Uhr #931469
littledevil
TeilnehmerJa, einer von den teuren würde wohl genügen…
Welchen Vorteil hätte matx +splitter vs. ATX mit Riser? -
3. Januar 2013 um 13:01 Uhr #931470
isch
TeilnehmerDann bestelle ich die heute Abend 2xWenn ich noch eine 7750 bekommen könnte wäre das i.O.Wenn es eine 640 ist muss ich halt alle ati treiber löschen und nv treiber installieren
-
3. Januar 2013 um 13:01 Uhr #931472
ulv
Teilnehmerisch;501359 said:
Dann bestelle ich die heute Abend 2xWenn ich noch eine 7750 bekommen könnte wäre das i.O.
Dann kauf doch eine http://geizhals.de/823961 auf meine kosten. Geld per PN.
littledevil said:
Welchen Vorteil hätte matx +splitter vs. ATX mit Riser?Ob die Grakas überhaupt in einem normalen PCIe x1 laufen ist doch noch gar nicht klar! Die müssen ja keine 30-50 Watt über den PCIe liefern. Du erinnerst dich das hatten wir alles schon mal. Auch ist nicht klar ob das BIOS, Board oder sonst mit eine Graka in irgend einem x1 klar kommt.
(Hier sind die Nvidia zumindest unter Linux besser, weil man da keinen laufenden X-Server bzw. Bild braucht.)
Normalerweise muss es ein eigens mit PEG bezeichneter Slot sein.wikipedia said:
Ein PCI-Express-Steckplatz kann das daran angeschlossene Gerät mit Strom versorgen. Laut Spezifikation beträgt die gelieferte Leistung für einen gewöhnlichen Steckplatz wie bei PCI maximal 25 Watt, für Low-Profile-Karten höchstens 10 Watt und bei einem PEG-(PCIe-x16)-Steckplatz maximal 75 Watt.Für ein ATX Board voll mit z.B. acht Grakas musst du die Machbarkeit erst noch zeigen.
Die Splitter Lösung läuft bei Peter ja schon, weil dann die Grakas alle vom Splitter mit Strom versorgt werden.
Und ja, es gibt diese billig Riser, die leider auch so gelötet sind. Die könnte man alle einzeln auf externen Strom umfrickeln – das auch nur zur Erinnerung. -
3. Januar 2013 um 14:01 Uhr #931479
Jabba
TeilnehmerDie PCIe Verlängerungen gibt es uch mit separater Stromversorgung.Ob x1 oder x16 macht für die Performance kaum einen Unterschied.Es hängt primär davon ab, wieviel die Graka mit der CPU kommuniziert. Bei Bitcoin reicht ja bspw. eine serielle Verbindung, um die Recheneinheiten zu versorgen. Da gehen nur ein paar Steuerdaten und die Ergebnise drüber.Bei den BOINC Projekten sollte für die meisten GPU Projekte ebenfalls eine x1 Verbindung reichen. -> testen!Als Indikator für ein testwürdiges Projekt würde ich mich anhand der CPU-Last orientieren. Wenn dort eine hohe CPU Last auftritt, kann das ein Hinweis sein, daß es zwischen den beiden richtig abgeht. Sollte es aber abwechselnd zu hoher CPU und GPU Last kommen, dann muß wohl die CPU erst wieder ein paar Daten bereitstellen, bevor die GPU wieder tätig wird.Sollte man beim Testen also beides im Auge behalten.Ich hoffe, daß ich nächste Woche ein paar Tests beisteuern kann, die das Funktionieren des Splitters mit ein paar kleinen 640ern und 7750ern beweisen.GrußJabba
-
3. Januar 2013 um 14:01 Uhr #931474
littledevil
TeilnehmerMeien GTX 550 + 5830 liefen zumindest problemlos über x1, aber das kann auch zufall sein. Ums testen kommen wir natürlich nicht herum.
25W sind doch für die kleinen Karten ausreichend, oder?
Riser oder Board mit entsprechender Zusatzversorgung soltle ees aber schon sein.
Dachte das mit dem Umlöten ist für Euch Lötprofis kein Ding 😉
Wenn man sich in den ganzen Bitcoin-Foren umschaut, scheint das mit dem Riser ja zu klappen… -
3. Januar 2013 um 17:01 Uhr #931484
isch
TeilnehmerAuf welchem Board soll ich jetzt testen mit welchem Takt CPU/RAM?Grakas lasse ich erst mal so laufen.Dann Bestelle ich nachher diese Riser und @ ulv soll es die Graka sein?Die SingleSlot gibt es doch schon viel günstiger.Ich habe z.B. diese hierTante Edit:wenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?
-
3. Januar 2013 um 17:01 Uhr #931485
phil68
Teilnehmerwenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?
Hi isch, klar testen schadet nicht 😉 Interessant ist ja auch, wie der Unterschied zwischen:
- PCIe 2.0 x 16 vs. PCIe 3.0 x 16
- PCIe 3.0 x 16 + PCIe 2.0 x 4 vs. PCIe 3.0 x 8 + PCIe 3.0 x 8
usw. ausfällt!
Grüße Dirk
-
3. Januar 2013 um 17:01 Uhr #931483
phil68
TeilnehmerHier geht es aber ab 😯
Du könntest auch das Gigabyte GA-Z77MX-D3H nehmen?
Sorry, zu spät, hatte dann auch gleich bestellt. Das Paket liegt heut schon beim netten Nachbarn zur Abholung bereit. Wenn ich es schaff, kann ich morgen schon ein paar Tests(PCIe 2.0/3.0/x4/x1 danach diverse Projekte) fahren.
Test-Hardware:
- 1 x Xeon 1230 v2
- 2 x GT640
- 1 x HD 7750
- 1 x ASRock Z77 Pro 4M
(x1 Riser vorhanden/altes Asus H61 auch noch vorhanden)
Mich würd nun interessieren, wie sehr sich der Speichertakt der 640er auswirkt, bzw, was da “drin” ist. Aufschlussreich wäre ja z.B. wenn die nie voll Ausgelastet ist bei manchen WUs.
Das kommt auf das Projekt an. Generell würde ich da aber zum schnelleren Ram greifen! Gerade z.B. Poem scheint von der Anbindung zu profitieren.
Die 7750 scheint es auch in verschiedenen Ausführungen zu geben.Ob x1 oder x16 macht für die Performance kaum einen Unterschied.
Das dachte ich auch immer… scheint aber auch abhängig vom Projekt zu sein. Mal sehen was bei unseren Testläufen raus kommt.
Grüße Dirk
-
3. Januar 2013 um 20:01 Uhr #931489
littledevil
TeilnehmerDa wäre ein BOINC-Basteltreffen ideal. Wenn jeder seine 7750 + GT640 mit bringt, hätten wir schon den test-PC zusammen 🙂
-
4. Januar 2013 um 8:01 Uhr #931496
ulv
Teilnehmerisch;501373 said:
@ ulv soll es die Graka sein?Die SingleSlot gibt es doch schon viel günstiger.Ich habe z.B. diese hierIch hab die Graka ausgesucht, weil die den schnelleren Speicher und weniger Stromverbrauch (laut Datenblatt) hat. Meinem Gefühl nach sind die Spannungswandler auf den kleineren Karten auch die besseren. Du kannst dir aber auch eine andere aussuchen, aber bitte nicht nur nach dem Preis.Kennst mich ja, für ein Watt weniger gehe ich einen weiten Weg. Die Low-Profile Karte kann man ja auch zusammen mit dem Delock-Riser relativ einfach noch festschrauben, mit den normalen wird das vermutlich schwieriger.
isch;501373 said:
Tante Edit:wenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?Könnt ihr zwei evtl. mal telefonieren?Das Testen ist ja doch aufwendig. Evtl. könnt ihr euch das geschickt aufteilen:Phil68 mit allen GT640 gegen isch mit allen 7750. 😀
-
4. Januar 2013 um 9:01 Uhr #931497
ThaRippa
VerwalterHat schon jemand eine GT640 mit DDR5 aufgetrieben? Der DDR3 soll die ja ohne Ende ausbremsen.
-
4. Januar 2013 um 10:01 Uhr #931501
isch
TeilnehmerBei POEM bringt schneller Graka RAM nichts.@ ulv dann werde ich deine nehmen so sehen wir gleich ob die sparsamer sind.
-
4. Januar 2013 um 11:01 Uhr #931505
konfetti
Teilnehmerhttp://geizhals.de/839721Die hat die selben Werte, aber noch die Info “ZeroCore Power (3W)” – was auch immer diese 3W dann sind – leider volle Bauhöhe.. – und nochmal schnelleren RAM, auch wenn der ja nix bringt 😉
-
4. Januar 2013 um 13:01 Uhr #931510
Jabba
TeilnehmerBei vielen Projekten bringt schnellerer RAM tatsächlich nichts, außer Wärme. Bspw. konnte ich bei Bitcoin den RAM auf 187 MHz takten.Im Gegenteil, RAMtakt runter, GPU Takt hoch. Es ist idR sogar ein höherer GPU Takt möglich als mit StandardRAMtakt, da weniger Abwärme von den RAMs kommt.
-
4. Januar 2013 um 14:01 Uhr #931513
isch
Teilnehmerzero core sollte eigentlich jede 7xxx karte haben.was uns aber auch nichts bringt da unsere ja schufften sollen und nicht faul rum liegen:)Tante Edit:siehe letzten PostHabe mal eine Einstein@Home ATi WU laufen lassen.3808s Prime Grid PPS (Sieve) ati 9,612.s
-
5. Januar 2013 um 8:01 Uhr #931569
isch
TeilnehmerLeider bekomme ich keine WUs mehr.Nach 10Std und 10min hatte ich 415.382C errechnet.macht in 24Std 980.573C
-
7. Januar 2013 um 16:01 Uhr #931514
isch
Teilnehmersieh aktuellen Post weiter unten.
-
7. Januar 2013 um 17:01 Uhr #931692
isch
Teilnehmerulv;501591 said:
Sehr übersichtlich, Danke isch! :d:So richtig aussagekräftig wird es wohl erst mit wenigstens 2 Grafikkarten. Die teilen sich ja schließlich den RAM und dann sollte man das deutlicher merken. (Ich nehme an das war jetzt immer nur eine 7750, oder?)Ja immer nur eine Graka
littledevil;501594 said:
Sehr schön isch. Der takt schein ja wichtiger als die Latenz zu sein. Wie hoch könntest Du bei CL11 Takten?Habe ich nicht getestet bekomme doch den 2400MHz RAM dann sehen wir weiter.Und Formula ist auch wieder Online und wir sind sogar auf Platz 28 und nicht 38
-
7. Januar 2013 um 17:01 Uhr #931691
Lukas
Teilnehmerschön isch,Wie viele Gk wollen wir jetzt pro Rack nehmen ?
-
7. Januar 2013 um 17:01 Uhr #931693
phil68
TeilnehmerSauber isch :d:
Ich hatte ein paar Probleme mit meinem Setting… Wenn man beim Asrock die PCIe auf Standard stellt, wird der mit x16 2.0 gefahren 😡 Hab jetzt das neueste Bios drauf und Gen3 gewählt. Jetzt hab ich auch PCIe 3.0 x16. Allerdings scheint das bei POEM kaum einen Unterschied zu machen.
app.Info Einstellung 6 WUs CPU 0.33 GPU 0.125
Hatte ich auch mal probiert, danach sind die Credits total in den Keller gegangen! Ein Wert unter 0,5 CPU scheint nicht sinnvoll.
Ich schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:
- Xeon@3,5GHz
- Ram@1333 9-9-9-24-1T
- app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16
Ich werd dann als nächstes mal @ x1 testen.
Bei den Intel Specs noch folgendes gefunden:
- XEON PCI Express Configurations: 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4
- I7 3770k PCI Express Configurations : 1×16, 2×8, 1×8 & 2×4
Das kann doch nicht sein :-k Das würde ja heißen, dass beim i7 nur 3 Karten möglich sind. Hier der Link: http://ark.intel.com/products/65523/Intel-Core-i7-3770K-Processor-8M-Cache-up-to-3_90-GHz
Grüße Dirk
-
7. Januar 2013 um 17:01 Uhr #931690
littledevil
TeilnehmerSehr schön isch. Der takt schein ja wichtiger als die Latenz zu sein. Wie hoch könntest Du bei CL11 Takten?
-
7. Januar 2013 um 17:01 Uhr #931687
ulv
TeilnehmerSehr übersichtlich, Danke isch! :d:
So richtig aussagekräftig wird es wohl erst mit wenigstens 2 Grafikkarten. Die teilen sich ja schließlich den RAM und dann sollte man das deutlicher merken. (Ich nehme an das war jetzt immer nur eine 7750, oder?)
-
7. Januar 2013 um 18:01 Uhr #931697
littledevil
Teilnehmerphil68;501597 said:
- XEON PCI Express Configurations: 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4
- I7 3770k PCI Express Configurations : 1×16, 2×8, 1×8 & 2×4
Bei 2600k sind es auch nur 16 Lanes :-kVielleicht ist da auch nur die Anbindung ohen Zusatzchips gemeint?
The PXE switch Gives the z77 the ability to do 48 lanes but manufactures have programmed them to use 32 as in the case of z77
Evtl. wird da der gnaze Traffic gebündelt, aber wnen alle gPUS gleichziet die Bandbreite benötigen wird es zu Engpaß
-
7. Januar 2013 um 18:01 Uhr #931694
isch
TeilnehmerIch schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:
Xeon@3,5GHz
Ram@1333 9-9-9-24-1T
app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16Da hakt doch bei dir irgendwas.Zeigt den GPUZ auch PCIe 3.0 x16 an.
Du fährst ja auch mit 100MHz mehr und gibst auch mehr CPU pro WU und der 1333 RAM sollte doch kein 150K ausmachen.Hast du Dualchannel?
Wie sieht es den mit der CPU lasst aus?
Wie lange läuft eine WU von den 6?
Welche Graka hast und wie sieht es mit dem Stromverbrauch aus?Eben sind die beiden x1 Riser gekommen 🙂
-
7. Januar 2013 um 20:01 Uhr #931707
phil68
Teilnehmerisch;501598 said:
Ich schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:
Xeon@3,5GHz
Ram@1333 9-9-9-24-1T
app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16Da hakt doch bei dir irgendwas.Zeigt den GPUZ auch PCIe 3.0 x16 an.
Du fährst ja auch mit 100MHz mehr und gibst auch mehr CPU pro WU und der 1333 RAM sollte doch kein 150K ausmachen.Hast du Dualchannel?
Wie sieht es den mit der CPU lasst aus?
Wie lange läuft eine WU von den 6?
Welche Graka hast und wie sieht es mit dem Stromverbrauch aus?Eben sind die beiden x1 Riser gekommen 🙂
Hi isch 🙂
- GPUz zeigt PCIe 3.0 x16 an
- Ram läuft im Dual Channel
- CPU Last liegt zwischen 90% und 100% ( POEM,SIMAP und Climate Prediction auf 8 Kernen) sollte normal sein.
- Eine WU braucht ca. 2060s
- Graka ist eine Club 3D HD7750 GDDR5 1024MB
- Verbrauch liegt unoptimiert bei ca. 100W
Grüße Dirk
-
7. Januar 2013 um 21:01 Uhr #931710
isch
TeilnehmerSIMAP und Climate PredictionDie werden das ganze aus bremsen.Lass mal ein Kern frei.
-
8. Januar 2013 um 11:01 Uhr #931731
phil68
TeilnehmerHat auch nix gebracht…
-
8. Januar 2013 um 11:01 Uhr #931734
isch
TeilnehmerUnd wenn du nur POEM laufen lässt?
-
8. Januar 2013 um 20:01 Uhr #931769
isch
TeilnehmerHeute ging es dann weiter.Da die 2te Graka Heute schon kam und der RAM noch auf sich warten lässt gibs schon Tests mit 2 Grakas.Den Riser habe ich auch getestet07.01idle 28,5W-29WLoad 8x FM@H 57,5WClub 3D Radeon HD 7750, 1GB DDR3eine einzelne Wu dauert bei 0,33 CPU 1300sGPU Takt ist immer 800MHz[table “” not found /]
08.01[table “” not found /]
Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.*Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.**Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.***Und das ganze noch mal mit 200MHz mehr.______________________________________________________________PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.______________________________________________________________Beide Grakasidle 40W[table “” not found /]
+Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.+117W @ 60C120W @ 74C122W @ 76C++121W @ 75C+++118,5W @ 74C++++123W @ 76C______________________________________________________________Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.ich versuche die CPU Last auf max 33% zu haltenapp.Info Einstellung 4 WUs CPU 0.5 GPU 0.25app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142 -
8. Januar 2013 um 20:01 Uhr #931778
VTG01
TeilnehmerTolle Testreihe! :respekt::respekt:
Dabei fällt auf, dass bei 2 Grakas die Credits doch um einiges geringer je Karte ausfallen als mit einer Karte. Hast du mit der Club 3D Radeon HD 7750, 1GB DDR3 bereits über mehrere Tage POEM gerechnet? Was mich noch interessiert ist, hast du die 7870er auch schon einmal getestet – oder läuft die unter POEM nicht. :+
Du schreibst
idle 28,5W-29W
Load 8x FM@H 57,5Wich denke das ist bei 3,4 Ghz ohne Graka – oder?
kannst du dich noch an den Verbrauch unter Leiden erinnern? -
8. Januar 2013 um 21:01 Uhr #931786
ulv
Teilnehmerisch;501675 said:
PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.Sorry, da hatte ich ja gar kein gutes Händchen. Kannst du evtl. einen anderen größeren Lüfter gegen die Karte blasen lassen?Oder möchtest du den Kühler austauschen? http://www.caseking.de/shop/catalog/Grafikkarten/VGA-Kuehler-Heatpipes/Alle-VGA-Kuehler:::10452_120_602.html
isch;501675 said:
Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.Hattest du den Riser im gleichen Slot wie vorher oder einem anderen? Die Stromversorgung sollte eigentlich durchgeschleift sein.Nur um sicher zu gehen sollten wir evtl. auch noch einen der Delock-Riser testen!
-
8. Januar 2013 um 21:01 Uhr #931788
phil68
TeilnehmerNach dem nochmaligen installieren der Intel Treiber(k.A. ob es daran lag) und dem Anhalten der anderen Projekte, komme ich jetzt auf ca. 900k :d:
@isch
Klasse Arbeit :respekt:Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.
Da sollte an der Seite ein 4Pin Molex dran sein, den musst du mit Strom versorgen.
Meine WUs(1400) reichen noch ein paar Tage.
Grüße Dirk
-
8. Januar 2013 um 21:01 Uhr #931791
isch
Teilnehmer@ ULV eine weitern Lüfter dagegen ist kein Problem aber wenn ich den Kühler tausche hat man ja wieder eine Dualslotkarte.
Das mit dem x1 Riser können wir so was von vergessen.
[table “” not found /]
+65W @ 65C
@phil wie kommst du auf 1400? bei mir hat er bei 800 gemeckert das ich genug habe und nichts mehr bekomme. -
8. Januar 2013 um 21:01 Uhr #931781
isch
TeilnehmerVTG01;501684 said:
Tolle Testreihe! :respekt::respekt:Dabei fällt auf, dass bei 2 Grakas die Credits doch um einiges geringer je Karte ausfallen als mit einer Karte. Hast du mit der Club 3D Radeon HD 7750, 1GB DDR3 bereits über mehrere Tage POEM gerechnet? Was mich noch interessiert ist, hast du die 7870er auch schon einmal getestet – oder läuft die unter POEM nicht. :+Du schreibstidle 28,5W-29WLoad 8x FM@H 57,5W
ich denke das ist bei 3,4 Ghz ohne Graka – oder?kannst du dich noch an den Verbrauch unter Leiden erinnern?
Ja hat mich auch gewundert.Aber sobald der RAM etwas schneller ist steigen die C ja gleich wieder an.Komisch ist auch das die CPU Last so extrem hoch geht.Ja hatte mal in Oktober oder November schon mal getestet aber mangels wu dann wieder eingestellt.Da hatte ich über 800K nach einem Tag.Die 7870 hatte ich auch schon mal getestet die war aber nicht besonders.Vielleicht hatte ich nur noch nicht die richtigen Einstellungen gefunden.Kann die aber noch mal testen.Die Verbrauchswerte waren bei 3,4GHz und mit 7750er.Leiden teste ich gleich noch mal.Stelle den POEM Test für heute eine da die WUs bei mir langsam knapp werden und es gibt schon wieder keine neuen.
-
8. Januar 2013 um 22:01 Uhr #931792
ulv
TeilnehmerSchön langsam dämmert es mir: Die WUs sind vermutlich zu groß für den Speicher der Grafikkarten. Und dann geht alles über den PCIe, CPU und RAM.
Sollen wir mal eine 7750 mit 4GB wagen? Oder hat schon jemand eine?Hier mal die 7750er mit 4GB (DDR3)
-> http://geizhals.de/?cat=gra16_512&xf=1440_HD+7750~132_4096#xf_topOder hat jemand eine GT640 mit 4GB?
-> http://geizhals.de/?cat=gra16_512&xf=132_4096~1439_GT+640#xf_top -
8. Januar 2013 um 23:01 Uhr #931794
isch
TeilnehmerIch habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.
-
9. Januar 2013 um 10:01 Uhr #931798
ulv
Teilnehmerisch;501700 said:
Ich habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.Ist das der Verbrauch im Mainboard-RAM oder in der Graka selber.?
-
9. Januar 2013 um 10:01 Uhr #931515
isch
Teilnehmerulv;501704 said:
isch;501700 said:
Ich habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.Ist das der Verbrauch im Mainboard-RAM oder in der Graka selber.?
Das ist der Graka RAM ausgelesen mit GPUZ.Der normale Arbeitsspeicher hat bei 2x8GB eine Auslastung von rund 26%
-
9. Januar 2013 um 14:01 Uhr #931799
Lukas
Teilnehmer@isch Heißt des wir müssen jetzt wieder in Richtung MB denken die möglichst viel pcie haben und phil hat ja gesagt dass der 3770k nur 1×16, 2×8, 1×8 & 2×4 also max 3 Gk unterstützt siehe http://ark.intel.com/products/65523/Intel-Core-i7-3770K-Processor-8M-Cache-up-to-3_90-GHz
-
9. Januar 2013 um 14:01 Uhr #931800
isch
TeilnehmerNein Brauchen wir nicht.Alles was unter x8 ist bricht viel zu stark ein.Da selbst di Xeons nur 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4 haben würde das MSI GD55 reichen
Eigentlich macht es auch keinen Sinn mehr als 2 7750 zu betreiben.Die CPU last bei 2 Karten steigt doch mer an als ich erwartet hätte.
-
9. Januar 2013 um 15:01 Uhr #931801
phil68
Teilnehmer@phil wie kommst du auf 1400? bei mir hat er bei 800 gemeckert das ich genug habe und nichts mehr bekomme.
Ich hab den Arbeitspuffer auf:
- Minimaler Arbeitspuffer: 2 Tage
- Max. zusätzlicher Arbeitspuffer: 9 Tage
Die Batch fragt Arbeit 2 x pro Min ab 😯 Nicht gerade die feine englische… aber wenn man anders keine Arbeit bekommt!
Eigentlich macht es auch keinen Sinn mehr als 2 7750 zu betreiben.Die CPU last bei 2 Karten steigt doch mer an als ich erwartet hätte.
Ich frag mich auch, was denn nun die CPU so belastet! Andere Projekte sind da in Sachen GPU-WUs besser aufgestellt und laufen prima nebenher! Sobald ich Climate Prediction zusätzlich auf 4(CPU)Kernen laufen lasse, gehen die Laufzeiten der POEM WUs in den Keller… 1680s vs. 3000s (900k vs. 505k) Da macht es kaum Sinn andere Projekte nebenher laufen zu lassen. 4 Grafikkarten machen eigentlich nur Sinn, wenn man mit denen(2) andere Projekte rechnet. Leider bleibt dann nur WCG(HCC) und GPUGrid.
Grüße Dirk
-
9. Januar 2013 um 15:01 Uhr #931802
isch
TeilnehmerIm Taskmanager wir eine Prozess Namens NT Kernel & System mit 17-18% angegeben.Wenn ich eine Graka wieder aus baue habe ich das nicht mehr.HCC kannst leider auch vergessen baucht auch ordentlich CPU. Wie sieht es den bei GPUGrid mit der GT640 aus und was raucht die an CPU?
-
9. Januar 2013 um 16:01 Uhr #931804
Jabba
TeilnehmerKannst mal meine Stats bzgl. GPUGrid anschauen. Ich habe in den letzten Tagen GPUGrid auf einer GT640 mit Standardtakt und 2 x Leiden gerechnet.
Siehst auch in den Teamstats. -
9. Januar 2013 um 17:01 Uhr #931806
isch
TeilnehmerHeute sind die beiden 2×4 GB 2400MHz RAM Riegel eingetroffen.07.01idle 28,5W-29WLoad 8x FM@H 57,5WClub 3D Radeon HD 7750, 1GB DDR3eine einzelne Wu dauert bei 0,33 CPU 1300sGPU Takt ist immer 800MHz[table “” not found /]
08.01[table “” not found /]
09.01[table “” not found /]
Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.*Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.**Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.***Und das ganze noch mal mit 200MHz mehr.****app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142 neuer RAM______________________________________________________________PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.______________________________________________________________Beide Grakasidle 40W[table “” not found /]
09.01[table “” not found /]
+Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.+117W @ 60C120W @ 74C122W @ 76C++121W @ 75C+++118,5W @ 74C++++123W @ 76C- 118W @ 72C app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166– 118W @ 71C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142—118,5W @ 73C app.Info Einstellung 8 WUs CPU 0.5 GPU 0.125—-121,5W @ 72C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142—– 123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142[table “” not found /]
+65W @ 65C______________________________________________________________Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.09.01ich versuche die CPU Last auf max 33% zu haltenapp.Info Einstellung 4 WUs CPU 0.5 GPU 0.25app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142 -
9. Januar 2013 um 19:01 Uhr #931811
littledevil
TeilnehmerWahnsinns Testparcour :respekt:
isch;501719 said:
Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.Kannst Du mal versuchen die vom Takt auf min zu flashen?
-
9. Januar 2013 um 20:01 Uhr #931814
isch
TeilnehmerNe flashen tu ich nichts.
-
9. Januar 2013 um 20:01 Uhr #931818
-
9. Januar 2013 um 20:01 Uhr #931815
littledevil
TeilnehmerHast Du zum gegenteste eine Karte, die unter Vollast serh wenig benötig ? z.B. 15W
-
9. Januar 2013 um 20:01 Uhr #931817
isch
TeilnehmerKönnte die GT640 morgen mal versuchen.Soll ich sonst noch was testen?
-
9. Januar 2013 um 21:01 Uhr #931820
isch
TeilnehmerIst nett gemeint :d: aber eine Dualslot bekomme ich nicht mehr aufs Mobo.
Ich habe vorhin noch eine SingleSlot mit 4GB bestellt :x:D
-
9. Januar 2013 um 21:01 Uhr #931821
FanStar
TeilnehmerIm Zweifelsfall einfach nochmal melden, würde sie zur Verfügung stellen.
-
10. Januar 2013 um 8:01 Uhr #931829
isch
Teilnehmerich denke das ist bei 3,4 Ghz ohne Graka – oder?kannst du dich noch an den Verbrauch unter Leiden erinnern?
Hier erst mal mein SysCPU: 3770K 3,4GHz @ 0.864VRAM: 2x8GB Crucial Ballistix Tactica 1900 9-9-9-27-1T@ 1,505V [das sind nicht die LP Riegel)MoBo: MSI Z77A-GD55 alles an Stromsparoptionen im Bios anGraka: Club 3D Radeon HD 7750 mit Arctic Cooling AcceleroNT: FSP Fortron/Source Aurum Gold 400WSSD: Crucial RealSSD C300 128GBLüfter: 4x120erund dann hier Verbrauchswerte mit der 7750idle 28.3W8x Leiden 56,6WPrime 95 75,3W
-
10. Januar 2013 um 11:01 Uhr #931830
phil68
TeilnehmerHier noch ein paar Tests von mir:
[TABLE]Projekt |Graka|Anbindung|Laufzeit in Sec|Credits pro Tag|Bemerkung|CPU-Last in %|Verbrauch in W
POEM|HD7750(6WU)| x16 3.0| 1630|930.000|Single|40|100
POEM/POEM|HD7750(6WU)/GT640(3WU)|x16 3.0/x1 2.0|2300/4800|660.000/ 157.950|Verbund|80|131
POEM/POEM|HD7750(6WU)/GT640(3WU)|x16 3.0/x4 2.0|2300/2690|660.000/282 .000|Verbund|80|138
POEM/GPUGrid|HD7750(6WU)/GT640(1WU)|x16 3.0/x4 2.0|1880/19660|805.000/35.700|Verbund|53|144
[/TABLE]Man sieht hier recht gut, dass andere Projekte die CPU kaum belasten. Also könnte man jeweils 1 HD7750 mit 2 oder 3 anderen Grafikkarten auf einem Board betreiben, muss aber dann die zusätzlichen Karten andere Projekte(wenig CPU Last) rechnen lassen. Berechnungen auf der CPU fallen dann leider auch weg… es sei denn man rechnet kein POEM. Welche Projekte sich dafür eignen, müsste man testen. GPUGrid scheint sich auf der GT640 nicht wirklich zu lohnen. Selbst wenn man die LongRuns auswählt, kommt man nur auf 50k pro Tag. Eine GTX 690 macht etwa 300k pro Tag, eine GTX650ti etwa 160k.
Ich könnte aber noch einen Test mit einer zusätzlichen GT640 fahren!? (1x HD7750 + 2 x GT640)
Grüße Dirk
-
10. Januar 2013 um 12:01 Uhr #931833
isch
TeilnehmerIst aber schon erstaunlich wieviel besser der Xeon geht.Auf 930K kommen ich ja noch nicht einmal wenn ich auf 4.3GHz OC und den RAM mit 1800 laufen lasse.Kannst du deinen RAM auf 1600MHz OC ?
-
10. Januar 2013 um 13:01 Uhr #931841
littledevil
TeilnehmerInteressant, was hat/kann der Xeon besser? :-k
-
10. Januar 2013 um 15:01 Uhr #931847
isch
TeilnehmerXeon@3,5GHzRam@1333 9-9-9-24-1T
Das ist die Frage.Oder liegt es am Board?
-
10. Januar 2013 um 15:01 Uhr #931861
isch
Teilnehmerphils gegen meiner macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930Kich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909K
-
10. Januar 2013 um 15:01 Uhr #931851
gr3if
TeilnehmerWelche beiden wollt ihr vergleichen?
-
10. Januar 2013 um 18:01 Uhr #931868
ulv
Teilnehmerisch;501776 said:
phils gegen meiner macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930Kich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909KHabt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?Die gleiche Version vom Boinc-Client, App-Version, WU-Bezeichnung?Gleiches OS 32/64Bit? Virenkiller oder ähnliches?@isch: Hast du die Onboard-Grafik in Betrieb?Es sind ja aber eh auch nur 2,3% Unterschied. Und ich denke der RAM und die CPU spielen erst wenn die Ressourcen knapp werden eine gewichtigere Rolle – also wenn 2 oder 3 Karten im System sind.Die CPUs müssten ja eigentlich sehr ähnlich sein, zumindest von L1-, L2- und L3-Cache.Habt ihr die genau gleiche Chipsatz-Version?
-
10. Januar 2013 um 18:01 Uhr #931870
isch
TeilnehmerHabt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?
du hast aber schon gesehen das meine CPU mit 4,3GHz lief was 32K am Tag mehr bringt und mein RAM mit 1800.Nein natürlich nicht.Seine Hat GDDR5 was aber auch nur 4K am Tag mehr macht bei sonst gleichen Einstellungen.Die gleiche Version vomBoinc-Client, 7.042x64App-Version, sollten die gleichen Einstellungen seinWU-Bezeichnung? opencl_ati_100Gleiches OS 32/64Bit? Win7 HPx64Virenkiller oder ähnliches? Avira AntivirusFree@isch: Hast du die Onboard-Grafik in Betrieb? ne habe den Monitor an die obere Graka angeshlossen
Habt ihr die genau gleiche Chipsatz-Version?
Z77
-
10. Januar 2013 um 19:01 Uhr #931872
VTG01
TeilnehmerIch schätze dass das der GPU Takt ist, der ist um etwa 12% höher (800 +12% ist etwa 900) – wobei isch auch mit 900Mhz gelaufen ist, jedoch nur mit 3,4 Ghz CPU. naja, ich denke mal dass das nicht wirklich viel Unterschied ist.Dennoch würde mich interessieren ob eine 7870 mit 1,1 Ghz dann an die 1,1 Mio Credits kommt oder auf deutlich mehr.
-
10. Januar 2013 um 19:01 Uhr #931873
isch
TeilnehmerAh da her die mehr Credits.Hier sieht man aber schön das 100MHz GPU Takt mehr bringt als 800CPU und 467RAM zusammen.@ VTG01 die 900 waren GrakaRAM Takt bei meinem Test.Die 7870 werde ich auch noch testen
-
10. Januar 2013 um 19:01 Uhr #931871
phil68
TeilnehmerBoinc-Client, 7.042×64
opencl_ati_100(POEM++ OpenCL version 1.03 windows_intelx86 (opencl_ati_100))
Win7 HPx64
Avira AntivirusFreeGenau 😉 Hab allerdings gestern auf 7.0.44(Beta) umgestellt, wegen der app_config.xml. Diese soll einfacher aufgebaut sein und sich einfacher und effektiver konfigurieren lassen. Siehe hier: http://www.seti-germany.de/wiki/App_config.xml
Leider hat das nicht wirklich funktioniert.Vielleicht hilft das weiter?
ermittelte Geschwindigkeit für Gleitkommazahlen : 3400.41 Millionen Operationen/Sek
ermittelte Geschwindigkeit für ganze Zahlen : 11843.46 Millionen Operationen/SekMeine GPU läuft mit 900MHz… der einzige Unterschied, der mir jetzt einfällt. Ich werde heut abend mal auf 3,7GHz umstellen. Mal sehen was geht 🙂
Grüße Dirk
-
10. Januar 2013 um 20:01 Uhr #931889
VTG01
Teilnehmer@ischdu hast doch schon irgendwo die config Datei für mehrere WU’s gepostet, hast du da noch einen Link davon? oder kannst du mir die Datei senden?
-
10. Januar 2013 um 21:01 Uhr #931897
isch
TeilnehmerDu meinst die app.info die schicke ich dir gleich.
hier ist von Heute der Langzeit Test mit 2 Graka und 2400er RAM
[table “” not found /]
123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142
Leider hatte ich einen Absturz im laufe des Tages wodurch einiges an Rechenzeit verloren ging.
-
11. Januar 2013 um 19:01 Uhr #931961
isch
TeilnehmerHabe mal meine 7870 Durchgetestet.1.150K war das beste was ich raus geholt habe bei 1250MHZ und 7 Wus.Bei 10 Wus waren es nur noch1.030k
-
11. Januar 2013 um 20:01 Uhr #931967
VTG01
TeilnehmerDanke für die App_Info. Leider habe ich keine WU’s bekommen um zu testen, aber morgen ist auch noch ein Tag.Aus dem Vergleich 7750er zu 7870er geht hervor dass die 7870 zwar mehr mach aber doch deutlich mehr Strom benötigt als die 7750er. Hast du vielleicht notiert was dein Gerät an Strom benötigt hat beim Test mit der 7870er?
-
11. Januar 2013 um 21:01 Uhr #931969
VTG01
TeilnehmerZitat:
Zitat von isch Beitrag anzeigen
phils gegen mein
er macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930K
ich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909K
Habt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?
Die gleiche Version vom Boinc-Client, App-Version, WU-Bezeichnung?
Gleiches OS 32/64Bit? Virenkiller oder ähnliches?
@isch: Hast du die Onboard-Grafik in Betrieb?Es sind ja aber eh auch nur 2,3% Unterschied. Und ich denke der RAM und die CPU spielen erst wenn die Ressourcen knapp werden eine gewichtigere Rolle – also wenn 2 oder 3 Karten im System sind.
Die CPUs müssten ja eigentlich sehr ähnlich sein, zumindest von L1-, L2- und L3-Cache.
Habt ihr die genau gleiche Chipsatz-Version?Ist es nicht so dass der Xeon als Server Prozesser speziell auf Multitasking ausgelegt ist und somit mit vielen Anfragen besser auskommen sollte?
Was mir auffällt ist auch die Aussage dass die Rechenzeiten bei POEM deutlich in den Keller gehen wenn nebenbei noch Climate Pr. oder sonstiges laufen.
Ich frag mich auch, was denn nun die CPU so belastet! Andere Projekte sind da in Sachen GPU-WUs besser aufgestellt und laufen prima nebenher! Sobald ich Climate Prediction zusätzlich auf 4(CPU)Kernen laufen lasse, gehen die Laufzeiten der POEM WUs in den Keller… 1680s vs. 3000s (900k vs. 505k) Da macht es kaum Sinn andere Projekte nebenher laufen zu lassen
Aus meiner Sicht deutet das darauf hin dass sehr viel in den Speicher geschrieben / gelesen wird. Das geht so lange gut wie Cores zur Verfügung stehen. Aber sobald mal doppelt so viele WU’s als Cores laufen wird da wohl ein Flaschenhals sein. Ich hab die Erfahrung gemcht als ich eine VM mit 16 Cores auf einem i7 aufgesetzt hatte. Die Rechenzeiten waren etwa 3-4x so lange – Projekt war damals SIMAP.
❓ könnte man sich mit der Erklärung abfinden? ❓ -
11. Januar 2013 um 21:01 Uhr #931968
isch
TeilnehmerOh ganz vergessen zu schreiben.Es waren 134W.Aber irgendwas limitiert hier.Bei den 7 WUs habe ich grade mal 74% Last.Der Der Arbeitsspeicher lief mit 2400MHz CPU halt auf 3,4GHz.
-
11. Januar 2013 um 21:01 Uhr #928956
Jabba
TeilnehmerAlso die Zeiten in denen Xeons einfach die besseren Prozessoren waren sind für die von uns betrachteten Xeons vorbei.Die Low End Xeons sind normale Ivy Bridges mit aktiviertem Hyper Threading (und das noch nicht mal bei allen).Wenn Du richtig Xeon Power willst, dann brauchst Du die nativen 8-/10-Kerner. Aber die kosten richtig Geld. Von der Plattform mal ganz abgesehen.Einziger Vorteil, wenn man mal nicht auf Geld schaut, ist, daß man nur ein Monster betreuen muß, das zwischen 32 und 40 nativen Kernen zur Verfügung stellt.Für das Geld kann man sich allerdings ne Farm mit 1230ern gönnen.Deine Erfahrungen mit Simap sind plausibel. Simap rechnet ja konstant auf der CPU und nicht wie einige andere Projekte mal nen Schwung auf der GPU und dann wieder auf der CPU. Dadurch bringen mehr VMs als native Cores gar nix. Selbst Hyper Threading kann (muß aber nicht!) Dich da schon ausbremsen.GrußJabba
-
12. Januar 2013 um 16:01 Uhr #931996
phil68
TeilnehmerKannst du deinen RAM auf 1600MHz OC ?
Der Kingston LP-RAM scheint ein wahres OC Wunder zu sein…
[TABLE]Projekt|Graka|Anbindung|RAM@|Timings|VDimm|Laufzeit in Sec|Credits pro Tag
POEM|HD7750(6WU)|x16 3.0|1333|9-9-9-25|1,35V|1630|930.000
POEM|HD7750(6WU)|x16 3.0|1866|10-10-10-28|1,5V|1600|950.000
[/TABLE]Die Low End Xeons sind normale Ivy Bridges mit aktiviertem Hyper Threading (und das noch nicht mal bei allen).
Die Xeon’s sind eine sehr preiswerte Alternative zum “fast” gleichen i7. Wenn sowieso eine Graka verbaut wird, lohnt es sich die 8W weniger TDP mitzunehmen. Zumal man mit der internen Grafikeinheit sowieso nix reißen kann.
Das Einzige was nervt… ich bekomme den Xeon, selbst mit Z77 Board, nicht auf den Turbo-Takt 🙁Grüße Dirk
-
12. Januar 2013 um 17:01 Uhr #932004
isch
TeilnehmerOptimierst du noch alles auf möglichst wenig Stromverbrauch?Dann kann man mal sehen ob mein GD55 Sparsam ist oder nicht.
-
12. Januar 2013 um 17:01 Uhr #932001
Jabba
TeilnehmerKannst Du ihn denn untervolten?Mein Mobo (GA-Z77N) bietet da nix! :-(Übertakten geht nur im Bios übers Taktanheben. 3,7 waren schon drin. Hab aber noch nicht weiter getestet.
-
12. Januar 2013 um 17:01 Uhr #932003
phil68
TeilnehmerHi Peter 🙂
Kannst Du ihn denn untervolten?
Ja das geht. Im Moment läuft er mit 0,9V. Das Asrock bietet recht üppige Einstellungen an.
Übertakten geht nur im Bios übers Taktanheben. 3,7 waren schon drin. Hab aber noch nicht weiter getestet.
Per BCLK komm ich bis 108… also 3780MHz.
Grüße Dirk
-
12. Januar 2013 um 19:01 Uhr #932008
littledevil
TeilnehmerJabba;501926 said:
Mein Mobo (GA-Z77N) bietet da nix! 🙁Schade, hätte ich bei GA eigentlich erwartet, da auch mit Z77 bestückt. Kann man die Spannung gar nicht verändern oder nur OC?
-
12. Januar 2013 um 20:01 Uhr #932010
Jabba
TeilnehmerSpannung kann beim ga nur für die Rams geändert werden. Für die CPU gibtskeinerlei spannungseinstellungen. :-(Kann dir gar nicht sagen wie mich das. ..Aktuell laeuft es mit dem 1230er, 16 GB, DVD, 500er HDD, 240er SSD und einer 7750 unter Vollast (8 x Leiden, 1 x Collatz) bei ziemlich genau 120 W. Room for improvement.
-
13. Januar 2013 um 8:01 Uhr #932026
littledevil
TeilnehmerHmm.. oder doch ein anderes Board? Weiß nicht, o umtausch noch geht – bin grad im Urlaub…
-
13. Januar 2013 um 17:01 Uhr #932046
gr3if
TeilnehmerJabba;501937 said:
Spannung kann beim ga nur für die Rams geändert werden. Für die CPU gibtskeinerlei spannungseinstellungen. :-(Kann dir gar nicht sagen wie mich das. ..Aktuell laeuft es mit dem 1230er, 16 GB, DVD, 500er HDD, 240er SSD und einer 7750 unter Vollast (8 x Leiden, 1 x Collatz) bei ziemlich genau 120 W. Room for improvement.Strg+f1 kennst du aber? Vorher ist das nie sichtbar…..
-
14. Januar 2013 um 8:01 Uhr #932068
Jabba
Teilnehmer@Greif
hab ich noch nicht probiert… hätte ich da etwa das Handbuch lesen müssen? 😉
Werds ausprobieren und Meldung erstatten! -
14. Januar 2013 um 17:01 Uhr #932079
isch
TeilnehmerDie PowerColor Radeon HD 7750, 4GB DDR3 ist jetzt auch da und ich konnte keine unterscheide zu meiner Club 3D Radeon HD 7750, 1GB DDR3 feststellen.Morgen teste ich dann mal mit 3 7750er.
-
14. Januar 2013 um 20:01 Uhr #932084
ulv
TeilnehmerSuper, dann wird es jetzt richtig spannend. 8-[
Danke, dass du dir die Arbeit mit den Tests machst!
-
14. Januar 2013 um 21:01 Uhr #932087
gr3if
TeilnehmerJabba;501997 said:
@Greifhab ich noch nicht probiert… hätte ich da etwa das Handbuch lesen müssen? ;-)Werds ausprobieren und Meldung erstatten!HM scheint bei dem Brett tatsächlich nicht zu gehen:http://www.hardwareluxx.de/community/f12/gigabyte-ga-z77n-wifi-ga-h77n-wifi-919904.htmlDas ist mal wieder super@Gb^^
-
15. Januar 2013 um 17:01 Uhr #932110
isch
TeilnehmerHeute sind die beiden 2×4 GB 2400MHz RAM Riegel eingetroffen.
07.01
idle 28,5W-29W
Load 8x FM@H 57,5WClub 3D Radeon HD 7750, 1GB DDR3
eine einzelne Wu dauert bei 0,33 CPU 1300s
GPU Takt ist immer 800MHz
[table “” not found /]
08.01
[table “” not found /]
09.01
[table “” not found /]
Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.
*Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.
**Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.
***Und das ganze noch mal mit 200MHz mehr.
****app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142 neuer RAMich versuche die CPU Last auf max 33% zu halten
app.Info Einstellung 4 WUs CPU 0.5 GPU 0.25
app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2
app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166
app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142
______________________________________________________________PowerColor Radeon HD 7750 low profile, 1GB GDDR5
idle 34W
[table “” not found /]
Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.
Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.
______________________________________________________________2 Grakas
idle 40W[table “” not found /]
09.01
[table “” not found /]
+Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.
+117W @ 60C
120W @ 74C
122W @ 76C++121W @ 75C
+++118,5W @ 74C
++++123W @ 76C
– 118W @ 72C app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166
— 118W @ 71C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142
—118,5W @ 73C app.Info Einstellung 8 WUs CPU 0.5 GPU 0.125
—-121,5W @ 72C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142
—– 123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142[table “” not found /]
+65W @ 65C
______________________________________________________________
15.01
3 Grakas
[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166
___________________________________________________________________ -
15. Januar 2013 um 20:01 Uhr #932124
Obi Wan
Verwalterich seh schon, ihr seit die “Meister der Tabellen”
-
15. Januar 2013 um 22:01 Uhr #932128
isch
TeilnehmerIch hatte mit deutlich mehr gehofft.Ist ja sogar weniger als mit 2 Karten.Morgen teste ich noch mal mit 2 Karten und 900MHz GPU Takt.
-
15. Januar 2013 um 22:01 Uhr #932127
Jabba
TeilnehmerDer Output ist heftig!Super Aufstellung!
-
15. Januar 2013 um 23:01 Uhr #932130
Jabba
TeilnehmerDas stimmt. Dennoch: mit Low-End Karten solch ein Ergebnis und das noch in Relation zum Stromverbrauch ist aller Ehren wert.
-
17. Januar 2013 um 9:01 Uhr #932173
isch
TeilnehmerDie ersten 24 Stunden meines Langzeittest mit 2Grakas und 900MHz sind rum.Leider hatte ich 3 abstürze und weiß daher nicht wie viele Credits verloren gegangen sind.[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166 -
18. Januar 2013 um 16:01 Uhr #932248
isch
TeilnehmerGibt er einen Splitter der von PCIe 3.0×16 auf 2x PCIe 3.0 x8 geht?
-
18. Januar 2013 um 19:01 Uhr #932260
littledevil
TeilnehmerDie könnten etwas sein, aber k.a. wo man die kaufen kann:ARC2-PEL-2X16ARC1-PELY423-C7designed for Supermicro proprietary motherboard such as H8DGG-QF with chipset that supports bifurcation.Gibt es ein Tool mit dem man den PCIe traffic loggen kann, also nur die Auslastung?Wenn Geld keine Rolle spielt:NA255A External PCIe Gen3 to GPU Desktop EnclosureShopDas alte Modell zur Preisabschätzung
-
18. Januar 2013 um 21:01 Uhr #932263
isch
TeilnehmerNe das ist ein bisschen zu teuer 🙂
-
19. Januar 2013 um 9:01 Uhr #932270
isch
TeilnehmerDie ersten 24 Stunden meines Langzeittest mit 2Grakas und 900MHz sind rum.Leider hatte ich 3 abstürze und weiß daher nicht wie viele Credits verloren gegangen sind.[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166Ich Stoppe dann hier und fange eine neue Testreihe mit anderen Einstellungen an. -
21. Januar 2013 um 17:01 Uhr #932340
Burntime
TeilnehmerSpricht was gegen CAD-Karten?
-
21. Januar 2013 um 17:01 Uhr #932343
Christoph!
VerwalterBurntime;502298 said:
Spricht was gegen CAD-Karten?Vermutlich die Kosten?
-
21. Januar 2013 um 19:01 Uhr #932350
ThaRippa
VerwalterVor allem haben CAD-Karten kein anderes Silizium drin. Die GPGPU-Berechnungen werden von den speziellen Treibern auch nicht schneller.
-
22. Januar 2013 um 2:01 Uhr #932368
Deadsystem
Teilnehmerwäre eine Erweiterung des EMK2-Rechners mit je einer Graka pro Board nicht sinnvoll?
-
22. Januar 2013 um 8:01 Uhr #932372
littledevil
TeilnehmerSo eine Überlegung hatte wir mal, aber zum einen liegt der EMK2 dann so lange brach und im Gehäuse ist kein Platz mehr.
-
22. Januar 2013 um 9:01 Uhr #932377
Jabba
Teilnehmer@Deadsystem
Wie LD schon richtig erwähnt hat, paßt da nix mehr rein – vllt. eine Low Profile PCIe…. grübel grübelAnsonsten dürfte sich der Stromverbrauch auch noch einmal deutlich erhöhen. Was mich gleich zur Frage der Stromspende führt 🙂
Ein zusätzliches Netzteil wäre evtl. ebenfalls nötig (sollte genau durchgerechnt werden).Gruß
Jabba
-
22. Januar 2013 um 13:01 Uhr #932383
Deadsystem
Teilnehmerdachte da erst an 90° Riserkarten, aber vermutlich ist der Platz nicht vorhanden. zweite Möglichkeit: die Grafikkarten außerhalb in einem extra Gehäuse mit den Mainboards verbinden. Gibt es ca. 1m lange Pci-e Riser-Kabel?dritte Möglichkeit: Vorhandenes Gehäuse vergrößern oder anderes Gehäuse.vierte Möglichkeit: EMK2 splitten und sowas wie 2x Revision 1.0 mit Grafikkarten bestückenwäre schade die nicht bestückten PCI-e Slots nicht auszunutzen.
-
22. Januar 2013 um 14:01 Uhr #932385
Jabba
Teilnehmer@Deadsystem
PCIe Verlängerungen gibts: ca. 17cm, habe auch schon gut 30cm zum Laufen gebracht.
Ins Gehäuse paßt schlichtweg nix mehr.
Eine Erweiterung haben wir bereits ausgiebig diskutiert und verschiedene Lösungen erörtert.Befriedigend ist ein Umbau / Aufrüstung zum GPU Cruncher nicht, da doch erheblicher Aufwand betrieben werden muß.
Einen EMK3 aufzubauen erscheint da leichter. Man sollte allerdings nicht die Betriebskosten außen vor lassen. Die sind erheblich.@LD
Meine FPGAs kommen wohl irgendwann im April 😉 und leisten ca. 0,3 THash/s.Gruß
Jabba
-
22. Januar 2013 um 14:01 Uhr #932384
littledevil
TeilnehmerSofern es entsprechende FPGAs bzw. ASICs geben sollte, die entsprechend kompakt sind, könnte man da upgraden, aber zurück zum Thema GPU cruncher…
-
22. Januar 2013 um 19:01 Uhr #932408
isch
TeilnehmerEs hat mich wieder in den fingern gejuckt und ich habe noch mal eine Graka zum testen bestellt :+
XFX Radeon HD 7770 GHz Edition 1000M Double Dissipation Edition
Es ist die geworden wegen den 2 Lüftern weil gleich leiser und Kühler.
Leider war das ein großer Irrtum.Wenn die beiden richtig los legen drehen die mit 4140 rpm und das Ding wird trotzdem noch bis zu 78C heiß 😡
Hier mal ein paar Ergebnisse.
[table “” not found /]
Wie man am GPU Load MHZ Verhältnis sieht scheint da irgendwas zu limitieren.Ich tippe mal auf die CPU.
Was mich aber an allermeisten wundert ist der hoher Strom verbrauch.2 7750 verbrauchen weniger und meine 7870 hat bei 7 WUs @ 1250MHz auch nur 134W gezogen.Dabei kamen 1.150K pro Tag raus was ein c/w von 8582 macht.Habe ich mit der XFX einfach nur Pech gehabt oder sind die 7770 doch so viel schlechter als die 7750
Fazit.
Mehr Stream-Prozessoren/Textureinheiten bringen nichts.Die Takt grenze liegt irgendwo bei 900MHz-1000MHz bei einem CPU Takt von 3,4GHz.Leider geht bei den 7750 nicht mehr wie 900MHz.
Ich teste jetzt mal die CPU mit 3,6GHz.Wenn die Stabil läuft kommen noch mal die 2 7750er dran und eventuell auch noch mal die 7770.
-
22. Januar 2013 um 20:01 Uhr #932410
isch
TeilnehmerDa ja eigentlich nur 2 Grakas Sinn machen können wir auch auf Dualslot setzen.Ich weiß nicht wie das bei Asus mit dem Stromverbrauch aussieht.Bei den Mobos brauchen die ja mehr als die anderen.Auf 900MHz ist sie auch schon OC was auch nichts schadet 🙂
Hatte da vielleicht an sowas gedacht und dann von hinten mit einem 120er/140er belüften.
spart man einen Lüfter und die 120er/140er sind wahrscheinlich auch noch sparsamer.
-
22. Januar 2013 um 20:01 Uhr #932409
littledevil
TeilnehmerHmm.. wie schauts denn mit der ASUS HD7750-T-1GD5
-
22. Januar 2013 um 21:01 Uhr #932425
Obi Wan
Verwalter:respekt: Kompliment, ISCH für deine Testreihen :d:
-
22. Januar 2013 um 21:01 Uhr #932422
littledevil
Teilnehmerschöner Passivkühler. Der paßt gut zur Belüftung nach draußen :d:
-
22. Januar 2013 um 22:01 Uhr #932430
VTG01
Teilnehmer@ ischMit der Taktfrequenz der Graka kann ich dir Recht geben und das Ergebnis bestätigen. Ich habe kurzzeitig POEM auf dem x4 gerechnet. Es ist nahezu egal ob die 7870 Graka mit 800Mhz oder mit 1200 Mhz läuft, lediglich der Stromverbrauch sinkt. Auch ist es mir nicht gelungen die CPU-Last oder die GPU-LAst über 90% zu bringen. Die 7870 rechnet überhaupt nur bis 79% (ok bei Collatz und Treiber 12.4 geht sie auf 100%, ist übrigens die Catalyst Version mit der Collatz noch geht). Nimmt man noch andere projekte hinzu so sinkt die POEM Leistung am 4-Kerner deutlich ab. Gelaufen ist der X4 mit nur 3,2 Ghz, die 3,6 Ghz habe ich nicht stabil bekommen. Liegt vielleicht aber daran dass ich vorher eine 5770 drinnen hatte …Hast du schon die neuen Treiber getestet? hatte heute Morgen eine Info dass 13.x (Nummer habe ich verdrängt) herausgekommen ist.
-
22. Januar 2013 um 23:01 Uhr #932432
isch
TeilnehmerNe ich teste noch mit den 12 Beta 11.Will da keine falschen Ergebnisse hervor rufen mit den neuen Treibern.
-
24. Januar 2013 um 9:01 Uhr #932472
littledevil
TeilnehmerDas mit dem ersten Slot ist sehr interessant.
Bei 2x x8 sollte ja die CPU Anbindung nicht limitieren :-k -
24. Januar 2013 um 9:01 Uhr #932470
isch
Teilnehmer[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166GPU Takt 900MHzDann ist mir eins extrem aufgefallen und zwar die Graka im oberen Slot Profitiert deutlich mehr vom höheren CPU Takt als die im unteren Slot.Nach ca 15Std hatte die schon 2 Durchläufe mehr als die andere und bis Heute morgen waren es mehr als 3.Im oberen Slot braucht die Graka ca 1875s pro WU und die im unteren 2020s pro WU. -
24. Januar 2013 um 21:01 Uhr #932498
isch
Teilnehmer[table “” not found /]
app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166GPU Takt 900MHzich Stoppe hier mal und teste mit anderen Einstellungen weiter. -
24. Januar 2013 um 22:01 Uhr #932503
Renovatio
TeilnehmerErstaunlich wie viele Tabellen hier schon stehen. 😮 Das nenne ich mal eine Testreihe was am effizientesten ist. Kompliment. :mk rult:
-
30. Januar 2013 um 7:01 Uhr #932693
littledevil
TeilnehmerAny News?
-
30. Januar 2013 um 18:01 Uhr #932723
isch
TeilnehmerIch teste jetzt wie viel Credits verloren gehen wenn auf der CPU noch andere Projekte laufen.
-
31. Januar 2013 um 21:01 Uhr #932775
isch
TeilnehmerLeider ist die WU Versorgung nicht besonders so das er Heute im laufe des Tages leer gelaufen ist.Also kann ich erst in ein bis zwei Tagen sagen wie viel er schafft wenn die CPU voll belastet wird.
-
31. Januar 2013 um 22:01 Uhr #932777
VTG01
TeilnehmerIrgendwie stellt sich die Frage wenn ein POEM-Cruncer mit 6 oder 8 Boarsd, sprich 12 oder 16 Grakas im Betrieb ist der auch immer wieder leer läuft?
-
31. Januar 2013 um 23:01 Uhr #932783
isch
TeilnehmerDas Problem liegt wohl an der Server von POEM.Der neue ist wohl schon bestellt und sollte eigentlich schon laufen aber da gibt es wohl Verzögerungen.Arbeit an sich ist wohl genug vorhanden und es wird wohl auch noch neue dazu kommen.
-
1. Februar 2013 um 8:02 Uhr #932784
Mad-Max
ModeratorVTG01;502764 said:
Irgendwie stellt sich die Frage wenn ein POEM-Cruncer mit 6 oder 8 Boarsd, sprich 12 oder 16 Grakas im Betrieb ist der auch immer wieder leer läuft?Dafür wärs ja dann gut, wenn er sich dann mit was anderem beschäftigen könnte…
-
1. Februar 2013 um 17:02 Uhr #932840
VTG01
TeilnehmerArbeit an sich ist wohl genug vorhanden und es wird wohl auch noch neue dazu kommen.
Das kann ich mir gut vorstellen. Speziell im medizinischen Bereich sind die Grenzen sehr weit weg. Kann mir durchaus vorstellen dass das Projekt viel Jahre läuft. Es kommt drauf an wie schnell die Ergebnisse der WU’s verarbeitet werden können.
-
2. Februar 2013 um 19:02 Uhr #932865
orw.Anonymous
TeilnehmerWhile a yourself has to put in a lot of application and cool one’s heels a eat one’s heart out anon a punctually to take home systematic loans, payday loans during self employed are very peacefully to obtain. A certain does not have to metamorphose cash advance america $yn7514* cash advance loans they basis undue ill fortune on those that are struggling financially already. Payday lenders chance that there fees are not in sight of cortege when all in all there high operating costs and large fail rates. They associate their fees to overdue penalties from
of choices. One plausible street to sort wrong the good from the bad is before checking a payday loans review website. Sometimes again I egg on you that if your planning to extract this itinerary to find the best apportion in favour of your needs. Knock off the slightest loan you need and extend your account only take every month and notification longing be send to you as in good time as it gets debited. So at the moment you play a joke on got an stunning figuring out of a payday accommodation whenever there’s any emergency tied up to economic stuff. Payday betterment provides you a
http://www.comparegoldfarmers.com/forum/viewtopic.php?f=35&t=114998&p=475647#p475647
http://www.forums-autosital.com/index.php?/topic/81776-payday-loans-in-tempe-arizona/
http://heavenlytower.com/community/index.php?topic=327571.new#new
http://www.forums-autosital.com/index.php?showtopic=81784 -
2. Februar 2013 um 20:02 Uhr #932872
orw.Anonymous
Teilnehmerthese loans. Effectiveness be the importance rate a hint higher but solely research enkindle will reveal this argument actually conveniently and avail you affordable administer on realizable cash advance loans online ~ws2369# Cash Advance On Assuming that the borrower has fulfilled every criteria stated away the credit provider, the no hamper payday loan would be approved in no time. The borrower commitment bargain the accommodation proceeds credited speedily to his bank account not later than the next working epoch or
need loot urgently? As we recall nowadays, loot is much more portentous to convene our diurnal needs. At times it’s uncommonly difficult to fulfill our requirements. If you are hard up you are growing to borrow these loans, you obligation grasp the hard-hearted the score of these loans and it is in its piece rate. These loans are offered at extraordinary rating of avail
http://blog.wallstreetitalia.com/eforo/2012/01/09/2012-recessione-o-depressione/#comment-14
http://www.sierrasanvicente.com/foro/index.php?topic=262.new#new
http://www.hostmaniaweb.com/blog/viewtopic.php?f=6&t=1102&p=76676#p76676
http://savethesoapgenre.org/wp-content/plugins/zingiri-forum/mybb/showthread.php?tid=1719&pid=21594#pid21594 -
2. Februar 2013 um 21:02 Uhr #932875
orw.Anonymous
TeilnehmerGelöscht da Werbung und nichts zum Thema ❗
LG phil68
-
3. Februar 2013 um 9:02 Uhr #932886
isch
TeilnehmerDer POEM Server ist mal wieder leer gesaugt und ich habe nichts mehr zu tun.Hier ist mal ein Ergebnis der letzten Tag
Es wurde aber nicht 24 Stunden am Tag durch gerechnet mangels ausreichender WUs.Ich würde sagen es sind so 850K drin wenn die CPU noch andere Sachen nebenbei rechnet.Die Graka lief mit 900/900 und der Arbeitsspeicher mit 1800 CL 9-9-9-27.Man hat also ca 100K Verlust wenn die CPU voll beschäftigt ist.Wenn es wieder WUs gibt versuche ich mal eine Woche am Stück zu rechnen danach lasse ich mal ein Kern frei und schaue dann noch mal was bei rum kommt.
-
5. Februar 2013 um 0:02 Uhr #933028
Deadsystem
Teilnehmerhabe seit einigen tagen eine HD 5750 am laufen. schafft maximal 240.000 credits am tag. es laufen 3 tasks gleichzeitig mit 0,666 cpu auslastung. mit den aktuellen wu’s ist eine anwendung nach ca 54min fertig.meine frage ist jetzt: wie ist die große differenz zu erklären, denn auf dem papier sind die karten recht ähnlich. welches feature ist für den großen unterschied verantwortlich?
-
5. Februar 2013 um 13:02 Uhr #933034
gr3if
TeilnehmerDer Ram, da gibt es ddr2-gddr5 Ram und so
-
5. Februar 2013 um 17:02 Uhr #933045
Deadsystem
Teilnehmerwas meinst du genau damit? sind die gddr5 chips verkappte ddr2? im datenblatt wird die speicherbandbreite bei beiden karten ziemlich ähnlich angegeben… http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7770-und-hd-7750/
-
5. Februar 2013 um 19:02 Uhr #933054
Deadsystem
Teilnehmerjo, keine verbesserung. kann sein, dass die neueren grakas besser mit mehr WU’s umgehen können. ist aber auch nur ein relativ geringer unterschied feststellbar, wenn ich mir deine testreihen angucke. ist zwar nicht wenig aber nicht so deutlich 😉
-
5. Februar 2013 um 19:02 Uhr #933050
isch
TeilnehmerPOEM interessiert der Graka RAM nicht wirklich.Der große unterschied kommt daher das die 7750 Karten PCIe 3.0 haben und eine neue Architektur.Der neue Treiber bringt auch noch mal ordentlich Schwung mit.Welche CPU mit wievielt GHz hast du und wie sieht es mit dem Arbeitsspeicher aus?
-
5. Februar 2013 um 19:02 Uhr #933052
isch
TeilnehmerHast schon mal mit mehr WUs probiert?
-
5. Februar 2013 um 19:02 Uhr #933051
Deadsystem
Teilnehmeres läuft ein 3770k mit 4,4GHz und 16gb ram @ 1600 9-10-9-24 1t. dachte erst an die erhöhte anzahl der transistoren (+~30%)
-
5. Februar 2013 um 20:02 Uhr #933062
VTG01
TeilnehmerNaja, ich denke mal dass es einfach an der Architektur der Graka liegt und wie die Befehle verarbeitet werden. Die Schnittstelle PCIe 3.0 bringt da weitere deutliche Vorteile bei dem Abgleich der Daten zwischen CPU und GPU.
Ich hatte eine kleine Testreihe mit einem X4 955 der mit 3,4 Ghz lief und einer 7870er die mit 1,2 Ghz lief. Ich konnte in keiner Kombination CPU oder Graka auslasten, bei etwa 75-78% war bei der Graka Schluß, bei der CPU bei etwa 85-88%. Erst das Absenken des GPU Taktes auf etwa 800Mhz brachte eine höhere Auslastung der GPU. Die Creditausbeute sank jedoch nur mäßig, kaum merkbar. Stromtechnisch war es jedoch deutlich zu sehen.
Anders ist es bei Collatz. Hier leistet eine moderat gefahrene 5850 mehr als eine hoch gezogene 7870. Unterschied könnte daher kommen dass Collatz bereits seit ein paar Jahren läuft und anders Programmiert ist als POEM. Die neuesten Treiber von Catalyst bewirken ausschließlich Berechnungsfehler bei Collatz. Bei mir funktioniert Treiberversion 12.4.
Somit rechnet die 58xx Serie Collatz, die 78xx POEM (naja, eigentlich rennt auf dem Rechner Leiden). Ist aber weiter nicht schimm ….
-
17. Februar 2013 um 17:02 Uhr #933480
isch
Teilnehmer -
17. Februar 2013 um 17:02 Uhr #933479
isch
TeilnehmerSo mal wieder ein kleines update von mir.Da die WU Versorgung in letzter Zeit etwas holprig war läuft es jetzt seit ein paar Tagen stabil.
-
23. Februar 2013 um 5:02 Uhr #933683
Deadsystem
Teilnehmer@isch hast du eine Lösung gefunden wie man zwei AMD Grafikkarten mit Poem betreiben kann?hab da ein Posting von dir im boinc.fzk.de forum gelesen. ist schon paar Monate her.
-
23. Februar 2013 um 8:02 Uhr #933685
isch
TeilnehmerDie beiden AMD Karten laufen ohne Probleme zusammen.Im Poem Forum waren es zwei verschiedene NV Karten.
-
23. Februar 2013 um 10:02 Uhr #933686
VTG01
TeilnehmerMal ein kurzer Zwischenstand von mir:
Mein Q9400 ist nun seit 1 Woche mit einer 7750er und einer 5850 ausgestattet. Mit der 5850 wurde Collatz fertig gerechnet. Komischerweise ging alles glatt bi sdie Collatz WU’s weg waren. Da ich kein POEm bekommen habe habe ich mir eine Ladung Collatz geholt – und siehe da, nur mehr Berechnungsfehler … Na egal, Soll ja POEm rechnen. Tags darauf kamen einige POEM WU’s daher und los ging es.im Verhältnis 1:1 Graka/CPU ist die 5850 doch einiges schneller als die 7750, obwohl sie am 1. PCIe Slot hängt. Differenz ca. 55 Minuten zu 75 Minuten. ich habe dann die ini Datei ein wenig geändert, auf 0,75:0,50. Sprich es laufen 4 WU’s parallel auf 3 Kernen. Leider ging da kaum mehr etwas – offensichtlich ist das Board, ein P5B Deluxe doch schon ein wenig in die Jahre gekommen :shock:. Auch der Hauptspeicher mit 2 GB DDR2 ist ein wenig überholt. Zur Zeit rennt das Gerät wieder im Verhältnis 1:1, 1 Task Clamate rennt nebenher, Leiden ist nach dem Einstieg von 2 Potenten Usern wieder leer gesaugt.
Ich komme mit den 2 Karten zur Zeit auf NUR 170.000 Credits je TAG !! :(:(:(
Das nächste ist ist, dass ich das Gerät leider aus der Ferne nicht durchstarten kann – der bleibt immer im irgendwo drinnen hängen ….:fresse:
Da wir über Nacht mehr als 25cm Schnee bekommen habe ist es mir leider nicht möglich zu meinem POEM Rechner zu gelangen – wird somit noch eine Woche so weitertümpeln 🙁
-
23. Februar 2013 um 15:02 Uhr #933697
Deadsystem
Teilnehmerisch;503725 said:
Die beiden AMD Karten laufen ohne Probleme zusammen.Im Poem Forum waren es zwei verschiedene NV Karten.
könnte es sein, dass ältere Karten wie die HD 5750 Probleme damit haben? musstest du was an der app_info ändern?
-
24. Februar 2013 um 8:02 Uhr #933709
isch
Teilnehmer@ VTG01 da klemmt aber was ganz gewaltig.Welchen Treiber hast du drauf?Mit welcher PCIe Geschwindigkeit laufen die Karten?CPU und RAM sind ja auch nicht die schnellsten.Hast mal nur mit der 7750 getestet?
-
24. Februar 2013 um 18:02 Uhr #933733
VTG01
TeilnehmerEs sind die 12.11Beta Treiber drauf. Sobald ich wieder am Damm bin werde ich die 5850 ausbauen und dann nur mit der 7750 rechnen lassen. Nur die 7750er habe ich noch nicht laufen gehabt.
-
7. März 2013 um 8:03 Uhr #934031
Obi Wan
Verwalterich habe den Überblick verloren.Was ist den jetzt der Status oder das Fazit der Aktion ?
-
7. März 2013 um 20:03 Uhr #934084
VTG01
TeilnehmerGemischt, am alten Asus P5B Deluxe und dem Q9400 rennt die 7750er auf 65% bei 4 Wu’s auf 2 Cores. Output sind nun irgendwo um die 200.000 je Tag – falls ich mal wieder WU’s bekommen sollte.
Testen will ich noch 6 WU’s auf 3 Cores, ich denke aber dass der Speicherausbau mit 2 GB deutlich zu klein ist.
Das Verhältnis Watt/Credits ist jedoch deutlich besser als bei Collatz. Da bringt die 5850er etwa 165.000 Credits je Tag mit deutlich mehr Stromhunger.
-
7. März 2013 um 21:03 Uhr #934086
VTG01
Teilnehmer1 WU bringt knapp 3.000 Credist. bei 9.000-11.000 Credits schaffen die 2 Grakas am Tag 4 WU’s, Rechenzeit sind somit 12 Stunden je WU?die 7750er braucht 1.08 Stunden (68 Minuten). Ich denke mal dass da einiges nicht passt.
-
7. März 2013 um 21:03 Uhr #934087
Neo111430
TeilnehmerSry mein fehler es gibt da ein problem was ich schon länger hab von 12 POEM++ OpenCL version v1.05 (opencl_nvidia_100) WU`s ist nur ein OK rest hat “Fehler beim Berechnen”
-
7. März 2013 um 21:03 Uhr #934085
Neo111430
TeilnehmerVTG01;504173 said:
Gemischt, am alten Asus P5B Deluxe und dem Q9400 rennt die 7750er auf 65% bei 4 Wu’s auf 2 Cores. Output sind nun irgendwo um die 200.000 je Tag – falls ich mal wieder WU’s bekommen sollte.Testen will ich noch 6 WU’s auf 3 Cores, ich denke aber dass der Speicherausbau mit 2 GB deutlich zu klein ist.
Das Verhältnis Watt/Credits ist jedoch deutlich besser als bei Collatz. Da bringt die 5850er etwa 165.000 Credits je Tag mit deutlich mehr Stromhunger.
:(Mann wie kommst du auf 200.000 pro tag.Mein recher schaft mit i7 und 2 x 470GTX auf 100% nur 9000 -11000 .
“Collatz und POEM”
-
17. März 2013 um 22:03 Uhr #934339
Christoph!
VerwalterObi Wan;504120 said:
ich habe den Überblick verloren.Was ist den jetzt der Status oder das Fazit der Aktion ?Was nu???Edit: ich möcht doch so gerne was sehn!! Vllt sollte man den Thread mal oben im Forum den Link wieder rausnehmen 😉
-
15. April 2013 um 18:04 Uhr #935547
dodo
TeilnehmerHey,Euer Super Boinc Rechner Thread hatte mich echt fasziniert.Auch hier hab ich mir alles durchgelesen.Teilweise habt ihr sehr intressante tests bzw. erkenntnisse dabei, die generell sehr nützich sind.Auch wenn ich mich mit Boinc und dergleichen bisher wenig auskenne wollte ich hier doch mal etwas einwerfen.Wahrscheinlich hat es der ein oder andere schon gesehen:http://www.computerbase.de/news/2013-04/asus-bringt-pcie-lane-reiche-workstation-platine-p9x79-e-ws/7x pci-e in voller länge…PEG?!?!3x 8fach elektrisch4x 16fach elektrischIs auch schon etwas älter die news aber ich wollte es mal hier erwähnen.Soweit ich es mitbekommen habe, liegt das probleme mehrere Grafikkarten parallel mit daten zu versorgen, an einer potente CPU.Da kann der Sockel 2011 ja auch net viel mehr bieten ausser einem hohen Preis.Allerdings steht beim Schwestermodel, das in dem Artikel auch verlinkt ist, dass dieses mit Xeons mit 8 kernen und 16 threads klar kommt.http://www.computerbase.de/news/2011-12/asus-desktop-workstation-mainboard-p9x79-ws-vorgestellt/Wobei ihr für die CPU wohl nen guten Sponsor bräuchtet^^.Die fangen anscheinend bei knapp 1000€ ein.Dürfte wohl schwer zu finanzieren sein.Ich wollte es aber mal erwähnt haben.
-
25. April 2013 um 16:04 Uhr #935989
x20011
TeilnehmerHier mal ein kleines Bildchen als Anregung 😉
-
25. April 2013 um 16:04 Uhr #935991
-
25. April 2013 um 17:04 Uhr #935996
-
25. April 2013 um 20:04 Uhr #936002
Darkness
TeilnehmerSchade, aber die Infos hören sich ganz interessant an.
dodo;505714 said:
Hey,
Auch wenn ich mich mit Boinc und dergleichen bisher wenig auskenne wollte ich hier doch mal etwas einwerfen.
Wahrscheinlich hat es der ein oder andere schon gesehen:
http://www.computerbase.de/news/2013-04/asus-bringt-pcie-lane-reiche-workstation-platine-p9x79-e-ws/
7x pci-e in voller länge…PEG?!?!
3x 8fach elektrisch
4x 16fach elektrischSieht doch garnicht so schlecht aus:-k
Letztlich wird wahrscheinlich der Preis entscheiden, denn theoretisch könnte man auch ASUS Z9PE-D8 WS+ 2* Intel Xeon E5-2603 oder höher (z.b. E5-2609 oder E5-2620) verwenden.
4x PCI-e x16 und 3x PCI-e x8, dazu 2*2011 Sockel, 8x DDR3 😡dodo;505714 said:
Wobei ihr für die CPU wohl nen guten Sponsor bräuchtet^^.
Die fangen anscheinend bei knapp 1000€ ein.
Dürfte wohl schwer zu finanzieren sein.
Ich wollte es aber mal erwähnt haben.Da hast du natürlich recht, denn Intel lässt sich seine High-End CPU´s vergolden (vorallem da keine große Konkurrenz durch AMD), deswegen mein Vorschlag: Lieber zwei kleinere CPU´s für 400-600€ anstatt einer Highend CPU für 900€ aufwärts. Braucht zwar mehr Strom, spart aber einiges an Kosten
-
25. April 2013 um 22:04 Uhr #936007
VTG01
TeilnehmerNaja, ich halte das Ding am Bild für nicht erstrebenswert. Die 4 Netzteile werden einiges an Strom saugen und die Abwärme kann ein Einfamilienhaus im Winter heizen – zumindest im Süden ….Im Sommer wird der nicht lange rennen dann gehen die Lichter wegen Überhitzung im Raum aus. Bei 2,5-3,0kW Stomaufnahme für das Teil brauchst du noch mal ne Kühlung mit zumindest 2,0 KW Stromaufnahme. Kommst du dann auf sagen wir mal 5kW Strombedarf je Stunde. Sind 120kW je Tag oder 840 kWh je Woche. Das will ich mir gar nicht mehr leisten.
-
25. April 2013 um 23:04 Uhr #936009
Dazzle
TeilnehmerEs muss nicht grundsätzlich das Fetteste das am besten geeignete sein.Mehrere GT640’s sind im Vergleich zum Verbrauch effizienter wie eine 680 und kommen mit PCI-E 1x aus:d:Außerdem ist es günstiger, bestes Beispiel ist der EMK2, der hat auch keine teuren Xeons und rennt wie Sau
-
26. April 2013 um 0:04 Uhr #936011
dodo
TeilnehmerWo sind eigentlich die Radis?Unten drunter?Wahrscheinlich bestückt mit ordentlichen lüftern mit 3000upm…und selbst damit dürften die karten sehr warm werden
Darkness;506195 said:
Sieht doch garnicht so schlecht aus:-kLetztlich wird wahrscheinlich der Preis entscheiden, denn theoretisch könnte man auch ASUS Z9PE-D8 WS+ 2* Intel Xeon E5-2603 oder höher (z.b. E5-2609 oder E5-2620) verwenden.4x PCI-e x16 und 3x PCI-e x8, dazu 2*2011 Sockel, 8x DDR3 :xDa hast du natürlich recht, denn Intel lässt sich seine High-End CPU´s vergolden (vorallem da keine große Konkurrenz durch AMD), deswegen mein Vorschlag: Lieber zwei kleinere CPU´s für 400-600€ anstatt einer Highend CPU für 900€ aufwärts. Braucht zwar mehr Strom, spart aber einiges an KostenDie Rechnung kann man nachvolziehen.Dürfte lange dauern bis man ne differenz von etwa 600€ beim strom wieder drin hat…obwohl…würde er nicht annähernd 24/7 laufen wie der Emk2??Dann müsste man das wirklich genau nachrechnen.Wie is das eigentlich mit HT? Bringt das für eure Unterfangen viel?Mal davon abgesehen das HT beim Sockel 2011 sehr teuer is
-
26. April 2013 um 12:04 Uhr #936036
x20011
TeilnehmerDa das Rack aus einem Rechenzentrum kommt würde ich mal behaupten, das dort keine Radis verbaut sind. Die kiste wird an ein zentrales Kühlsystem angeschlossen sein….
-
26. April 2013 um 13:04 Uhr #936019
Darkness
Teilnehmerx20011;506216 said:
Die kiste wird an ein zentrales Kühlsystem angeschlossen sein….Heizung wird wohl eher zutreffen…
Dazzle;506202 said:
Es muss nicht grundsätzlich das Fetteste das am besten geeignete sein.
Mehrere GT640’s sind im Vergleich zum Verbrauch effizienter wie eine 680 und kommen mit PCI-E 1x aus:d:
Außerdem ist es günstiger, bestes Beispiel ist der EMK2, der hat auch keine teuren Xeons und rennt wie SauIch habe eher an die HD 7750 gedacht, welche bereits ab rund 75€ zu haben sind. Aber beim Board sollten wir schon auf Qualität achten, da 16 Karten ordentlich Strom über den PCI-E slot saugen und außerdem 24/7 Betrieb anvisiert wird
-
26. April 2013 um 14:04 Uhr #936025
Deadsystem
TeilnehmerVTG01;506200 said:
Naja, ich halte das Ding am Bild für nicht erstrebenswert. Die 4 Netzteile werden einiges an Strom saugen und die Abwärme kann ein Einfamilienhaus im Winter heizen – zumindest im Süden ….
Im Sommer wird der nicht lange rennen dann gehen die Lichter wegen Überhitzung im Raum aus. Bei 2,5-3,0kW Stomaufnahme für das Teil brauchst du noch mal ne Kühlung mit zumindest 2,0 KW Stromaufnahme.um die wärme wenigstens einigermaßen auszunutzen, würde ich die warmwassererzeugung von so einem teil übernehmen lassen. ich glaub in der schweiz wird ein schwimmbecken von einem großrechner beheizt.
alternativ dazu, einfach nach draußen verlagern. entweder den radi oder den ganzen computer.
-
26. April 2013 um 15:04 Uhr #936026
-
26. April 2013 um 17:04 Uhr #936033
Deadsystem
Teilnehmerjo, bei so großen anlagen ist das wohl mittlerweile standard. ich mein, wenn man sich zuhause ein 2kw rechner hinstellt, wäre es wegen der wärmeentwicklung sinnvoll, die abwärme in den warmwasserkreislauf einzubinden. spielt auch in finanzieller hinsicht eine nicht unerhebliche rolle.
-
26. April 2013 um 21:04 Uhr #936046
VTG01
Teilnehmer… das mit dem Warmwasser lasst mal bleiben. Warmwasser liegt bei zumindest 40°C zum Duschen und geht auf 60°C für den Abwasch. Keiner der Rechner hätte Freude an einer Kühlwassertemperatur von mehr als 30°C – oder irre ich mich da?
Und Duschen mit 25 °C finde ich persönlich zwar erfrischend im Sommer aber auf Dauer ist das ein bisserl wenig.
bei 2 kW x24 Stunden sind das 48kWh. Da kannst du schon eine Menge an Wohnungen mit Wasser versorgen. Ich denke nicht dass du mehr als 5 KWh – 7kWh für deinen WW-Boiler an einem Tag zu Hause benötigst.
-
26. April 2013 um 22:04 Uhr #936048
Darkness
TeilnehmerVTG01;506243 said:
… das mit dem Warmwasser lasst mal bleiben. Warmwasser liegt bei zumindest 40°C zum Duschen und geht auf 60°C für den Abwasch. Keiner der Rechner hätte Freude an einer Kühlwassertemperatur von mehr als 30°C – oder irre ich mich da?Es gibt doch irgendeinen Deutschen Superrechner, bei dem die CPU´s mit bis zu 60 Grad “kaltem” Wasser gekühlt werden.
Außerdem gibt es da sicherlich spezielle Wärmepumpen etc, welche die Energie von niedrigen Temps auf höhere “transformieren”.
(Prinzip der Wärmepumpenheizung siehe Wikipedia) -
27. April 2013 um 10:04 Uhr #936054
Horstelin
TeilnehmerHehe, ein Energie-Optimierer 🙂 Das muss man ehrlich gesagt genau durchrechnen. Da kann so einiges schief gehen. Entweder ist die Wärmepumpe verhältnismäßig zu teuer oder der Wirkungsgrad/Leistungsfähigkeit zu schlecht um die Wakü auf 30° zu halten.
-
27. April 2013 um 12:04 Uhr #936055
littledevil
TeilnehmerWärmepumpe kann man machen, wenn man damit ein gröeßres Mehrfamilienhaus versorgen möchte. Für ne reine GPU-Kühlung geht das aber auch mit so heißem wasser. CPU ist schon Grenzwertig, aber wenn man von ganz unten im Speicher mit 35° in den die CPU geht und dann in die GPUs, kommt hinten dann schon mal 60° raus, wenn man die Pumpe entsprechend langsam laufen läßt.
Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:
-
27. April 2013 um 12:04 Uhr #936057
Deadsystem
Teilnehmerlittledevil;506252 said:
Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:die frage hab ich mir auch schon gestellt. theoretisch ließe sich ein temperatursensor im wasser plazieren, der ab einer gewissen temperatur umschaltet auf luftkühlung. zwei wasserkreisläufe, eine pumpe geht aus, lüfter von einem radi gehen an.
muss man gucken wie groß der warmwasserspeicher ist und falls nötig vergrößern. waschmaschine, spülmaschine, wasserhähne. im winter ggf sogar die heizkörper. da wird schon genug wärme benötigt. -
27. April 2013 um 14:04 Uhr #936062
Darkness
Teilnehmerlittledevil;506252 said:
Wärmepumpe kann man machen, wenn man damit ein gröeßres Mehrfamilienhaus versorgen möchte.War jetzt eig. eher im Bezug auf Rechenzentrum gemeint, aber man könnte es hier natürlich auch machen, ist aber sicher nicht rentabel.
littledevil;506252 said:
Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:Da gibt es doch schon eine Lösung. Machen so gut wie alle Biogasanlagen (da Fernwärmeleitungen eher unrentabel sind) und Wasserkühler. Mit Radiator+ Lüfter die Umgebung heizen.
-
27. April 2013 um 15:04 Uhr #936064
isch
TeilnehmerFernwärmeleitungen unrentabel ???Die eine BGA heizt bei uns in der nähe ein ganzes Dorf,die zweite ein Krankenhaus und die dritte eine Fabrik.
-
27. April 2013 um 18:04 Uhr #936067
Darkness
Teilnehmerisch;506261 said:
Fernwärmeleitungen unrentabel ???Ist dann aber eine größere BGA oder? Für kleinere Anlagen die weit entfernt vom nächsten Dorf sind Fernwärmeleitungen meistens unretabel.
Bei uns in der Nähe ist eine ähnliche Anlage (Anstatt Bigas wurde Holz verwendet) Pleite gegangen. Was ich nur komisch finde ist, dass die Biogasanlage die direkt auf der anderen Straßenseite liegt nicht als Ersatz an die Fernwärmeleitung angeschlossen wurde. Deswegen wird die Fernwärmeleitung jetzt mit Erdgas befeuert 😡 -
27. April 2013 um 19:04 Uhr #936068
isch
TeilnehmerKeine Ahnung ob die groß oder klein sind.
-
26. Mai 2013 um 17:05 Uhr #937071
x20011
TeilnehmerHier mal wieder ein kleines Bildchen wie es aussehen könnte 😉
-
26. Mai 2013 um 18:05 Uhr #937072
dodo
Teilnehmerund die können so noch gekühlt werden?Ganz abgesehen von der Laustärke kommt jeder Lüfter irgendwann an sein Limit^^
-
26. Mai 2013 um 19:05 Uhr #937074
Neo111430
Teilnehmerund die können so noch gekühlt werden?
Sicher nicht oder laufen die nicht auf volleistung.:roll: Sehe leider bei meinem bruder ,schon bei Battlefield,oder Crysis ist temp.über 80°C gewesen troz 6 lüfter in Case.
gehts.Glaub nicht das mit dem abstand da noch was zu kühlen ist.
-
26. Mai 2013 um 19:05 Uhr #937076
konfetti
TeilnehmerWenn die Kühler von den Kühlrippen her entsprechend angeordnet sind, warum auch nicht – natürlich ist das zum einen eine Frage der Lautstärke, zum anderen dann auch der Auslastung.das sind ja immerhin Dualslot-Karten 😉
-
27. Mai 2013 um 11:05 Uhr #937095
-
27. Mai 2013 um 15:05 Uhr #937101
Dazzle
TeilnehmerDie sind mit an Sicherheit grenzender Warscheinlichkeit runter getaktet und undervoltet. Eine 580 läuft bei guter Luftversorgung schon als single gegen 100°C.
Zumal ich denke, dass es nicht sehr Energie effizient sein dürfte.
Viele kleine rechnen genau so schnell mit weniger Strom. Zudem sind sie in der Anschaffung günstiger.
In den größten Supercomputern der Welt werden auch keine 5Ghz CPUs verbaut, sonder hunderttausende kleine mit 2Ghz oder so
Daher die 16 geplanten Karten;) -
8. Juni 2013 um 11:06 Uhr #937479
med
TeilnehmerMoin,
steht das eigentlich fest das die HD7750 bei Boinc am effektivsten ist? Wenn ich die angegebenen GFLOPS mit den angegebenen Max. Watts vergleiche, komme ich auf folgende Tabelle:Ergo HD7970 GHz FTW 🙂
P.S.
Eine HD7950 und zwei GTX 580 könnte ich zum testen laufen lassen.P.P.S.
Und dann noch die Frage ob im Boinc Stats die angegeben:– ermittelte Fließkommageschwindigkeit
– ermittelte Ganzzahlgeschwindigkeitetwas aussagen. Denn bei Einstein@Home hat mein i5 3570K mit HD7950 3669.38 Millionen bzw. 12376.66 Millionen. Wärend Speedy sein i7 980 (6 Kerne) mit 3x GTX 560Ti auf 2998.82 Millionen bzw. 9345.34 Millionen kommt. Was vom Verbrauch ja def. für eine große Graka sprechen würde !?
-
9. Juni 2013 um 18:06 Uhr #937500
x20011
Teilnehmer*hust*
-
9. Juni 2013 um 21:06 Uhr #937505
med
Teilnehmer=D>Geiles Teil 🙂 Was ist denn da Nettes drin?Btw.Steht das fest das die HD7750 bestes Watt/Punkte Verhältns hat?
-
9. Juni 2013 um 22:06 Uhr #937506
med
TeilnehmerGeiles Teil! Was steckt denn da drin?
Btw.
Steht es fest das die HD7750 bestes Watt/Punkte Verhältnis hat?HD7750: 14,89 GFLOPS/Watt
HD7970 GHz: 17,2 GFLOPS/WattAußerdem würde man 5,25 Stück von den HD7750 benötigen um die GFLOPS der HD7970GHz zu erreichen. Sprich 5 mal mehr Prozessoren, Mainboards, Ram, etc. was auch nochmal alles Strom nimmt und in der Anschaffung kostet.
Ist natürlich die Frage wie das bei BOINC skalliert.P.S. Warum verschwinden meien Beträge wenn ich eine Grafik mit einbinde?
-
9. Juni 2013 um 23:06 Uhr #937507
isch
TeilnehmerEs kommt immer auf das Projekt drauf an was man rechnen möchte.Bei Poem bringt eine 7970 kaum mehr mal eine 7750.Bei anderen Projekten wich die 7979 mit der 7750 den Boden auf.
-
10. Juni 2013 um 15:06 Uhr #937512
Phiulipp
TeilnehmerDie Radeon HD 7790 darf man aber auch nicht vergessen mit 21.059 GFLOPS/W.
-
10. Juni 2013 um 18:06 Uhr #885935
ThaRippa
VerwalterBis man Double Precision braucht…
-
11. Juni 2013 um 13:06 Uhr #937534
Phiulipp
TeilnehmerDann kann man aber auch die 7750 und GT 640 vergessen.
-
11. Juni 2013 um 16:06 Uhr #937538
littledevil
Teilnehmer@x20011 wo hast Du das Foto her?
-
12. Juli 2013 um 23:07 Uhr #938306
Dazzle
TeilnehmerGegenfrage: Wer bist du 😀
-
12. Juli 2013 um 23:07 Uhr #938305
orw.Anonymous
TeilnehmerWas ist los mit euch?
-
14. Juli 2013 um 1:07 Uhr #938320
orw.Anonymous
TeilnehmerWas ist los mit euch?
-
14. Juli 2013 um 2:07 Uhr #938322
orw.Anonymous
TeilnehmerWas ist los mit euch?
-
14. Juli 2013 um 9:07 Uhr #938325
VJoe2max
TeilnehmerTrollbeiträge entfernt, verwarnt, gesperrt – erledigt! ;).
-
14. Juli 2013 um 9:07 Uhr #938254
Christoph!
VerwalterKönnte mal bitte jemand den Troll ausm Forum entfernen?
-
14. Juli 2013 um 13:07 Uhr #938331
Dazzle
TeilnehmerGibt es mittlerweile eigentlich Fortschritte?
Hab das Thema immer gerne verfolgt, da ich es sehr interessant fand, aber in letzter Zeit wurden nur Bilder irgendwelcher üppig bestückten Pc’s gepostet:roll: -
14. Juli 2013 um 17:07 Uhr #938347
dodo
TeilnehmerDie Bilder unterstützen ja das Vorhaben…sie zeigen das so etwas doch irgendwie möglich ist 😀
-
14. Juli 2013 um 17:07 Uhr #938346
isch
TeilnehmerJaein.Da POEM mit der wu Versorgung Probleme hat wir hier nicht weiter gemacht.
-
24. Juli 2013 um 5:07 Uhr #938580
topperharly
TeilnehmerHabt ihr euch mal das Design des neuen Mac Pro angeschaut?
http://www.apple.com/de/mac-pro/
Vielleicht lässt sich dies ja als Idee für ein Design aufgreifen?
Gruss Andreas
-
24. Juli 2013 um 10:07 Uhr #938582
littledevil
TeilnehmerJa, das ist echt abgefahren, was da bei der Baugröße ermöglicht werden soll.
-
28. Juli 2013 um 18:07 Uhr #938692
Mickdagger
TeilnehmerDas Design ist wirklich genial geil! Könnte sogar mein erster eigener Mac werden, wegen meinem Studium und verschiedener Praktika hab ich schon auf Mac´s gearbeitet aber Zuhause tat immer ein PC sein Werk. Danke für den Link!
-
7. September 2013 um 14:09 Uhr #939702
Dazzle
TeilnehmerIch stell mir die Kiste aber recht laut vor, wenn man guckt was da alles drinn sein soll und es nur mit einem Lüfter gekühlt wird:roll:
-
8. September 2013 um 1:09 Uhr #939718
ThaRippa
VerwalterGlaub ich weniger. Das ganze sollte nicht lauter werden als eine gleich schnelle Workstation. Immerhin kühlt man mit Aussenluft und zudem setzt Apple darauf dass so gut wie nie sowohl beide GPUs als auch die CPU gleichzeitig 100% ausgelastet sind. Wenn das eintritt, wird die Kiste schon hörbar werden. Das werden konkurrenzfähige Workstations aber auch.
-
12. Dezember 2013 um 21:12 Uhr #942195
xfn99
TeilnehmerGuten abend,
Ich habe den Kompletten Thread nicht durch gelesen, aber einen großen Teil.
Also entschuldigt bitte, wenn ich etwas wiederholen sollte.
Wenn ich das richtig mitbekommen habe, benötigt man viele Kerne/Threads.
Also habe ich mal etwas im Internet gesucht.
Bei der Grafikkarte halte ich die hd7790 für sinnvoll und würde sie persönlich der GT 640 vorziehen, da sie eine bessere GFlop/Watt performance hat, fast doppelt so schnell ist (gflops single percission) und in etwa gleich teuer ist.Bei der Cpu, Mainboard und dem Ram habe ich folgende Ideen:
Nr.1:
2x http://geizhals.de/intel-xeon-e5-2620-bx80621e52620-a733975.html
2x http://geizhals.de/supermicro-x9srl-f-retail-sockel-2011-mbd-x9srl-f-o-a848134.html
Meine Idee war das man zwei Mainboard nimmt da man dann die Splitter weglassen kann und dadurch Geld spartn würde (auf jedes Board müssten 4×7790 um die angepeilte Performance von 16xgt 640 zu erreichen)
Ram kann man überlegen was sinnvoll ist.Nr.2:
http://geizhals.de/amd-opteron-6376-os6376xfn99
hkwof-a862698.html (16 Kerne müsste reichen)
http://geizhals.de/supermicro-h8sgl-f-sockel-g34-quad-pc3-10667r-reg-ecc-ddr3-a521405.html
Hier würde man dann wahrscheinlich Splitter brauchenMfg xfn99
Ps: Hoffe das wird kein Doppelpost, irgendwie funktioniert das antworten nicht . -
13. Dezember 2013 um 8:12 Uhr #942192
ThaRippa
VerwalterAuch mal ein Ansatz. Die 7790 ist aber glaub ich die einzige 7000er, die man nicht umflashen kann auf andere Spannungen. Und DP-Leistung fehlt halt auch. Aber: vielen Dank für den Input, hier war es ja recht ruhig geworden.
-
13. Dezember 2013 um 11:12 Uhr #942194
xfn99
TeilnehmerDas stimmt undervolting scheint nicht zu funktionieren.
Hat jemand eine 7790? Wenn ja könnte man schauen, wie sich der vcore verhält, wenn man den Takt runtersetzt. Es könnte möglich sein, das die Vcore sich dem Takt anpasst .
Man könnte auch hd7970 kaufen (kosten “nur” noch um 200€) und diese untertakten bzhw untervolten .
Die 7970 haben auch eine hohe double percission Rechenleistung .
Mfg -
13. Dezember 2013 um 12:12 Uhr #942187
xfn99
TeilnehmerOk, wie wäre es mit r9 290? Ich weiß nicht, wie sich die undercolten lassen aber @stock kommen sue auch in die Gegend von über 20 glfops/watt.
-
13. Dezember 2013 um 12:12 Uhr #942186
ThaRippa
VerwalterDer vCore geht nicht runter wenn man den Takt reduziert, zumindest wenn die 7770 eine Indikation ist. Und bei meiner 7770 konnte ich 0.2V mit der Spannung runter gehen und dabei noch ein wenig mehr Takt geben. Hier wird definitiv nichts verbaut, was man nicht verbrauchsoptimieren kann.
-
13. Dezember 2013 um 12:12 Uhr #942189
ThaRippa
VerwalterLeider haben wir keine Gelddruckmaschine, daher brauchen wir auch gute gflops/Geld.
-
13. Dezember 2013 um 14:12 Uhr #942191
littledevil
TeilnehmerWelche Vcore hat die 7790 bei vollem Takt? Evtl. macht ja auch OC Sinn.
-
13. Dezember 2013 um 14:12 Uhr #942201
xfn99
TeilnehmerAlso mal rein rechnerisch ;)Eine r9 290 hat 5000 gflops und kostet 330€Die hd 7790 hat ca 1800 gflops und kostet 100€D.h. man braucht 2,7 7790 für eine r9 290 .Rechnerisch kosten die 2.7 7790 270€ bedeutet eine Differenz von ca 60€ und bietet deutlich bessere Double percission .Wobei man wenn man die r9 290 nehmen würde auch nur ein Mainboard Cpu etc. verwenden müsste und dadurch wieder ca 400-500€ sparen würde .Ps: den Vcore kenn ich nicht in Tests konnten sie die Karte aber um 20-25% übertakten (dann ca 1.2-1.3 GHz)
-
13. Dezember 2013 um 15:12 Uhr #942203
xfn99
TeilnehmerDie Karten lassen sich übertakten, soweit ich aber weiß sind es schlechte chips die bei der 7970 durchgefallen sind. Ich glaube auch das Manche Einheiten deaktiviert sind. Ich weiß es nicht mehr genau, ist eine Weile her das ich mich über die Karte informiert habe .Ps: die 7870 bost hat ca 1500alu s die 7970 ca 2000
-
13. Dezember 2013 um 15:12 Uhr #942202
ThaRippa
VerwalterSo um die 1.2V, je nach Hersteller und Chipgüte. OC ginge sicher, aber auch das wieder nicht per BIOS und daher nicht richtig Linux-Proof. Und Effizient dürfte das nicht sein.Ich würde diese 7870 Boost Edition hier vorschlagen.Man muss aber genau aufpassen, dass es auch wirklich ein Tahiti- (wie die 79xxer) und kein Pitcairn-Modell (wie die anderen 78xxer) ist. Denn nur dann erhält man die billigste GPU mit brauchbarer DP-Leistung. Ob man da das BIOS bearbeiten kann, muss ich allerdings erst mal gucken.
-
13. Dezember 2013 um 15:12 Uhr #942205
ThaRippa
VerwalterDie 7970 mag 25% mehr Rohleistung haben, kostet aber mehr als das Doppelte ;)Und warum die sich nicht übertakten lassen sollen ist auch nicht ganz schlüssig. Selbst wenn das wirklich Selektion ist (und oft ist das nicht so weil gegen ende des Produktzyklus die Yield-Rate gut genug ist) dann müssen die funktionierenden Shaderunits ja nicht schlechter sein. Zudem wird es uns wahrscheinlich kaum um OC gehen, eher um möglichst wenig Volt für ungefähr Standardtakt (975MHz!). Klar, da spielt auch die Chipgüte eine Rolle, aber wie gesagt, ich sehe das unkritisch.Interessanter wird sein, ob man nicht “echte” 7950er teilweise zum gleichen Preis bekommt.
-
13. Dezember 2013 um 15:12 Uhr #942206
xfn99
TeilnehmerThaRippa;512866 said:
Die 7970 mag 25% mehr Rohleistung haben, kostet aber mehr als das Doppelte 😉Die hd 7970 kostet ca. 230€
Die alu s waren ja von der 7970 nicht von der r9 290 😉 -
13. Dezember 2013 um 16:12 Uhr #942210
xfn99
Teilnehmerhttp://geizhals.de/xfx-radeon-hd-7970-double-dissipation-edition-fx-797a-tdfc-fx-797a-tdjc-a723345.htmlBei hardwareversand 220€ wenn ich auf den Link gehe, komme ich zur Startseite von HWV komisch…Die xfx sollen wohl recht laut sein wobei ich denke das der PC dann sowieso in einen Keller wandern dürfte.Verbessert mich, wenn ich falsch liege 😉
-
13. Dezember 2013 um 16:12 Uhr #942209
ThaRippa
VerwalterIch kann diesen Preis bisher bei keinem Renommierten Versender finden, aber sollte man die Tahiti-XT wirklich so billig bekommen, muss die Tahiti-LE ja schon im Bereich um die 150€ liegen, um noch wirklich besser zu sein. Immerhin kosten PCIe-Slots auch Geld.
-
13. Dezember 2013 um 18:12 Uhr #942211
isch
TeilnehmerAlso mal langsam.POEM hat seit ein paar Tagen kein Graka Projekt mehr.Es wird nächstes Jahr wohl was neues kommen aber da muss man dann erst mal schauen wie das läuft und was da für Karten sinnvoll sind.
-
13. Dezember 2013 um 21:12 Uhr #942217
xfn99
TeilnehmerDas ist denke ich mal gut zu wissen .
Die Xeon s bewegen sich leistungsmäßig auf einem i7 4770k, soweit man das den Benchmarks entnehmen kann. Stellt sich nur die Frage ob so viel Cpu Leistung benötigt wird, wenn die gpu’s rechnen oder ob da etwas faul ist.
@isch ich denke eher nicht das dieses Projekt bis Anfang nechsten Jahres durch ist, von daher sollte es bis dahin auch wieder wu’s geben.
Ich habe selber leider keine sehr gute Hardware und lasse Boinc meistens auf meinem Handy laufen 😀
Wenn es wieder Wu’s gibt könnte ich aber mal zum Test welche auf einem i7 3630qm und 2xhd7970m laufen lassen (sind ja wie 7850-7870 im Desktop)
Mfg -
13. Dezember 2013 um 21:12 Uhr #942220
xfn99
TeilnehmerWobei es rechnerisch auch kein Wunder ist .
Eine GT 640 hat glaube ich ca 700gflops die Titan glaub um die 5000gflops
Wie sieht es bei GPUGrid mit AMD Karten aus ?:) -
13. Dezember 2013 um 21:12 Uhr #942216
isch
TeilnehmerBei GPUGrid ist die Versorgung sehr gut.Leider sind die großen Karten hier deutlich im verteil.Die Titan ist über 7mal so schnell wie ein 640er
-
13. Dezember 2013 um 21:12 Uhr #942215
VTG01
TeilnehmerJa das mit POEM ist schade – wie ist eigentlich die Versorgung bei GPUGRID? Da gehen zwar keine ATI-Karten – für ein neues Gerät wäre das aber egal.@xfn99… ich habe einige 79xx laufen und die bringen gute Leistung – aber saugen auch ganz schön fest. Projekt ist zur Zeit COLLATZ – kannst dir den User Schildkroete anschauen. Bei POEM sind die 79xxer nicht auslastbar – zumindest mit einem i7 und einer 1155 Plattform. Bei COLLATZ sieht das anders aus – dennoch habe ich mit 2 Karten auch schon Probleme – irgendwas klemmt wenn die 2. Karte in OC rennt. (Habe mal bei allen Karten den Takt zurück genommen und vcore runter gesetzt – somit ist das Problem jetzt nicht mehr tragend)
-
13. Dezember 2013 um 21:12 Uhr #942218
VTG01
Teilnehmer@ischdas höhrt sich nicht gut an – da ist der Einstieg in die TOP TEN sowohl in der Anschaffung als auch im Betrieb teuer.Ist ein Paralellbetrieb – ähnlich wie Collatz – möglich oder tendiert es eher Richtung POEM?
-
13. Dezember 2013 um 22:12 Uhr #942221
isch
TeilnehmerGPUGrid ist wie Collatz brauch also so gut wie nichts an CPU.GPUGrid ist ein reiner Nvidia Projekt.
-
14. Dezember 2013 um 9:12 Uhr #942229
xfn99
TeilnehmerAuf der Webseite steht aber AMD support :
http://www.gpugrid.net/
Mfg -
14. Dezember 2013 um 16:12 Uhr #942241
isch
TeilnehmerDas wäre aber das neu das die AMD/ATI unterstützen.In den Einstellungen kann man auch nur Cuda Anwendungen einstellen.
-
14. Dezember 2013 um 17:12 Uhr #942243
-