MeisterKühler

BOINC

Der Super-Boinc-Rechner mit 16 Grafikkarten?

Ansicht von 613 Antwort-Themen
  • Autor
    Beiträge
    • #929271
      Renovatio
      Teilnehmer

      Was für eine GT 640 würden wir den verwenden?

    • #929268
      Renovatio
      Teilnehmer

      Hey,eine sehr geile Idee. Mit dem runden Gehäuse machen wir alles richtig und bietet sicherlich dann auch genug Platz. Schön das auch die Beiträge im Forum sowie der Gruppe einbezogen wurde und das daraus was gemacht wurde. An welche Boards mit CPUs denkt ihr für die Grafikkarte einzusetzen?Andre

    • #929269
      konfetti
      Teilnehmer

      hm, das erinnert mich ja irgendwie an die Cray-1Wo soll der dann stehen?

    • #498901
      ulv
      Teilnehmer

      Nachdem unsere CPU Version mit 84 Kernen mittlerweile schon über 1 Jahr läuft wird es langsam Zeit über die Grafikkarten-Version nachzudenken:

      phil68 und ich haben mal ein wenig rumgesponnen wie ein würdiger Nachfolger aussehen könnte:

      Ein rundes Gehäuse mit
      4 x ITX
      4 x PCIe Splitter
      16 x GT640 alles an
      1 x Netzteil mit einem
      600er Lüfter

      http://www.meisterkuehler.de/forum/attachment.php?attachmentid=1130&d=1352822114
      Das Bild war leider zu groß für den Scanner – es geht natürlich rund rum weiter.

      PS: Die Splitter sind schon erprobt und bremsen BOINC nicht aus.

    • #929270
      Kiro
      Teilnehmer

      die Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀

    • #929273
      isch
      Teilnehmer

      GPUs sollten schon SingleSlot sein.Bei den CPUs kann ja ja nur so was wie der i7 3770 oder Xeon E3-1245V2 oder Xeon E3-1240V2Und der Splitter bremst das ganze nicht aus?Der muss ja ständig 4 Karten mit Daten versorgen.Für welche Projekte soll der dann laufen?

    • #929275
      ulv
      Teilnehmer

      Ist ja nur ein Entwurf.Jemand eine Idee wie wir das mechanisch überhaupt lösen können?Das muss ja möglichst einfach zu fertigen sein. Aber dennoch stabil genug.

    • #929277
      schannall
      Teilnehmer

      Hmm. Fräsen würde ich sagen. Aus einem Stück. Wenn ihr Irgendwo ein Riesen Alu/Metallblock rumliegen habt. Ansonsten Kirschholz o.ä. mit vielen Schrauben..Aber EIN Netzteil für 16 GraKas? Wird eng :)sC

    • #929278
      isch
      Teilnehmer

      Wenn ich am WE etwas Zeit habe mache ich mal ein paar Zeichnungen mit Sketchup.Macht es denn nicht mehr Sinn die Karten so wie die ITX zu Platzieren?Also vor jeden ITX 4 Karten.Dann sind zwar die ecken leer aber so sollte sich das besser kühlen lassen.

    • #929280
      phil68
      Teilnehmer

      @ulvGenau so hatte ich mir das auch vorgestellt 🙂 Ich würde nur die Grakas parallel zum ITX verbauen. Graka würde ich diese nehmen: http://geizhals.de/794563… CPU siehe isch :d:

      Aber EIN Netzteil für 16 GraKas? Wird eng

      Die GT 640 verbraucht optimiert ca. 30W, sodass die Kiste ca. 700W(grob geschätzt)[eher weniger] verbrauchen wird.

      Für welche Projekte soll der dann laufen?

      POEM wäre natürlich in Bezug auf Credits der Hammer… zumal das ein Projekt ist, welches ich mehr als unterstützenswert halte. Das wären dann für den Rechner etwa 5-6Mio/Tag… selbst bei PG schmeißen die Karten immernoch ca. 1,8Mio/Tag… und wir hätten immernoch 16 Kerne für CPU Projekte :DGrüße Dirk

    • #929285
      isch
      Teilnehmer

      Dei ATi7750 sind mit den neuen Beta Treibern auch nicht zu verachten.Sollten von der c/W Performens her noch besser sein als die 640 aber brauchen halt etwas mehr.

      Wenn WCG zu ende ist werde ich mal testen was da so geht 🙂

    • #929289
      Gillian
      Teilnehmer

      Die Idee finde ich super…Bitte nicht gleich auf mich einschlagen, aber wenn je CPU vier Kerne eh für die GraKa’s ‘rechnen’ müssen, wäre dann nicht die Bulldozer Architektur auch interessant für uns? Preislich ja auf jeden Fall, oder wegen der TDP eher nicht?GrußGunnar

    • #929288
      ulv
      Teilnehmer

      Hübsch wäre es schon, aber ……. ich hab mal eben nochmal nach ATX mit >= 4 PCIe geschaut:MB 100€ + CPU 30€Das kostet ja nicht mal die Hälfte vom Splitter alleine! :roll:4 solche und ein Lüfter und alles wäre sofort gut.Und weil die GT640 keinen Strom-Stecker hat wäre nicht ein einziges Kabel nötig.Was meint Ihr? Wie viel darf das Design kosten?

    • #929292
      isch
      Teilnehmer

      @ ULV die CPU kannst vergessen.Bei 4 GPU braust 8 Kerne/Threads mit mindesten 3,3GHz sonst verhungern dir die GPUs.Die neuen Graka Projekte brauch leider teils viel CPU um die WU zu berechnen.@Gillian Die Bulldozer verbrauch leider viel zu viel.Das kannst fast 2 i7 betreiben.

    • #929298
      isch
      Teilnehmer

      Eine Karte braucht ca 30W sind also 120W:Ist sogar noch weniger als eine von deinen ATIs.DOPPELTE GENAUIGKEIT wird ja nur für einige wenige Projekte gebraucht.

    • #929297
      VTG01
      Teilnehmer

      Die Idee finde ich gut, dennoch gilt es von Beginn an zu bedenken:

      – Wie versorge ich die Grakas mit Strom – vom Board her wird das nichts werden mit so vieln GRAKAS, auch wenn die nur wenig Watt haben.

      – Ich wurde eine Art von “Rack” vorschlagen, die man teilen kann und auf verschiedenen Standorten betreiben kann. Ich halte es für problematisch eine weitere Maschine mit 700W im Dauerbetrieb zu finanzieren. z.B. 4 Gehäuse mit je 4 Karten, die über LAN koppelbar und als 1 Rechner zu betreiben sind. (Betriebskosten /4, bzw. Energieeinsparung durch trennen von Gehäusen) Auch Kühlung und Bastelarbeit sollten sich dadurch in Grenzen halten ….

      – Grundsätzlich stellt sich die Frage in wie weit die DOPPELTE GENAUIGKEIT bei Berechnungen eine Rolle spielt oder nicht. Meine 5 Garkas rechnen in 3 Rechnern (seit gestern Abend) und alle für doppelte Genauigkeit ausgelegt.

      – Im gegensatz zu Prozessoren stelle ich mir den Aufwand für Kühlung deutlich schwieriger vor wenn man leistungsstarke Karten hat. Die Karten strahlen auch auf der “Rückseite” ordentlich Wärme ab, was dazu führt das der “Hintermann” deutlich mehr Aufwand für Kühlung hat. Ich rege an auf Querlüftung – also im rechten Winkel zu den Karten – die Hauptlüftung zu machen. In wie weit das Kabelgewirr und die Switche hier den Luftstrom hindern gilt es zu prüfen.

    • #929301
      Obi Wan
      Verwalter

      warum wollte ihr diese Graka nehmmen -> GeForce GT 640 ?hat das einen Grund ?

    • #929303
      Sc0rp
      Teilnehmer

      Re,

      Kiro;499028 said:
      die Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀

      Wie kommst du darauf?GTX460 = 907 GFlops SP und 75,6 GFlops DP (bei 160W)GT640 = 691,2 GFlops SP und 28,8 GFlops DP (bei 34W)Also die GTX460 (Werte hier ohne OC) schlägt bei der reinen Rechnenleistung die GT640. Allerdings sieht das bei Performance/Watt natürlich wesentlich besser für die GT640 aus, aber das erwartet man ja auch von einem zwei Generationen besseren Chip, oder?Den runden PC finde ich mal richtig innovativ – allerdings erzeugt das auch heftige Probleme, besonders beim Betreiben / Aufstellen. Bauen ist nicht das Problem (wenn mal kurz drüber nachdenkt was für Profis hier im Forum unterwegs sind *auf die DKM schiel*). 700W ist auch super für so ‘ne Maschine, hört sich für mich alles sehr stimmig an.Wenn man die GraKa’s parallel setzt, könnte man auch ein PICMG-Gehäuse (19 Zoll) nutzen, die haben auf der Rückseite mehr Slotbleche – und die ITX-Boards würden bequem übereinander passen (mit popeligen Abstandsbolzen ;)).Oder man nimmt dieses hier, und moddet die Rückwand (mehr Slots) und baut in die Front zwei 140er (160er) Lüfter …Sc0rp

    • #929307
      littledevil
      Teilnehmer

      ITX + Splitter halte ich auch für zu kostspielig.

      Etwas mit matx und 3-4 Steckplätze sollte gut passen:

      ASUS P8H61-M Pro Rev 3.0

      ASUS P8H61-M LX Rev 3.0

      MSI Z68MA-G45 (G3) / MSI Z68MA-G45

      Mit 3 Steckplätze und evtl. recht sparsam und vor allem schönkompakt:
      ASUS P8H61-MX

      Wie verhält es sich von der Performance zw. i5 und i7? Lohnt der i7 wirklich oder dann besser nur 2-3 Karten pro blade?
      Ein i5-3350P, 4x 3.10GHz sieht preislich sehr gut aus.

    • #929310
      Sc0rp
      Teilnehmer

      phil68;499067 said:
      Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.

      Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).

      Grüße Dirk

      Jo Dirk … und was wäre bei OC?
      Bzw. überhaupt der ganzen Takterei?
      Woher nimmst du die Werte?
      Ach ja, nicht zu vergessen: bei POEM only? Oder ist das generell so?
      Wie sieht es (ganz aktuell) bei WCG-HCC@GPU aus?

      Das Thema interessiert mich ganz besonders, hab ja ‘ne EVGA GTX460SC am Laufen – und 30W vs. 160W sind schon ‘ne Hausnummer. Geplant ist ein GraKa-Upgrade auf eine GTX670 … da ich nebenbei auch zocke. Wenn sich eine GT640 fürs BOINCen rentiert, könnte ich die ja auch noch irgendwo reinklemmen …

      Sc0rp

    • #929311
      isch
      Teilnehmer

      Es sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.@Sc0rp bei WCG rennen die ATI 7xxx besonders gut.

    • #929308
      phil68
      Teilnehmer

      Sc0rp;499062 said:
      Re,

      Kiro;499028 said:
      die Idee gefällt mir und da ich die GraKa selber als Zweitkarte hab, find ich das super, da die Karte zwar zum Zocken bedingt geeignet ist, aber bei BOINC definitiv schneller rennt, als eine GTX 460 mit leichtem OC 😀

      Wie kommst du darauf?
      GTX460 = 907 GFlops SP und 75,6 GFlops DP (bei 160W)
      GT640 = 691,2 GFlops SP und 28,8 GFlops DP (bei 34W)
      Also die GTX460 (Werte hier ohne OC) schlägt bei der reinen Rechnenleistung die GT640. Allerdings sieht das bei Performance/Watt natürlich wesentlich besser für die GT640 aus, aber das erwartet man ja auch von einem zwei Generationen besseren Chip, oder?

      Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.

      Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).

      Grüße Dirk

    • #929314
      Sc0rp
      Teilnehmer

      Re,

      isch;499072 said:
      Auch bei POEM/WCG mit den neuen Karten?

      Hat nix mit dem Projekt oder der Hardware an sich zu tun, sondern mit der Art wie GPGPU funktioniert – GPGPU braucht keine extravaganten Texturen zwischen Festplatte/Hauptspeicher und GraKa zu tauschen, daher braucht man hier keine breitbandige Anbindung. Die Steuerbefehle bzw. Daten die bei GPGPU ausgetauscht werden sind dagegen lachhaft klein …

      Bildlich: kleines Arbeitspaket wird an die GraKa geschickt, die rechnet mordsmäßig und vor allem parallel das Paket durch (evtl. wird es im GraKa-RAM etwas aufgeblasen -> trotzdem lächerlich), dann geht ein kleines Ergebnispaket zurück …

      Sc0rp

    • #929312
      Sc0rp
      Teilnehmer

      Re,

      isch;499070 said:
      Es sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.

      Wurde bereits positiv getestet … durch Jabba (sofern ich mich richtig erinnere) -> es reicht Dicke. Die Rechenleistung bei GPGPU wird nicht durch den peripheren Bus gebremst.

      isch;499070 said:
      @Sc0rp bei WCG rennen die ATI 7xxx besonders gut.

      Jo, angeblich noch besser mit Beta-Treibern … aber ich werde auf meinem SCHLUMPF (AMD-System mit HD5850 für die Stube bzw. Frau) kein Beta-Treiber draufmachen und ganz sicher kommt MEIN Workstation-GraKa-Update vor dem meiner Frau :devil:!Sc0rp

    • #929313
      isch
      Teilnehmer

      Sc0rp;499071 said:
      Re,

      isch;499070 said:
      Es sollte erst mal getestet werden ob x1 überhaupt reicht.Ich bin der Meinung das reicht hinten und vorn nicht.

      Wurde bereits positiv getestet … durch Jabba (sofern ich mich richtig erinnere) -> es reicht Dicke. Die Rechenleistung bei GPGPU wird nicht durch den peripheren Bus gebremst.Sc0rp

      Auch bei POEM/WCG mit den neuen Karten?

    • #929316
      phil68
      Teilnehmer

      Sc0rp;499069 said:

      phil68;499067 said:
      Ncht ganz… die GTX 460 schafft bei POEM ungefähr 330-350k… die GT 640 liegen bei 360-380k.

      Der Grund dafür sind die Stream Prozzis… 338(GTX) vs. 384(GT).

      Grüße Dirk

      Jo Dirk … und was wäre bei OC?
      Bzw. überhaupt der ganzen Takterei?
      Woher nimmst du die Werte?
      Ach ja, nicht zu vergessen: bei POEM only? Oder ist das generell so?
      Wie sieht es (ganz aktuell) bei WCG-HCC@GPU aus?

      Das Thema interessiert mich ganz besonders, hab ja ‘ne EVGA GTX460SC am Laufen – und 30W vs. 160W sind schon ‘ne Hausnummer. Geplant ist ein GraKa-Upgrade auf eine GTX670 … da ich nebenbei auch zocke. Wenn sich eine GT640 fürs BOINCen rentiert, könnte ich die ja auch noch irgendwo reinklemmen …

      Sc0rp

      Hi Chris 🙂
      Die Werte für die GTX460 hab ich vom Projekt selbst(nach GTX460 gesucht). Die Werte der GT640 hab ich aus eigenem Bestand(2 Stück).
      Weitere Tests hatte ich noch bei PG gefahren…
      GTX560ti vs. GT640
      160k vs. 115k pro Tag

      Für die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.

      Grüße Dirk

    • #929324
      konfetti
      Teilnehmer

      11 Minuten? – meine GTX260 rechnet im schnitt bissl über 8 Minuten pro HCC GPU WUansonsten find ichs trotzdem interessant 😉

    • #929328
      ulv
      Teilnehmer

      Da die laufenden Kosten bei 24/7 der größte Kosten-Anteil sind ist es extrem wichtig, dass der Rechner viele Credits/Watt macht. Nur danach sollten wir die GPU aussuchen.

      Zur Verdeutlichung: Bei 20 Cent/Watt kosten 500 Watt Dauer-Last im Laufe von 2 Jahren fast 2000€!

    • #929327
      littledevil
      Teilnehmer

      konfetti;499083 said:
      11 Minuten? – meine GTX260 rechnet im schnitt bissl über 8 Minuten pro HCC GPU W

      Bei welchem, VErbrauch? 😆

    • #929329
      Sc0rp
      Teilnehmer

      Re Dirk,

      phil68;499075 said:
      Für die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.

      Meine GTX460SC braucht zwischen 00:04:55 und 00:07:44 pro WCG-HCC@GPU-WU 😉 – klar, im Verbrauch schlägst du mich – aber nicht bei der absoluten Zeit 😉 -> schnella!

      Wie kann man die GT640 eigentlich tunen? Kann man an der was “schrauben”? Preislich gehen die grade ab ca. 70€ über den Tisch, da könnte ich 2-3 noch in den Server schrauben ;).

      Sc0rp

    • #929331
      phil68
      Teilnehmer

      Wie verhält es sich von der Performance zw. i5 und i7? Lohnt der i7 wirklich oder dann besser nur 2-3 Karten pro blade?Ein i5-3350P, 4x 3.10GHz sieht preislich sehr gut aus.

      Wenn dann sollten wir einen I7 nehmen… Wenn es nur 4 Kerne sein sollen, kann man auch zum wesentlich billigerem I3 greifen. Der I3 3220 läuft sogar mit 3,3GHz und dürfte kaum langsamer(bei BOINC) sein als der I5(6MB Cache gegenüber 3MB des I3) :-k

      Sc0rp;499088 said:
      Re Dirk,

      phil68;499075 said:
      Für die WCG HCC(GPU) WUs braucht die GT640 ca.11 Minuten.

      Meine GTX460SC braucht zwischen 00:04:55 und 00:07:44 pro WCG-HCC@GPU-WU 😉 – klar, im Verbrauch schlägst du mich – aber nicht bei der absoluten Zeit 😉 -> schnella!Wie kann man die GT640 eigentlich tunen? Kann man an der was “schrauben”? Preislich gehen die grade ab ca. 70€ über den Tisch, da könnte ich 2-3 noch in den Server schrauben ;).Sc0rp

      😀 Ja, aber wie schon geschrieben… die GT640 braucht ohne Optimierung ca. 30Watt. Wenn dann mal das passende BIOS und Flash Tool auf den Markt kommt, lässt sich da sicher noch etwas mehr Effizienz rauskitzeln. Bei POEM schafft eine GTX 680 ca. 1Mio k pro Tag bei etwa 180 Watt und einem Anschaffungspreis von ca. 430€ !Die GT640 macht ca. 370k bei 30 Watt und kostet 70€ !!Mehr muss ich wohl nicht dazu sagen :+ d.h. halbe Anschaffungskosten… halber Preis… selbe Leistung!!!(um ähnliche Credits zu erreichen) So ist das eben bei BOINC… wir wollen, wie ulv schon geschrieben hat, die max. Credits bei so wenig wie möglich Verbrauch.Grüße Dirk

    • #929337
      isch
      Teilnehmer

      Passen in den Splitter Dualslot Karten? man kann das auf dem Bild so schlecht erkennen und im Text habe ich auch nichts gelesen ( Oder verstanden 🙂 )

    • #929335
      phil68
      Teilnehmer

      isch;499093 said:
      Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.

      Bei nur 4 Kernen würde da ein Stau entstehen und die Credits würden sich fast halbieren.

      Genau… ganz vergessen, dass wir ja 4 Karten haben 🙂

    • #929338
      Sc0rp
      Teilnehmer

      Re,

      isch;499096 said:
      Passen in den Splitter Dualslot Karten? man kann das auf dem Bild so schlecht erkennen und im Text habe ich auch nichts gelesen ( Oder verstanden 🙂 )

      Das ist ein PCIe-Splitter, der die Lanes aufteilt – ist hier irgenwo im Forum schonmal diskutiert und beschrieben worden. Der macht dann z.B. aus einem PCIe x4 viermal PCIe x1 und Stromversorgung könnte man quasi direkt an den Splitter löten. Es gibt welche mit einer festen Platine und welche mit Flachbandkabeln …EDIT: Google ist dein Freund: http://www.amfeltec.com/products/x4pcie-splitter4.phpSc0rp

    • #929334
      isch
      Teilnehmer

      Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.Bei nur 4 Kernen würde da ein Stau entstehen und die Credits würden sich fast halbieren.

    • #929339
      VTG01
      Teilnehmer

      @isch
      Das mit dem Verbrauch stimmt, meine beiden 5870er laufen leicht übertaktet bei 875mhz. Selbst bei diesen Aussentemperaturen ist eine Raumtemperatur von unter 20°C nicht möglich! Leistungsaufnahmetest mache ich am WE


      @phil
      , @isch
      Es kommt immer darauf an welche Projekte gerechnet werden und welches Ziel da ist. Ein GPU-Cruncher muss einfach nur GPU-Projekte rechen können. Dummerweise brauchen die aber doch immer wieder deutlich CPU. Somit schlage ich vor die einzelnen Grakas die in Frage kommen auf mehreren Projekten zu testen und mit den “Dauerbrennern” a la 5870, GTX… zu vergleichen. So kommt man dann relativ schnell auf ein Projekt bei dem eine deutlich “schwächere” Karte bei BOINC deutlich effizienter ist als die “Dauerbrenner”. Vielleicht ist es möglich dass sich ein paar Personen an den Tests beteiligen. Ich stelle mich mit dem I7, einen Q9400, sowie einen x4 gerne in die Testreihe mit einer 5850er, 5870er und der doch schon deutlich schwächeren 5770. 4 Rechner, 3 Karten 8 Projekte (oder mehr) können durchaus ein Ergebnis darstellen.


      @ulv

      Dein Hinweis zum Stromverbrauch finde ich ganz toll. Bei einem günstigen Board, günstigen Prozzi und günstigen Grakas sind die Betriebskosten innerhalb weniger Jahre bereits höher als die Anschaffungskosten!

      Frage in die Runde:
      An einem Picu 160xt mit einem 190er Netzteil sollte es doch möglich sein 2 30Watt Grakas zu betreiben – der Rechner braucht Spitze um die 65 Watt. Habt ihr das schon mal probiert? Wenn ich in Geizhals schaue brauchen die GT640er jedoch alle um die 65 Watt, ihr sprecht oben vom 30 Watt – wie das?

      Ich könnte mir durchaus vorstellen in mein MSI Z77A-G45 an stelle der 2 5870 ein paar (nicht 2 sondern mehr) GTX 640 oder 7750er rein zu bauen. Ob wirklich 7 rein passen glaube ich nicht. 3x über PCIe x16 sind sicher kein Problem, aber die 4 über PCIe x1 brauchen doch auch noch Strom. insgesamt 7*30 Watt = 210 Watt sollte noch gehen aber 7* 60 Watt (lt. Datenblatt)= 420 Watt ist dann schon ein bisserl viel über den 2xP4 + 24Pin Stecker am Board. Auch das Netzteil mit 580Watt hat da ein bisserl Probleme da die Schienen nicht zusammengeschaltet werden können. Najy – vielleicht doch ein wenig Hirngespinst. 😆

    • #929340
      isch
      Teilnehmer

      Das prinzip ist mir schon klar wollte nur wissen ob in diesen 4er x1 Tower Dualslot Karten passen oder nur Singleslot.

      VTG01;499098 said:
      @phil, @ischEs kommt immer darauf an welche Projekte gerechnet werden und welches Ziel da ist. Ein GPU-Cruncher muss einfach nur GPU-Projekte rechen können. Dummerweise brauchen die aber doch immer wieder deutlich CPU. Somit schlage ich vor die einzelnen Grakas die in Frage kommen auf mehreren Projekten zu testen und mit den “Dauerbrennern” a la 5870, GTX… zu vergleichen. So kommt man dann relativ schnell auf ein Projekt bei dem eine deutlich “schwächere” Karte bei BOINC deutlich effizienter ist als die “Dauerbrenner”. Vielleicht ist es möglich dass sich ein paar Personen an den Tests beteiligen. Ich stelle mich mit dem I7, einen Q9400, sowie einen x4 gerne in die Testreihe mit einer 5850er, 5870er und der doch schon deutlich schwächeren 5770. 4 Rechner, 3 Karten 8 Projekte (oder mehr) können durchaus ein Ergebnis darstellen.

      Das Problem bei den ATI 7xxx und NV 6xx Karten ist das bislang nur POEM und WCG davon Profitieren.Bei anderen Projekten sieht es dann nicht mehr ganz so rosig aus.

      VTG01;499098 said:
      Frage in die Runde:An einem Picu 160xt mit einem 190er Netzteil sollte es doch möglich sein 2 30Watt Grakas zu betreiben – der Rechner braucht Spitze um die 65 Watt. Habt ihr das schon mal probiert? Wenn ich in Geizhals schaue brauchen die GT640er jedoch alle um die 65 Watt, ihr sprecht oben vom 30 Watt – wie das?

      Ich habe eine und phil auch (siehe meine teste).Eine 7750 habe ich auch hier und wird nach der WCG Challenge ausführlich getestet.

    • #929352
      littledevil
      Teilnehmer

      isch;499093 said:
      Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.

      Wieviel Mehrleistung haben denn die 4 Pseodokerne tatsächlich?Es kommt ja auf dei tatsächliche GEschwindigkeit an und nciht nru dei Kernanzahl, oder?P.S. was haltet Ihr vom Asus P8P67 Pro B3 ?Da hat ein bucht-Händler ne ganze Menge da. Denke mal, das man die günstig schnappen könnte – habe die grad in Beobachtung3 Karten direkt stecken und die vierte über einen Riser auf x16

    • #929374
      isch
      Teilnehmer

      littledevil;499116 said:

      isch;499093 said:
      Es muss ja ein i7 oder Xeon sein.Wenn auf jeder Graka nur 2WUs laufen und das bei 4 Grakas macht 8 WUs die ja dann auch gleichzeitig von der CPU berechnet werden müssen.

      Wieviel Mehrleistung haben denn die 4 Pseodokerne tatsächlich?Es kommt ja auf dei tatsächliche GEschwindigkeit an und nciht nru dei Kernanzahl, oder?P.S. was haltet Ihr vom Asus P8P67 Pro B3 ?Da hat ein bucht-Händler ne ganze Menge da. Denke mal, das man die günstig schnappen könnte – habe die grad in Beobachtung3 Karten direkt stecken und die vierte über einen Riser auf x16

      Ist ja egal wie viel Mehrleistung die 4HT Kerne haben.Wenn nur die 4 echten das sind werden auch nur 4 Threads ausgeführt und somit kannst nur auf jeder Graka 1 WU laufen lassen.Asus und Stromsparen widerspricht sich doch eigentlich.

    • #929386
      isch
      Teilnehmer

      Ja cpu power wird benötigt.da bringt ein hoher takt abhielfe.Bei 2 wus hast du fast die doppelten Kredits weil eine wu die GPU kaum auslastet.

    • #929383
      littledevil
      Teilnehmer

      Hattest Du nicht geschrieben, das da recht viel CPU power benötigt wird?

      wieviel weniger Output hat dieGPU, wenn nur eine WU pro GPU gerechnet wird?

      Vom verbrauch her bin ich mit meinem Asus P8H61-M LE/USB3 sehr zufrieden.

      Ist vielleicht kein Rekordhalter, aber man kompfortabel undervolten ohne irgendwelche MOD-BIOS Tricks… 😀

      Auf nem P8P67 Pro mit nem i7 könnte man dann 4 GPUs betreiben.

      Hast Du mal versucht eine Graka mit x1 zu ebtreiben, um sicher zu gehen, das der Busspeed kaum eine Rolle spielt?

    • #929387
      ulv
      Teilnehmer

      Hier mal ein Bulldozer-Board wo definitiv 4 dual-Slot-Grakas ohne Basteln laufen: http://geizhals.de/646940
      http://gzhls.at/p/646940.jpg
      AMD CPUs sind im Vergleich zu Intel ja günstig… http://geizhals.de/761214
      Das wären 350€ für Mainboard und 8-Kern-CPU

      Irgendwie ist mir das aber nicht recht, dass wir für das Mainboard mehr zahlen als für die Grakas. Auch verbraucht hier das Board vermutlich schon so viel Strom wie zwei der Grakas. Das macht doch keinen Sinn.

      Wenn wir es doch mit Single Slot versuchen. :-k
      30 Watt müsste doch gehen, wenn man den Lüfter weg schraubt, die Slotbleche weg schraubt und einfach von hinten dagegen bläst. Selbst mit Slotbelch sollte das mit einem Luft-Kanal bei so einer Low-Profile Karte doch gehen – oder? 🙄
      Die Sparcle z.B: http://geizhals.de/796257

      Vorher müsste man aber noch prüfen, ob 7 oder 8 Karten von Boinc unter Linux (bzw. Windows) erkannt werden. Bei den Nvidia unter Linux könnte ich mir das schon vorstellen, weil die ja auch ohne X-Server, Dongle etc. laufen.

      Und dann bleibt noch der Stromverbrauch im Non-PEG-Slot. Die haben ja nur 25 Watt nach der Spec.
      3 (bzw. 4) der Karten müsste man also modden, damit sie die 12 Volt direkt aus dem Netzteil ziehen. Das wäre aber nicht so schwer zu machen. Ganz ohne Löten ist ja dann doch langweilig. O:-)

      @Dirk
      Soll ich mal zum testen 2 oder 3 GT610 Modden (oder GT620) und dir zum testen schicken?


      @All

      Hat sonst jemand ein Board mit mehr als 4 PCIe (x16 physikalisch) und möchte das testen?

    • #929385
      littledevil
      Teilnehmer

      Ob ein AMD 8-Kerne es schafft, 4 Karten halbwegs sparsam zu versorgen? :-kBei nem i7 1155 sehe ich da eher ne Chance z.b. ASUS P8P67 WS Revolution Rev 3.0 – wenn es ohne basteln sein mußWobei ein Riser-kabel nu auch nicht das Problem sein sollte. Da kann man dann gleich die Stromversorgung drüber laufen lassen… ;)Wenn man eh ne Stromversorgung basteln muß und x1 genügt: ASRock H61DEL

    • #929391
      isch
      Teilnehmer

      AMD verbraucht einfach zu viel und fällt meiner Meinung nach komplett raus (leider :-((( )@ ULV Singleslot Karten gibt es doch wie Sand am Meer.Drück mich fest.Von den 610,620 und 630 Karten rate ich ab da das nur umgeläbelte 5xx Karten sind.Die werden auch noch in 40nm Hergestellt.Bei diesem Sockel 1155 Board gibt es:5x PCIe 3.0 x161x PCIe 2.0 x161x PCIe 2.0 x1Sind also schon mehr Slots als wir brauchen.Tante Edit:Hier ist mal ein erster versuch mit Sketchup.Ich hoffe man erkennt was es sein soll.Da ich nich sie Slotabstände vom Splitter kenne habe ich den Graka Block 25cm breit gemacht.Das kann noch mehr oder weniger sein was sich ja auf das außen maß der Gehäuses auswirkt.Jetzt hat es einen Durchmesser von 1m und ist 17cm hoch.http://www.abload.de/thumb/1y0kce.jpg

    • #929395
      littledevil
      Teilnehmer

      Falls man das Board tatsächlich für ~100 eur bekommt, wäre das Sapphire PURE Black P67 Hydra
      sehr interessant.

      Bei 4 Karten und nem i7 kämen man dann etwa mit 750 EUR pro blade exl. Netzteil heraus

    • #929396
      isch
      Teilnehmer

      Ja das sollte auch gehen.Nur wie sieht es bei den Boards mit dem verbrauch aus ?Müsste man ja vorher mal testen.Soll es jetzt doch ohne Splitter werden???

    • #929399
      VJoe2max
      Teilnehmer

      Darf ich mich da mal bezüglich des Gehäusebaus einschalten?Mit den kleinen 7,5mm Alfer-Combitech-Profilen und Verbindern habe ich in anderer Sache mal was angefangen und bin erstaunt wie schnell und doch solide man damit eine Art Gehäuserahmen bauen kann. Für nicht tragende Wände bieten sich Hartschaumplatten an. Tür tragende Wände Alu-Platten. Die Verbindung erfolgt über Vernieten oder mit Einpressmuttern und Schrauben. Das Material lässt sich ist über den Shop schnell bestellen und wenn mal was fehlt, gibt´s viele Teile auch im Baumarkt. Ein sechseckiger Grundriss mit sechs ITX-Bords um einen Mittelblock und ein weiteres größeres Sechseck außen herrum, an dem die Grakas sitzen, wäre z.B. ne feine Möglichkeit, um sogar noch mehr Ausbaumöglichkeiten zu haben. Man könnte auch nur vier oder fünf aktive Abteilungen machen und die restlichen zum Anschließen nach außen hin oder zur Frischluftversorgung nutzen. Außen rund halte ich dagegen für recht schwierig machbar. Lasst es mich wissen, wenn es an ein Grundgerüst für das Gehäuse geht, falls es denn mit einer solchen Rahmenkonstruktion machbar sein sollte. Hab da jetzt einiges an Erfahrung gesammelt und könnte evtl. entweder das ganze Grundgerüst oder zumindest den Zusammenbau beisteuern ;). Ne Kappssäge zum exakten Ablängen der Profile (auch auch auf Gehrung in versch. Winkeln) habe ich ebenfalls da. Da ich inzwischen auch nicht mehr weit von München entfernt wohne, gäbe es auch kein Versandproblem etc. (gehe jetzt mal davon aus, dass das neue Gerät wieder seinen Standort in München haben wird).

    • #929401
      littledevil
      Teilnehmer

      Spitze Joe 🙂 6-Eck dürfte auf jeden Fall einfacher zu realisieren sein, als rund.


      @isch
      Splitter würden ja nur bei ITX Sinn machen, da wir rein CPU-mäßig ja eh nicht mehr als 4 GPUs pro i7 Versorgen können.
      Da ein Splitter + Board aber 2-3x soviel kostet, wie ein Board, wäre es gut, wenn wir drauf verzichten könnten.
      Vielleicht kann ja mal jemand bzgl. Sponsoring bei der Firma anfragen [-o< Das Sapphire P67 sieht zumindest nicht so vollgefrachtet mit Zusatzoptionnen und extrem OC-Features aus - köntne sich positiv auf den Verbrauch auswirken O:-)

    • #929409
      isch
      Teilnehmer

      littledevil;499169 said:
      @isch Splitter würden ja nur bei ITX Sinn machen, da wir rein CPU-mäßig ja eh nicht mehr als 4 GPUs pro i7 Versorgen können.

      Jein mit etwas tricksen an der App.info kannst auch 16 WUs laufen lassen wodurch aber die Wu Laufzeiten sich verlängern.Damit das nicht passiert müsste man wieder OC was den verbrauch ja wieder nach oben Treibt.Ob man dann mehr C/W bekommt müsste man testen.Das ASRock Z77 WS hat ja 6 x16 Slot die man bestücken könnte.Dafür bräuchte man 6Kerne/Threads und man könnte 12 WUs gleichzeitig rechen.Der CPU Takt müsste dann aber auf 4GHz.Vielleicht sollten wir uns erst mal einig werden ob mit Splitter oder Boards mit vielen Steckplätzen.Dann kann man sich auch mal Gedanken ums Gehäuse machen.

    • #929418
      isch
      Teilnehmer

      Pro WU 1 Kern bei 2 Wu pro Graka =2 Kernmit etwas Tricksen in der app.info2 WU pro Graka =1 Kern den eingesparten Kern kannst aber durch OC mit hohen Takt wieder ausgleichen.

    • #929417
      littledevil
      Teilnehmer

      Benötigt man nun pro GPU 1 oder 2 Pseodo-Kerne?

    • #929427
      littledevil
      Teilnehmer

      Wie verteilt sich das bei 6 GPU und 8 Kernen?Ich denk mal, das 4 Karten pro Blade ein gute Kompromiss sein dürften.Sind eigentlcih alle Asrock B75 sparsam?ein andere Ansatz köntne sein, ein das kompakte ASRock P75 Pro3 zu nehmen und dazu 2 preisgünstige x1 und x16 riser.Damit könnt eman die Abstände für die Belüftung entpsrechend gestalten. Evtl. kann auch eine karte obne drüber querP.S: Fall man 6 Karten sinnvoll und effizient betreiben kann: MSI Z77A-G45 + 3 x1 -> x16 riser (Da würden soagr 7 KArten gehen)

    • #929432
      isch
      Teilnehmer

      0,125 für CPU? Sind in 20 Minuten etwa 8+2+4=14 Tasks mit 5 KartenIch schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt

    • #929431
      VTG01
      Teilnehmer

      Mit meinen Karten fahre ich zur Zeit im Verhältnis i7: 0,125 CPU: 0,25 GPU (2x5870er) braucht ca. 20-23 Minuten (Board:MSI Z77A-G45)Q9400: 0,5 CPU: 0,5 GPU (1x5850er) braucht um die 20 Minuten je Taskx4 9750: 0,25 CPU: 0,5 GPU (2x5850er) braucht um die 20 Minuten je TaskSind in 20 Minuten etwa 8+2+4=14 Tasks mit 5 Karten wobei die Karten insgesamt nur 3 Cores verwenden. Die anderen 13 Cores sind für CPU-Projekte reserviert.Daneben läuft LEIDEN bzw am i7 die MP-YOYO’s in voller Speed.Sobald es wieder WU’s für WCG gibt werde ich am i7 für WCG 4 CPU-Kerne zur Verfügung stellen.Anmerkung: unter Collatz mache ich mit der Kombi etwa 12 WU’s je Stunde = 36.000 Credits je Stunde bzw. 850.000 am Tag, daneben rennen noch 16 Cores für Leiden oder YOYO. Vielleicht schaffe ich es noch und messe den Energiebedarf für Collatz und WCG am i7. Ich habe den Eindruck, dass WCG deutlich weniger Strom benötigt (es ist kühler im Raum):p

    • #929434
      VTG01
      Teilnehmer

      isch, welche Karte hast du und was leisten die? Ich habe in Erinnerung dass du eine NV640 und einer ATI7750 hast. Wie ist der Vergleich zwischen den beiden Karten?

      Kommt es bei WCG auf den Speichertakt der Karte an? Bei Collatz ist der nahezu egal – bzw. ist nicht messbar, da zählt nur der GPU-Takt.

      Bei meinen Konstruktionen ist der CPU voll beschäftigt…. Ich denke die GPU langweilt sich zwischendurch. Speziell am Beginn und am Ende geht die Auslastung weit runter – teilweise sogar auf NULL (Afterburn).

      Gibt es single-slot Karten die die bevorzugen würdest?

    • #929436
      isch
      Teilnehmer

      Ist eine 7870.Speichertakt ist glaube ich egal war jedenfalls bei POEM so.GPU Takt bringt da mehr.Das die Auslastung am Anfang und ende untergeht liegt daran das da der CPU Teil berechnet wird.Für die Challange wurden bei WCG 2 WUs in einer gepackt so das CPU|Graka|CPU|CPU|Graka|CPu gerechnet wird.Hatte mich am Anfang gewundert das die bei 49,x% immer anhalten und dann nach einer weile doch wieder weiter liefen.

    • #929441
      VTG01
      Teilnehmer

      hmm, 7870er gibt es nicht im Single-Slot Design und ausserdem ist die mir zu teuer.:roll:

    • #929442
      isch
      Teilnehmer

      Alles über 7750 ist Dualslot.

    • #929446
      ulv
      Teilnehmer

      @isch
      Ist den die CPU Last bei deiner HD7870 und der GT640 vergleichbar?
      Was ist denn, aus deiner Sicht, die kleinste Intel CPU für 4 bzw. 8 Grakas der Sorte GT640?

    • #929450
      isch
      Teilnehmer

      Bei WCG sieht es so mit der 7878Hier wird grade die GPU belastet.http://www.abload.de/thumb/a1qdue.jpgjetzt wird wieder die CPU gefordert.http://www.abload.de/thumb/brwfq8.jpgDas ist immer ein Berg auf und Berg ab.Bei POEM sieht das etwas anders aus.Wenn mich nicht alles täuscht war bei POEM bei weniger als 3,4GHz schon deutliche Credit verluste zu spüren.Schaut mal im internen da hatte ich ja schon einige test gemacht.

      ulv;499215 said:
      @ischWas ist denn, aus deiner Sicht, die kleinste Intel CPU für 4 bzw. 8 Grakas der Sorte GT640?

      Es sollte schon der i7 3770 oder ein vergleichbarer Xeon sein.

    • #929452
      ulv
      Teilnehmer

      So mal die Intel Varianten:
      Alle mit wenigstens 7PCIe und davon 4 mal x16 physikalisch für dual-Slot-Karten.

      Sockel 2011
      mit Chipsatz X79:
      siehe: http://geizhals.at/de/?cat=mbp4_2011&xf=2961_7#xf_top
      http://gzhls.at/p/698605.jpg http://gzhls.at/p/771964.jpg http://gzhls.at/p/711485.jpg
      279€ / 284€ / 322€ + Quadcore ab 244€ [SIZE=”3″]= 523 bis 566 €[/SIZE]

      Sockel 1155:
      siehe: http://geizhals.at/de/?cat=mbp4_1155&xf=2961_7#xf_top
      mit Chipsatz P67
      http://gzhls.at/p/606721.jpg http://gzhls.at/p/616607.jpg http://gzhls.at/p/592094.jpg
      177€ / 181€ / 371€ + Quadcore ab 150€ [SIZE=”3″]= 327 bis 521 €[/SIZE]

      mit Chipsatz Z77
      http://www.asrock.com/server/photo/Z77%20WS(s).jpg http://www.asrock.com/mb/photo/Z77%20Extreme9.jpg http://www.asrock.com/mb/photo/Z77%20Extreme11.jpg http://www.gigabyte.com/microsite/316/images/Z77X-UP7.png
      223€ / 262€ / 375€ / 330€ + Quadcore ab 150€ [SIZE=”3″]= 373 bis 525 €[/SIZE]

      Socket 1366:
      http://geizhals.at/de/?cat=mbp4_1366_ddr3&xf=2961_7#xf_top
      mit Chipsatz X58
      http://gzhls.at/p/436901.jpg
      425€ + Quadcore ab ca. 300€? [SIZE=”3″]= 725 €[/SIZE]

      Socket 1156:
      http://geizhals.at/de/?cat=mbp4_1156&xf=2961_7#xf_top
      mit Chipsatz i3450
      http://gzhls.at/p/522185.jpg
      258€ + Quadcore ab 179€ [SIZE=”3″]= 437 €[/SIZE]

    • #929464
      littledevil
      Teilnehmer

      Ist das mit Risern so schlimm?

      Von Deine Auswahl Christian, wäre das ASUS P8P67 WS Revolution noch am bezahlbarsten, aber sparsam sehen die alle nicht aus :-k
      Das Sapphire PURE Black P67 Hydra ginge da auch noch.

    • #929469
      ulv
      Teilnehmer

      littledevil;499233 said:
      Ist das mit Risern so schlimm?

      Nö, wieso schlimm?

      Ich wollte mir nur mal die Alternativen ansehen.
      Die ATX verbrauchen mir aber eigentlich viel zu viel Strom. (Das geht ja bis 100 Watt Idle und 200 Watt Last 🙁 )
      Und die Preise finde ich echt gesalzen. Ein 1155er ITX gibt es ja schon ab 50€!

      Wenn man dadurch 100 Watt einsparen könnte wäre im Vergleich zu den ATX sogar ITX mit Intel Mobil-Technik (+Splitter) möglich. 100 Watt Einsparung bei Board und CPU sind auf 2 Jahre ja auch 350€.
      Damit wären wir auch mir dem Design wieder frei!

      So etwas:
      http://www.mini-tft.de/xtc-neu/images/product_images/info_images/image_149524_1.jpg http://gzhls.at/p/681582.jpg
      185 + 229 + 250 (Splitter) = 664€ => 664 – 350 (Strom-Einsparung) = 300€

      Müsste ich mich jetzt gleich entscheiden wüsste ich es schon….

    • #929471
      isch
      Teilnehmer

      Das ASRock Z77 WS mit einem 3770 und 6 GT640 sollte unter last nicht mehr als 300W ziehen.

      Wobei ich für CPU und Board 120W rechne was aber wahrscheinlich völlig übertrieben ist.250W-260W sollten drin sein.

      Die x79 Bretter kannst wahrscheinlich alle in die Tonne hauen von verbrauch her.Obwohl so ein &Kerner mit 12Threads schon was feines wäre 🙂

      Wenn Interesse besteht würde ich mir mal ein ASRock Z77 WS und ein 3770/Xeon E3 1240V2/1245v2 bestellen und mit meiner einen Gt640 testen.

      Wie sieht es eigentlich beim Xeon ohne Graka aus?Die brauchen wir doch nicht das ja genug andere vorhanden sind.Der wäre ja vom Preis und verbrauch her der beste.

      @ ulv die Mobil Dinger sind einfach viel zu langsam.Da verschenkt man so viele Credits.Schaut mal hier da habe ich ein paar Tests mit verschiedenen Taktraten gemacht.

    • #929482
      VTG01
      Teilnehmer

      Ich schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt

      Also das schaffe ich beim Besten Willen überhaupt nicht!
      Ich habe mich gestern nahezu den Ganzen tag herum gespielt und versucht den i7 zu optimieren. Das Beste was ich mit 2 5870er heraus bekomme sind 10 Tasks in etwa 23 Minuten. Das Verhältnis CPU/GPU steht dabei auf 0,7/0,18. Bei 0,7/0,20 ändert sich nahezu nichts (die Sekunden habe ich im Mittel rausgeschätzt) bei 0,5/0,20 brauche ich für 10 WU’s etwa 24 Minuten. Ich habe mich für die 0,5/0,20 Lösung entschieden da ich hier 3 Tasks LEIDEN mitrechnen kann.
      Ich arbeite zur Zeit mit 12.10 Catalyst Treibern, die 12.11beta traue ich mich nicht drauf spielen da ich doch einige Probleme hatte 😯

      Nach dem Contest kommen die 2 Karten raus – wieder in eine schwächere MAschine zum Collatz rechnen. Da wird keine CPU benötigt.

      Ich bin am überlegen ob ich mir stattdessen eine AMD 7750 oder eine GT640 rein baue und damit ein bisserl GPU-Projekte mitrechne. Hintergrund ist, dass der Rechner an einer USV hängt die die 400 Watt die er jetzt benötigt nicht einmal übernehmen kann. Bei 250Watt ist da Schluß. Die Gretchenfrage ist natürlich AMD oder NVIDIA!!

      Da ich davon ausgehe dass es POEM als Projekt wird – oder liege ich hier falsch – sollte man mal schauen welche Karte sich besser eignet.

      Isch – hast du da schon Vergleiche gesehen/gefunden zwischen 7750er und GT640er? Wichtig ist mir Singel-Slot – eventuell passt eine low-format wie zum Beispiel ASUS oder Sparkle oder Club haben sehr geringe Bauhöhe und könnten sogar in Slot eines Blades Platz finden.

      [SIZE=”3″]Mal ne Idee die man weiter verfolgen könnte:[/SIZE]
      Blade ASROCK B75ITX, Splitter auf 2/3 oder 4 Grakas, Anordnung der Grakas liegend neben dem Blade. Das ITX ist 17 cm breit, die Grakas (Ohne Slotblende um die 65mm/80mm? Die Länge übersteigt die 170mm auch nicht. Ich schaffe die i7 mit boxed Kühler auf etwa 70mm zu packen, das sollte ausreichen für 3 Grakas, steigert man den Abstand auf 80mm an Stelle von 70mm für die Blades könnte man theoretisch auch 4 Grakas nehmen. Der Stromverbrauch liegt bei Vollast von 2 Blades mit einem i73770 bei 3,7 Ghz (ohne Grafik ) bei ca. 105-108 Watt was je Blade etwa 55 Watt entspricht. Versorgt von einem Pico 160xt wären da doch noch 2 Grakas mit etwa 50Watt möglich.

      Preis: Board etwa 80.-
      Prozzi mit 4 Kernen i3: etwa 130.-
      Speicher 8 GB Kingston Low-profile (nur 1 Riegel je Blade – sollte für 4 Cores reichen) ca. 35.-
      macht gesamt je Blade ohne Graka knapp 245.-

      oder
      Prozzi mit 8 Kernen Xeon: etwa 240.-
      mit 8 GB und Board wie oben ein bisserl über 355.-

      und dann die Grakas.
      Splitter habe ich leider keine Ahnung was 1 auf 2 kostet.

      Versteht das wer oder soll ich mal den Bleistift spitzen und eine Skizze vom Blade mit den seitlichen Grakas basteln?

    • #929484
      isch
      Teilnehmer

      [QUOTE=VTG01;499255]

      Ich schaffe 24 Task in ca 25min mit einer Karte.Er die WUs dürfen sich aber so viel CPU nehmen wie sie wollen.Da nach ein paar Durchläufe die WUs etwas Zeitversetzt arbeiten habe ich vielleicht 50% CPU Last im schnitt

      Also das schaffe ich beim Besten Willen überhaupt nicht!Ich habe mich gestern nahezu den Ganzen tag herum gespielt und versucht den i7 zu optimieren. Das Beste was ich mit 2 5870er heraus bekomme sind 10 Tasks in etwa 23 Minuten. Das Verhältnis CPU/GPU steht dabei auf 0,7/0,18. Bei 0,7/0,20 ändert sich nahezu nichts (die Sekunden habe ich im Mittel rausgeschätzt) bei 0,5/0,20 brauche ich für 10 WU’s etwa 24 Minuten. Ich habe mich für die 0,5/0,20 Lösung entschieden da ich hier 3 Tasks LEIDEN mitrechnen kann.Ich habe auch noch weiter optimiert.Schaffe jetzt 30 WUs in 24min :DIch arbeite zur Zeit mit 12.10 Catalyst Treibern, die 12.11beta traue ich mich nicht drauf spielen da ich doch einige Probleme hatte 😯Und das ist mit ein Grund warum du dich nicht verbesserst.Die 12.11 Beta bringen richtig Leistung.Nach dem Contest kommen die 2 Karten raus – wieder in eine schwächere MAschine zum Collatz rechnen. Da wird keine CPU benötigt.Ich bin am überlegen ob ich mir stattdessen eine AMD 7750 oder eine GT640 rein baue und damit ein bisserl GPU-Projekte mitrechne. Hintergrund ist, dass der Rechner an einer USV hängt die die 400 Watt die er jetzt benötigt nicht einmal übernehmen kann. Bei 250Watt ist da Schluß. Die Gretchenfrage ist natürlich AMD oder NVIDIA!!Da ich davon ausgehe dass es POEM als Projekt wird – oder liege ich hier falsch – sollte man mal schauen welche Karte sich besser eignet.Isch – hast du da schon Vergleiche gesehen/gefunden zwischen 7750er und GT640er? Wichtig ist mir Singel-Slot – eventuell passt eine low-format wie zum Beispiel ASUS oder Sparkle oder Club haben sehr geringe Bauhöhe und könnten sogar in Slot eines Blades Platz finden.Nach WCG werde ich die 7750 bei POEm mal ordentlich testen und dann können wir uns entscheiden.

      Mal ne Idee die man weiter verfolgen könnte:

      Blade ASROCK B75ITX, Splitter auf 2/3 oder 4 Grakas, Anordnung der Grakas liegend neben dem Blade. Das ITX ist 17 cm breit, die Grakas (Ohne Slotblende um die 65mm/80mm? Die Länge übersteigt die 170mm auch nicht. Ich schaffe die i7 mit boxed Kühler auf etwa 70mm zu packen, das sollte ausreichen für 3 Grakas, steigert man den Abstand auf 80mm an Stelle von 70mm für die Blades könnte man theoretisch auch 4 Grakas nehmen. Der Stromverbrauch liegt bei Vollast von 2 Blades mit einem i73770 bei 3,7 Ghz (ohne Grafik ) bei ca. 105-108 Watt was je Blade etwa 55 Watt entspricht. Versorgt von einem Pico 160xt wären da doch noch 2 Grakas mit etwa 50Watt möglich.Preis: Board etwa 80.-Prozzi mit 4 Kernen i3: etwa 130.- Speicher 8 GB Kingston Low-profile (nur 1 Riegel je Blade – sollte für 4 Cores reichen) ca. 35.-macht gesamt je Blade ohne Graka knapp 245.-oderProzzi mit 8 Kernen Xeon: etwa 240.-mit 8 GB und Board wie oben ein bisserl über 355.-und dann die Grakas.Splitter habe ich leider keine Ahnung was 1 auf 2 kostet.Versteht das wer oder soll ich mal den Bleistift spitzen und eine Skizze vom Blade mit den seitlichen Grakas basteln?[Um so mehr Blades man nutzt um so ineffizienter wird es ja.2-3 ITX/CPU/RAM verbrauchen dann ja mehr als ein ASRock Z77 WS mit einer CPU/RAM./QUOTE]

    • #929480
      littledevil
      Teilnehmer

      Leistungsfähige Mobil-CPU sind auch nicht viel sparsamer – einzig beim Board spart man Einiges ein.

      Bei Boards mit vielen Steckplätzen findet man ja leider kaum jemanden der mal in Richtung Sparsamkeit optimiert hat. In den Tests gehts ja meist um OC.

      Wenn X1 genügt, wäre das ASRock H61DEL immer noch m,ein Favorit. Das hatten auch einige Bitcoiner im Einsatz.
      Das ist schön kompakt, sparsam und hat 6 Pcie slot, von denen man 5 mittels x1 -> X16 Riser nutzbar machen kann. Ein Slot ist direkt x16

      Dazu passend wird der Intel Xeon E3-1270V2, 4x 3.50GHz vom BIOS unterstützt. Da wäre die Frage, ob sich der Aufpreis für den 1270 lohnt. Unter Features ist ” Idle States” gelistet. Haben das nicht alle?
      Der E3-1240V2 schafft ja 3,8 GHz im Turbo – sollte ja ausreichen, oder?

    • #929485
      VTG01
      Teilnehmer

      Ich habe auch noch weiter optimiert.Schaffe jetzt 30 WUs in 24min

      Was soll ich dazu sagen –> mir drückt es die Tränen in die Augen!! :crymk: :crymk:

      Und das ist mit ein Grund warum du dich nicht verbesserst.Die 12.11 Beta bringen richtig Leistung.

      Ich hadere noch – muss wohl über Fernzugriff installieren, nur falls das in die Hose geht komme ich erst morgen am Abend zu Gerät – ich werfe eine Münze…

      Nach WCG werde ich die 7750 bei POEm mal ordentlich testen und dann können wir uns entscheiden.

      Auf das freue ich mich schon.

      Um so mehr Blades man nutzt um so ineffizienter wird es ja.2-3 ITX/CPU/RAM verbrauchen dann ja mehr als ein ASRock Z77 WS mit einer CPU/RAM.

      Das trifft POEM, nicht aber WCG – oder täusche ich mich da?

      Nach WCG werde ich auch mal POEM auf den 5850er und 5870er testen.

    • #929491
      isch
      Teilnehmer

      Wie es bei WCG mit der GT640 aussieht weiß ich nicht aber hier sollten die ATI die Nase vorn haben.Tante Edit: Ich habe mir Grade mal die Host Stats von WCG angeschaut und die erst NV Karte ist ca auf Platz 120 und das auch nur weil es 3 x GTX 580.Der nächste ist dan ca 10 Plätze weiter hinten mit 2 GTX 580.Bis dahin sind es nur ATI 7xxx Karten.Keine 6xxx oder 5xxx auch nicht im 2 3 oder 4er Verbund.

    • #929679
      isch
      Teilnehmer

      Die ersten test mit meiner 7750 laufen und ich kann nur sagen

      http://www.smiliesuche.de/smileys/anbeten/anbeten-smilies-0002.gif http://www.smiliesuche.de/smileys/anbeten/anbeten-smilies-0001.gif 7750

    • #929681
      VTG01
      Teilnehmer

      Die ersten test mit meiner 7750 laufen und ich kann nur sagen7750

      Also mir wäre das ganz recht …Kanst du ein neues Thema anfangen in dem die Test alle aufgelistet sind. Soll ich mit den 5850er und 5870 und dem i7 auch Projekte testen? Ich könnte heute bzw. morgen Grakas umstecken. Unter der Woche geht das leider nicht da der rechner nicht bei mir ist.

    • #929685
      isch
      Teilnehmer

      Ja ich kann ein neues Thema aufmachen.Bislang habe ich aber nur hochgerechnet was in 24h ercruncht wird.Was wirklich bei rum kommt werde ich in 2-3 Tagen sehen dann hat man einen vernünftigen Ansatz.

    • #929697
      isch
      Teilnehmer

      in ca 15 Std habe ich 313000C gemacht.Sind dann 500k am Tag.Die app habe ich erst mal so pi mal Auge erstellt da muss ich noch einiges Testen.Was mir noch aufgefallen ist da waren einige WUs mit fast doppelter Laufzeit bei gleich Credits dabei.Ich weiß jetzt nicht ob das an den WU liegt oder an meiner Graka.

    • #929696
      phil68
      Teilnehmer

      Naja… weggeben wird sich nicht lohnen. Es schadet nie sowohl NV, als auch ATI zu haben 😉

      Grüße Dirk

    • #929695
      isch
      Teilnehmer

      die GT 640 kannst wieder weg gebenDas ganze geht aber nur mit den neuen Beta Treiber.Wie das dann wieder bei linux aussieht weiß ich nicht.Wenn wir dann das System aufbauen muss es halt mit win7 sein.

    • #929694
      phil68
      Teilnehmer

      isch;499468 said:
      Die ersten test mit meiner 7750 laufen und ich kann nur sagen

      http://www.smiliesuche.de/smileys/anbeten/anbeten-smilies-0002.gif http://www.smiliesuche.de/smileys/anbeten/anbeten-smilies-0001.gif 7750

      Nun… es schadet also nicht wenn ich mir da auch noch 2 zulege ? :-k 😀

      Grüße Dirk

    • #929699
      VTG01
      Teilnehmer

      Welche 7750er hast du zum Testen?

    • #929700
      isch
      Teilnehmer
    • #929714
      isch
      Teilnehmer

      Leider habe ich mich mit den 500K am Tag vertan.Irgendwie läuft das auf den ATIs anders als auf den NV.Hatte ja neben bei noch Leiden laufen und das hat die ganze Sache aus gebremst.Die Leiden WUs die ich noch hatte habe ich noch zu ende rechnen lassen und dann nur noch POEM.

    • #929743
      Renovatio
      Teilnehmer

      Dann sind wir mal auf deine Resultate gespannt.

    • #929759
      littledevil
      Teilnehmer

      isch;499489 said:
      Diese

      Wie schaut die von der Lautstärker her aus? Was ist die min Lüfterdrehzahl?

    • #929763
      isch
      Teilnehmer

      Mir war die zu laut und ich habe einen Arctic Cooling Accelero S1 Plus mit einem 120 bequiet drauf gemacht.

      Muss aber dazu sagen das ich ein silent Freak bin 🙂

      Lüfterdrehzahl war min 30% aber wie viel rpm das waren weiß ich nicht.

    • #929796
      ulv
      Teilnehmer

      Finde ich total toll, dass du dich da so reinhängst. Danke!Optimierst du das System nur in Richtung Credits/Tag oder auch in Richtung Credits/Watt?Kannst du auch mal einen PCIe mit x1 probieren? Würde mich interessieren wegen dem Splitter.PS: Der gh-Wunschlisten-Link funktioniert leider nicht.

    • #929797
      isch
      Teilnehmer

      Hauptziel ist natürlich soviel Credit bei so wenig verbrauch wie möglich.gh habe ich mal geändert.Bei mir funzt der aber.Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M

    • #929794
      isch
      Teilnehmer

      Ich weiß garnicht so richtig wo ich anfangen soll.Als ersten könnt Ihr meine 500C/d Hochrechnung mal ganz schnell wieder vergessen.Die Einstellungen in der app.info waren ein Griff ins Klo und die neben bei laufenden CPU WUs haben die Sache noch verschlimmert.Dann hatte ich das Problem das er diese Nacht und Heute morgen abgestürzt ist.Ich habe jetzt mal ein paar Bios Einstellungen geändert und um 17.00Uhr eine neue Testphase angefangen.Sollte es wieder zu abstürzen kommen habe ich noch 2 andere Sachen in verdacht die ich dann halt noch mal testen muss.Danach kann ich die app.info noch mal etwas optimieren obwohl ich da im Moment keinen großen Spielraum mehr sehe.Dann mal hier ein paar Verbrauchswerte. CPU 3,7GHz GPU 800/800 app.ino 0.33/2/0.16[table “” not found /]
      Die WU laufzeiten sind eigentlich 174xs und die 860K sind nur errechnet1750s:60=29,16min1440min:29=49,6549×6=294WUs294x2925C=859950Wie man sieht sollten es sogar noch etwas mehr sein.BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.Da in der Nacht aber noch ein paar CPU WUs liefen kommt das in etwa hin.Wie man sieht lastet eine GPU einen i7 @3,7GHz um die 30% aus was bedeutet das max 3 Gaka pro CPU Sinn machen.Dann habe ich da auch schon mal was zusammen gestellt.1 x Samsung SSD 840 Series 250GB, 2.5″, SATA 6Gb/s (MZ-7TD250BW)1 x Intel Xeon E3-1240V2, 4x 3.40GHz, Sockel-1155, boxed (BX80637E31240V2)1 x G.Skill DIMM 8GB PC3-12800U CL11-11-11-28 (DDR3-1600) (F3-1600C11S-8GNT)3 x Club 3D Radeon HD 7750, 1GB DDR3, VGA, DVI, HDMI (CGAX-7752Z)1 x ASRock Z77 Extreme3, Z77 (dual PC3-12800U DDR3)1 x Antec EarthWatts EA-450 Platinum, 450W ATX 2.32 (0761345-04740-1/0761345-04741-8)1 x Microsoft: Windows 7 Home Premium 64Bit inkl. Service Pack 1, DSP/SB, 1er-Pack (deutsch) (PC) (GFC-02054)Bei einem Blade macht das ca 900€ Anschaffungskosten wobei ich noch kein Gehäuse mit eingerechnet habe aber dafür eine Win7 Version. Der verbrauch sollte dann im schlimmsten Fall 200W betragen.Wobei wir dann ca 2,4Mio c/d errechnen.Hierbei habe ich aber noch nicht den geringeren Takt des Xeons bedacht (weniger verbrauch aber wahrscheinlich auch weniger C/d).GPU untervolting kommt ja auch noch dazu.ToDo:wenn ich die abstürze in Griff habe-app.info Optimieren um mehr C/D raus hohlen-mit 0,5 und 5 WUs testen-mit 3,4GHz testen (Xeon Takt)-GPU untervolten [in Afterburn leider nicht möglich)-GPU untervolten und gleichzeitig OC-GPU im x4 Slot testen da das vorgeschlagene Board 1x 3.0 x161x 3.0 x81x 2.0 x4hat-event. eine 2Graka hohlen um CPU last und c/d zu testen.Wenn noch wer was wissen will immer Fragen.

    • #929798
      phil68
      Teilnehmer

      Hallo isch 🙂

      Auf meinem Q9550 und der HD 6850 habe ich in der app_info.xml mit 0.5 CPU die größten Erfolge erzielt.

      BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.

      Selbst 800k ist für eine Karte ne echte Hausmarke :respekt:

      Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M

      Es reicht schon, wenn du den Vergleich zwischen x16 und x4 hast… wird sicher kaum etwas ausmachen.

      Grüße Dirk

    • #929804
      isch
      Teilnehmer

      Cf wird nicht benötigt.THX für den link werde die mal beobachten.

    • #929801
      VTG01
      Teilnehmer

      Schaut mal was da in der Bucht ist. Leider liefern die nicht nach Österreich, sonst würde ich da mitgehen…. und ob die Verpackung eine Beule hat sollte doch egal sein.PS: Ich habe gelesen dass die 7750 keine Crossfire Brücke benötigt und dennoch Crossfire läuft. Das sollte auch ein bisserl weniger “Monitorstecker” benötigen.

    • #929799
      isch
      Teilnehmer

      mit 0.5 kann ich auch mal testen bei das dann mit 3 Karten und einem i7 schon wieder schlecht aussieht.Dann müsste man auf 5 WUs senken was ich dann auch mal testen werde.

    • #929800
      isch
      Teilnehmer

      phil68;499592 said:
      Hallo isch :)Auf meinem Q9550 und der HD 6850 habe ich in der app_info.xml mit 0.5 CPU die größten Erfolge erzielt.

      BAM sagt mir das ich gestern 816K und Free-DC 836k errechnet habe.

      Selbst 800k ist für eine Karte ne echte Hausmarke :respekt:

      Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M

      Es reicht schon, wenn du den Vergleich zwischen x16 und x4 hast… wird sicher kaum etwas ausmachen.Grüße Dirk

      Wobei die 7750 kaum mehr verbraucht als die GT640 und die war ja bis zur Einführung der beta Treiber die beste GPU was c/w angeht.

    • #929806
      Sc0rp
      Teilnehmer

      Re,

      isch;499590 said:
      Wie mache ich das mit x1.Habe keinen auf meinen Board.Ist ein Asrock b75M

      ein einfachsten Fall einfach mit (derbem aber dünnem) Klebeband abkleben, allerdings muss man da unglaublich vorsichtig sein. Besser ist es einen PCIe x1-Riser zu nehmen (den oder einen anderen)

      Sc0rp

    • #929840
      littledevil
      Teilnehmer

      VTG01;499595 said:
      Leider liefern die nicht nach Österreich, sonst würde ich da mitgehen.

      Wenn Du den extra Versand nacxh Ö drauf legt, kann ich die für Dich ersteigern und schicke Sie Dir dann.
      Bei interesse PN. Wir sollte nur nicht alle drauf bieten, sondern uns vorher absprechen. 😀

    • #929901
      isch
      Teilnehmer

      Leider gab es Heute morgen wieder einen Absturz.Habe dann mal auf 5WUs reduziert und immer noch 99% Graka last gehabt aber die Laufzeiten haben sich auf 1500s reduziert.Heute Mittag dann wieder einen.Habe jetzt auf 4 gestellt und die Auslastung liegt bei 97-98%.Sollte es jetzt immer noch abstürze geben weiß ich auch nicht mehr woran das liegen kann.Dadurch das jetzt nur noch 4 WUs laufen hat sich auch die CPU last auf 25%.So könnte man auch wieder 4Karten mit einem i7 betreiben.Was mich an der sache allerdings wundert das ich bei 4 WUs fast 100% und in anderen Foren sind es bei 6WU meist unter 90% ???Wie lange jetzt die Laufzeiten sind und wie viel c/d es geben wird schreibe ich später.Hatte bei 4 WUs auch wieder einen Absturz.Ich vermute mal das die CPU im Teillast Bereich durch dieses sch… offset gedönse nicht stabil ist. Dann gibt es leider schlechte Nachrichten:

      Hi everybody,I have to apologize for the long period of silence regarding this topic, but I didn’t want to give any misleading information before we discussed the problem here.We are still waiting for our new server hardware, but unfortunately this won’t fix the problem here entirely.Fact is, these GPU calculations are running so rapid, that we have to evaluate real floods of information. We were talking about possibilities to send out more GPU work units, but at the moment there is no way to process it in time.I want to thank all of you for spending so much computing time. It’s absolutely okay to give your GPU power to another project now, there may be more use for it at the moment. The crystallization studies will still continue, but the follow-up projects with GPU support are not yet in a state to be sent out over the BOINC network, so the situation is not likely to get better in the near future.I hope you can understand this, and are still willing to support us.Best regardsThomas

      Rechne grade meine letzten 4 WUsDie haben ca 1360s gebraucht bei 98% GPU und 25 CPU last.Verbrauch lag bei 85W.Wenn die WUs durch sind baue ich die Graka aus und rechne Leiden.

    • #930180
      ulv
      Teilnehmer

      Ich würde gerne nochmal auf das Gehäuse zu sprechen kommen:

      Die Lösung mit ITX Boards und (Non-GPU-) Xeon 1155 + Splitter lässt mich nicht mehr los.
      http://www.meisterkuehler.de/forum/attachments/boinc-hardware/1130d1352822114t-idee-super-boinc-rechner-16-grafikkarten-emk4_20xpcie_im_stern_mit_500er_luefter_small.jpg

      VJoe said:
      Darf ich mich da mal bezüglich des Gehäusebaus einschalten?

      Das wäre ja ein Traum. Bei deinen Qualitäten… sehr gerne. :d:
      Mit den 150°-Alfer-Verbindern kann man wenn ich es richtig verstehe nur ein 12-Eck bauen, oder? Das würde vermutlich auch gut passen:
      Also 6 ITX mit dem Gesicht (CPU+Kühler) nach innen um ein Netzteil und außen herum bis zu 24 Grakas. :-k

      Rund würde mir aber schon auch sehr gut gefallen. Evtl. nur ein kleines rundes Gehäuse an dessen Rand die PCIe Steckplätze sind und die Grakas dann freifliegend drumherum in einem Gitter-Käfig, der bündig mit dem Lüfter (siehe unten) abschließt?

      Ich hab jetzt auch schon einen Lüfter – ähm, besser müsste man wohl Gebläse sagen – gefunden:
      http://www.ebmpapst.com/media/content/info-center/downloads_10/catalogs/update_2011_1/axial/Axialventilator_AC-HyBlade_DE.pdf
      Das sind sehr sparsame Lüfter! Die gibt es mit 50cm bis fast 1 Meter Durchmesser. 😯
      http://farm7.staticflickr.com/6143/5977903432_eb7cc73507_m.jpg
      Kein Scherz die gibt es schon ab 90 Watt. Etwas gedrosselt sind es vermutlich nur 20-30 Watt. Total leise und zuverlässig.

    • #930182
      Gillian
      Teilnehmer

      Optisch fände ich ein rundes oder auch ein 12-eckiges Gehäuse ‘richtig scharf’ 😉

      Aber technsich wäre es doch sicher schlauer, wenn wir das ganze modularer aufbauen, ich kann mir nicht vorstellen, dass wir alle 24 GraKas an einem Netzteil betreiben wollen.

      Oder doch?

      Dann bin ich sofort für die 12-Eck Variante, kann dazu aber handwerklich kaum was beitragen 🙁

      Gruß

      Gunnar

    • #930186
      Jabba
      Teilnehmer

      Nachdem das Thema wieder Fahrt auf nimmt, darf ich auch mal meinen Senf dazu beitragen.

      Da ich ja noch aus diversen Testbauten einen 4fach PCIe Splitter habe und demnächst ein Mini ITX 1155 Board mit Xeon ins Haus steht, werde ich selbiges mit dem Splitter bestücken und testen.
      Diese Splitter funktionieren nicht auf jedem Board. Bspw. können unsere Mini ITX Platinen im EMK2 nicht mit dem Splitter umgehen – wird einfach nicht erkannt. Andere µATX Boards funktionieren problemlos.
      Ein Nachteil ist der Preis des Splitters, der seinerzeit bei deutlich über €200 lag. Wer schön sein will muß eben leiden.

      Bei der Länge der PCIe Kabel kann ich leichte Entwarnung geben. Ich konnte bereits zwei ineinander gesteckte PCIe Verlängerungen von jeweils ca. 17cm erfolgreich betreiben. Allerdings auch hier wieder die Einschränkung: geht nicht in jedem Slot, nicht mit jedem Board, nicht mit jedem Kabel. Scheinbar ist man hier am Ende der Spezifikation.

      Was mir beim Bau solcher Graka-Gräber immer wieder in die Quere kam ist die Höhe der Dualslotkühler. Single Slot Varianten sind hierbei deutlich angenehmer zu verbauen und auch zu kühlen. Wahlweise auch ein Singleslot Wasserkühler.

      Mal ein kleiner Praxiswert aus dem Bitcoinmining:
      7 Rechner bestückt mit jeweils 4 x 5870 erzeugten trotz geschlossenem Gehäuse, 6 Lüftern je Gehäuse und zwei extern anblasenden Ventilatoren plus einer Klimaanlage eine Tischtemperatur von weit über 40°. Die Aura rund um die Rechner war nur noch als ungemütlich zu beschreiben. 😉
      Kein Wunder bei 7 KW Abwärme….

      Gruß

      Jabba

    • #930194
      ulv
      Teilnehmer

      Das hört sich vielversprechend an! Hoffentlich findet sich ein ITX wo der Splitter läuft.

      Mir würde mitlerweile die Lösung mit den 6 ITX in der Mitte am allerbesten gefallen. Also die Lösung mit den CPU Kühlern nach innen. Und dem Splitter auf der Rückseite vom ITX. Das muss dann auch nicht mehr rund sein. Auf der Rückseite der ITX wären dann die 5 PCIe-Slots montiert die alle nach außen zeigen. (Je GPU wären dort etwa 4cm Platz). Das würde mit einem einzigen ITX schon funktionieren und kann dann mit der Zeit erweitert wedern bis evtl. der Stern voll wird. Das Netzteil (mehr als 1,5 kW kommt für mich nicht in Frage!) kann dann ja auch unten in eine Ecke und in die andere Ecke der Switch, SSD etc.
      Wenn ich mich nicht verrechnet habe dann ginge das immer noch mit normalen PC Abmaßen also ca. 60cm Höhe, 60cm Breite und ca. 30cm Tiefe ab.

      Und ich will unbedingt so einen Mörder-Lüfter! 😀

    • #930193
      x20011
      Teilnehmer

      Jabba;499991 said:

      Mal ein kleiner Praxiswert aus dem Bitcoinmining:
      7 Rechner bestückt mit jeweils 4 x 5870 erzeugten trotz geschlossenem Gehäuse, 6 Lüftern je Gehäuse und zwei extern anblasenden Ventilatoren plus einer Klimaanlage eine Tischtemperatur von weit über 40°. Die Aura rund um die Rechner war nur noch als ungemütlich zu beschreiben. 😉
      Kein Wunder bei 7 KW Abwärme….

      Ich habe mich eben mal in das Thema bitcoinmining eingelesen.Lohnt sich das bei dem Hardware Aufwand und den stromkosten überhaupt?

    • #930195
      Jabba
      Teilnehmer

      @x20011
      Seit Mitte diesen Jahres macht es kaum noch Sinn mit Grakas zu rechnen. Die Stromkosten sind einfach zu hoch. Es sei denn Du spekulierst auf massiv steigende BTC Kurse.
      Ansonsten brauchst Du eine Stromflat.
      Ich selbst habe bereits auf FPGAs umgestellt. Im Januar / Februar zündet die nächste Evolutionsstufe – dann kommen ASICs.

    • #930196
      littledevil
      Teilnehmer

      ulv;499981 said:
      Das sind sehr sparsame Lüfter! Die gibt es mit 50cm bis fast 1 Meter Durchmesser. :shock:…

      …Etwas gedrosselt sind es vermutlich nur 20-30 Watt. Total leise und zuverlässig.

      hast Du die schon mal Live erlebt?

    • #930207
      ulv
      Teilnehmer

      littledevil;500001 said:
      hast Du die schon mal Live erlebt?

      Im Datenblatt steht 90 Watt bei 560 Umin => 50 dB(A) bei ca. 3000m³/h (1800CFM) (Bei einem Druck von 29 Pa = 2,858 Aqmm)

      Zum Vergleich die 8 Lüfter vom E=mk² haben 8*3,6 Watt = ca. 30 Watt haben dabei auch schon je 38 dB(A) bei je 175 m³/h
      => Bei 8 Lüftern macht das +9bB = 47dB(A) bei ca. 700 m³/h (Bei einem Druck von 5,484 Aqmm).

      Den großen Lüfter kann man aber noch um einiges drosseln, wir brauchen ja nicht 3000m³/h (der E=mk² braucht ja tatsächlich auch nur so 300 m³/h)
      Der große Lüfter wird gedrosselt also um ein vielfaches leiser sein als der E=mk².

      BTW: Die Lüfter kennst du von Klimaanlagen an jedem Supermarkt. Ich kenne die bzw. ähnliche aus dem Rechenzentrum. Ist halt ein besserer Standventilator…

    • #930233
      littledevil
      Teilnehmer

      Ist das dann ein AC oder DC-Lüfter?

    • #930234
      Hawk
      Teilnehmer
    • #930243
      Jabba
      Teilnehmer

      Kann man per Kondensator machen.Dann allerdings nicht regelbar.

    • #930242
      littledevil
      Teilnehmer

      Womit willst Du die drosseln ulv?

    • #930246
      ulv
      Teilnehmer

      Die Lüfterdrehzahl kann man z.B. mit so etwas steuern:http://www.conrad.de/medias/global/ce/0000_0999/0800/0840/0845/084529_BB_00_FB.EPS_100.jpghttp://www.conrad.de/ce/de/product/084529/Aber auch z.B. aller Dimmer für Hochvolt-Halogen.

    • #930256
      Renovatio
      Teilnehmer

      Bin mal auf den Test des Lüfters gespannt. ^^
      Wäre sicherlich eine gute Alternative gegenüber den kleineren Lüftern.

    • #930354
      VJoe2max
      Teilnehmer

      @ulv: Hast natürlich recht mit den Alfer-Winkeln. Ein Zwölfeck müsste es werden. Das würde aus meiner Sicht für zwölf ITX-Boards oder µATX-baords mit je einer Karte (ITX) oder zwei Karten (µATX) sprechen. Von der Komplexität her wäre der Aufbau so sicher einfacher und weniger Fehleranfällig als mit Splittern, es könnten sich Viele mit einem ganzen System beteiligen und die CPU-Performance pro Board wäre nicht so kritisch. Insgesamt kann man auf billigere Komponenten setzen und muss nicht auf irgendwelche, wo möglich anfälligen Splitterkonstrukte zurückgreifen. Wenn das dann irgendwann nicht reicht baut man halt ein zweites Stockwerk mit weiteren zwölf ITX-Bays drauf. Das Belüftungskonzept mit einem zentralen Riesenlüfter könnte man dahingehend denke ich sogar beibehalten.

    • #930925
      Obi Wan
      Verwalter

      vor Weihnachten geht nix mehr, oder ist das Projekt bis ins nächste Jahr auf Eis gelegt ?

    • #930942
      Renovatio
      Teilnehmer

      Wird sicherlich noch was dauern bis hier weitergeht. Bin mal aber gespannt auf die Recherchen. 😀

    • #930935
      littledevil
      Teilnehmer

      Wir sind ja noch in der Recherchephase… 😉
      Ich würde sogar behaupten, das da bis zum Penthalon noch nix fertig ist… #-o

    • #931221
      ulv
      Teilnehmer

      VJoe2max;500174 said:
      @ulv: Hast natürlich recht mit den Alfer-Winkeln. Ein Zwölfeck müsste es werden. Das würde aus meiner Sicht für zwölf ITX-Boards oder µATX-baords mit je einer Karte (ITX) oder zwei Karten (µATX) sprechen. Von der Komplexität her wäre der Aufbau so sicher einfacher und weniger Fehleranfällig als mit Splittern, es könnten sich Viele mit einem ganzen System beteiligen und die CPU-Performance pro Board wäre nicht so kritisch. Insgesamt kann man auf billigere Komponenten setzen und muss nicht auf irgendwelche, wo möglich anfälligen Splitterkonstrukte zurückgreifen. Wenn das dann irgendwann nicht reicht baut man halt ein zweites Stockwerk mit weiteren zwölf ITX-Bays drauf. Das Belüftungskonzept mit einem zentralen Riesenlüfter könnte man dahingehend denke ich sogar beibehalten.

      Sorry, für die späte Antwort. Bei mir war einfach gnadenlos viel los.Die Splitter sind von Peter ausgiebig getestet worden und laufen sehr stabil. Die sehr flexiblen auf Plastik gedruckten Leitungen sind für die Ewigkeit. Auch logisch ist der Splitter eine sehr saubere Lösung trennt er doch die PCIe x4 nur in einzelne PCIe x1 auf. Das ist kein Murks sondern mal einen schöne und Software-Transparente Lösung. Solche Splitter-Chips sind auf praktisch jedem Mainboard drauf.Zumindest Dirk und ich wollen nicht nur einen Rechner von der Stange und gerade die Splitter machen meiner Meinung nach den Unterschied so wie die PICOs und Samuel im E=mk² den Unterschied machen. Ich möchte, dass das einfach auch beeindruckend und besonders aussieht.So zum Beispiel:http://www.meisterkuehler.de/forum/attachment.php?attachmentid=1159&d=1356865867Das Gehäuse könnte auch mit bis zu 6 ITX noch 12-eckig sein. Man müsste nur achten, dass alle Teile symmetrisch sind, dann kann man das so oder so ähnlich lasern oder fräßen lassen. Was denkst du, ist das machbar?Zugegeben das ist nicht die günstigste Lösung, aber das Gehäuse incl. Splittern könnte man vermutlich über mehrere Jahre so beibehalten und nur die ITX und Grakas tauschen. Schön wäre es wenn das langsam wachsen kann und auch die etwas ältere Hardware noch bei Bedarf mitrechnen kann.Mehr als 24 Grakas machen aber wohl keinen Sinn. :DIch denke, dass langfristig bei allen GPU-Projekten die CPU-Last weiter sinken wird. Die Probleme sind meiner Meinung nach nur in der Umstellungsphase gegeben. Und dann werden hoffentlich 4 GPUs auch an einer (sehr) keinen CPU laufen. Die PICOs bringen ja eh auch nur so 70 Watt! Und 12 ATX Netzteile kommen wohl nicht recht in Frage, oder?

    • #931224
      isch
      Teilnehmer
    • #931230
      VJoe2max
      Teilnehmer

      Hmm – wären die Grakas dann die Striche außen? Da müsste dann noch was außen rum, damit die Karten nicht so frei in der Gegend rum hängen – oder?Wenn die Karten nach innen zeigen würden, wäre das kühltechnisch sicher einfacher zu bewerkstelligen. Machbar ist jedenfalls fast alles ;). Da muss man auch nicht viel fertigen lassen – höchstens zur Zeitersaprnis. Die Blechtafeln kann man sich z.B. zuschneiden lassen – ist aber mehr Zeitersparnis, als wirklich nötig. Evtl. hab ich auch bald ne Tafelshere – da hätte sich das Thema auch erledigt. Dass ein Gehäuse, welches komplett aus Alu-Profilen und Alu-Platten besteht, nicht ganz so billig, wie irgendwelche PC-Gehäuse von der Stange sein wird, versteht sich. Dafür ist das Ganze aber stabil, erweiterbar und genau auf die Hardware abstimmbar. Insgesamt sollte so eine Konstruktion auf jeden Fall deutlich billiger sein, als wenn man sich da was Individuelles komplett anfertigen lässt. Abgesehen davon kann man so auch problemlos erweitern und umbauen.Wenn ihr da schon ein konkretes Konzept im Kopf habt, sollten wir uns vllt,. in absehbarer Zeit mal treffen und die Details besprechen, oder ne kleine Planungs-Session machen ;).Wäre dann natürlich gut, wenn zumindest so ein Splitter zum Maß nehmen da wäre. Der Rest ergibt sich dann.Was die Netzteile angeht: Könnte mir durchaus vorstellen, dass man sechs oder zwölf-ATX-Netzteile formschön unterbringen kann, aber ich glaube das ist doch etwas zu viel des Guten – oder? Hinsichtlich Effizienz wird das denke ich eher schwierig.

    • #931226
      schannall
      Teilnehmer

      ulv;501096 said:
      Die PICOs bringen ja eh auch nur so 70 Watt! Und 12 ATX Netzteile kommen wohl nicht recht in Frage, oder?

      Warum nicht einfach 2 oder 3 ATX Netzteile und da dann einfach auf 4-6 Boards verteilen?

      sC

    • #931237
      littledevil
      Teilnehmer

      @isch dann müsste die ja @x1 stark einbrechen, oder?

    • #931243
      isch
      Teilnehmer

      Ja vermute ich.Es bringt ja nicht wenn 4 Stück @ x1 nur so viel wie zwei @ x16 schaffen.Und wenn ich das richtig sehe sind das doch nur PCIe Splitter und keine PCIe Gen3 was ja dann noch mal eine extreme Reduzierung der Bandbreite wäre.

    • #931246
      littledevil
      Teilnehmer

      also eher in richtung 3 PCIe 3.0 x16 steckplätze pro Baord planen`

      z.b. MSI Z77A-GD65
      http://gzhls.at/p/746838.jpg

    • #931253
      Lukas
      Teilnehmer

      Hi ich wollte mal fragen ob ich mich wärend den Planungen “einschleichen “dürfte und euch helfen dürfte.

      Also Wir wissen jetzt dass wir ein mainboard brauchen dass wenig Strom zieht bzw keine Unnötige Funktionen haben soll , wass drei PCie x16 anschlüsse haben soll und ein i7 oder Xenon drauf soll

    • #931254
      Obi Wan
      Verwalter

      ich denke Lukas, jeder ist hier willkommen 😉

    • #931257
      Lukas
      Teilnehmer

      @ Obi thxBraucht ihr vllt iw Werte von i7 3770k und ich hätte da noch ein Mainboard http://geizhals.de/749609 Halten wir jetzt noch ein einer ” runden ” Lösung fest ? und ham wir uns schon um Kühlung der Cpu befasst weil im eim geschlossenen Case wenn der Lüfter oben ned ist kann der CPU schon anfangen zu schwitzen. Ich fande die Idee mit mehreren case von jeweils 4 Gk drin sind auch ned so schlecht

    • #931263
      isch
      Teilnehmer

      Hallo Lukas und Willkommen an Boarddein verlinktes Board ist ja sogar µATX was natürlich noch besser ist.Gigabyte ist leider für nicht Stromsparende Boards bekannt.Das MSI ist dagegen schon Stromsparend.Ich habe das GD55 und das liefert gute werte.

    • #931264
      VTG01
      Teilnehmer

      hmm, Auch mal ein Vorschlag von mir:

      ASROCK Z77 WS,
      Das Board hat einen zusätzlichen Stromamschluss für die Karten, theoretisch passen dann auch 6 Grakas Single-Slot in X16 Steckplätze rein. Theroretisch sind auch 4 Single-Slots und 2 Dualslot Karten mit extra Stromstecker möglich. Als CPU bleibt wohl nur ein 3770K über.

      Es stellt sich die Frage ob man auch 2 Graka Projekte parallel rechnen kann – samt definition welche Graka wo rechnet. So wäre es möglich POEM zu optimieren und parallel ein 100% GPU-Projekt zu rechnen. So wäre es sicher möglich 6 GRAKAS in einem Rechner auszunutzen.

    • #931265
      ulv
      Teilnehmer

      Dass Poem mehr Punkte/Tag macht je mehr die CPU glüht verstehen wir denke ich alle. Wie gut das auch für Punkte/Watt gilt ist für mich immer noch offen.

      Nix gegen Poem aber ich denke wir müssen nochmal grundlegend entscheiden ob der neue vom Design her ein 100%-GPU Rechner werden soll oder bzw. oder auch ein Poem-CPU-GPU-Hybrid.

      BTW: Wenn es bei Poem einen deutlichen Unterschied zwischen Single-, Dual- und Tripple Channel RAM gibt dann ist vermutlich auch der PCIe x1 eine große Poem-Bremse.

    • #931266
      isch
      Teilnehmer

      Ja Quadchannel auf einem x79 ist am schnellsten und schneller RAM bringt auch noch mal einiges.

      Aber die x79er Boards/CPU verbrauch ja so viel.

      Hier noch der 3930k@3,8GHz, MSI X79A-GD45 (8D), 16GB DDR1600 Quadchannel mit 3 x HD7750@900MHz.

      GPU1, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
      GPU2, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
      GPU3, PCIe3.0 x8, mit 6WUs, GPU-Last 91%, 2230s, gibt 680k
      = 2160k/Tag bei 270W

      Hier mal mein Sys

      i7 3770k 4,3GHz @ 1,176V
      MSI Z77A-GD55
      Crucial SATA RealSSD C300
      16GB Crucial Ballistix Tactical 1600MHz @ 8-8-8-24-1T @ 1,4V
      HIS Radeon HD 7870 GHz Edition @ Arctic Cooling Accelero S1 Plus mit 2 Noiseblocker NB-eLoop S-Series B12-1 @ 5V
      FSP Fortron/Source Aurum Gold 400W

      Idle 43W-44W
      Prime95 129W
      8x Leiden in einer VM 110W

      macht noch 160W für 3 Grakas die aber bei weitem nicht so viel verbrauchen.

      Wenn ich jetzt noch runter takten und die 7870 raus nehme bin ich bei weit unter 100W

    • #931271
      littledevil
      Teilnehmer

      Naja soviel ist das doch gar nicht. Du müßtest den 3770k ja auf über 5GHz laufen lassen, um eine vergleichbare Leistung zu erzielen… :devil:

      Ich denkemal, das man mit optimeirungen da schon einiges heraus holen kann.

      Habe leider immer noch keine CPU für mein GIGABYTE X79-UD3

    • #931289
      Burntime
      Teilnehmer

      Wieviel CPU-Leistung bräuchte ich denn um mit 12 Grafikkarten zu Arbeiten?Würden 6 Xeon Kerne mit 2 GHZ ausreichen?

    • #931297
      Lukas
      Teilnehmer

      @above
      Irgendeiner hat ausprobiert dass der 3770k mit 1 GK 30 % Auslastung hatte und mit 2 ca. 60 % ( sofern ich mich erinnern kann 😀 ) also 3 90 % und 4 waren 120 % ( geht ned ) der 37k hat 4 kerne und kann drei Gpus nutzen also müsste ( stimmt auch nicht kommt auf CPU an) der Xenon 5 schaffen.

    • #931299
      isch
      Teilnehmer

      Bei 2GHz verhungern dir die Grakas.Damit kannst nicht mal eine Karte ordentlich versorgen.Bei den Optimierten Anwendungen auf die ATI 7xxx und NV 6xx Karten wir auch viel CPU Power benötigt (da für diese aufgaben die GPU nicht geeignet oder zu langsam ist)

    • #931302
      Lukas
      Teilnehmer

      Wirf hier mal noch eine Idee in den Raum 😀

      Headpipe Kühler wird aber bei der idee nix wenn mans aus der Perspektive nimmt

      Schreibt euren Komments ruhig dazu

      P.S Bin nicht sehr gut in Sketchup 🙂

    • #931307
      Lukas
      Teilnehmer

      @ ulv Meinst du dass allgemein oder spezifisch auf meine Zeichnung?

    • #931304
      ulv
      Teilnehmer

      Also ihr würde euch bitten einen eigenen Thread für einen Poem-Only-Rechner aufzumachen.

      Das passt aus meiner Sicht einfach nicht zusammen!
      1) Wenn die CPU 100% Last hat dann kann man die nicht sinnvoll mit einer PICO-PSU versorgen! => jedes Board braucht dann ein eigenes ATX-Netzteil => Es macht meiner Meinung nach sehr wenig Sinn mehrere ATX-Netzteile in ein Gehäuse zu stecken. => Das ist irre aufwendig und kostet dann nur extra.

      2) Für diesen Thread wünsche ich mir ausschließlich eine Betrachtung Credits/Watt. Die ganze EMKx Idee lebt doch gerade davon effiziente Hardware anstelle der eigenen rechnen zu lassen (und nur im Wettkampf mal dazuzufeuern.) Und die Erfahrung aus dem EMK2-Projektk ist doch auch, dass die laufenden Kosten am Ende (fast) alles sind was zählt!

    • #931308
      isch
      Teilnehmer

      Das Problem ist doch ehr welche sinnvollen Projekte brauchen bei Graka Nutzung so gut wie keine CPU???Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?Bei den Projekten sind dann auch wieder die dicken Grakas in vor teil aber die ziehen ja dann wieder so viel Strom.

    • #931315
      ulv
      Teilnehmer

      Lukas;501187 said:
      @ ulv Meinst du dass allgemein oder spezifisch auf meine Zeichnung?

      War nicht auf deine Zeichnung bezogen.

      isch said:
      Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?

      BTW: Die Meisterkühler haben bisher mehr als die Hälfte aller Credits bei PrimeGrid und Collatz errechnet. Und nur ca. 5% bei Poem.Im vergangenen Monat waren es sogar über 85% bei Prime und Collatz!Aber klar die Sinnfrage kann man hier schon stellen. Aber sind es nicht die MK-User selbst die hierauf auch die Antworten geben?Aber wenn das so ist dann also ab jetzt hier uATX und Grakas.Sind dafür dann alle Antworten schon gepostet? Oder fehlt noch etwas.Ein kleines Gehäuse mit ATX-Netzteil, uATX-Board mit Xeon, und drei Grakas + SSD?Sollen wir dazu eine genaue Kaufempfehlung geben – oder kann das jeder selber basteln.

    • #931311
      littledevil
      Teilnehmer

      Sofern der P4 Strom direkt an einer 12V Schienen vom großen NT hängt, wird übers pico gar nicht so viel gezigen. Da sind eher die Grakas das Problem…

      Jutn Rutsch :devil:

    • #931316
      isch
      Teilnehmer

      ulv;501195 said:

      isch said:
      Prime,Collatz aber dafür einen GPU Cruncher bauen um irgendwelche sinnlosen Zahlen zu berechnen?

      BTW: Die Meisterkühler haben bisher mehr als die Hälfte aller Credits bei PrimeGrid und Collatz errechnet. Und nur ca. 5% bei Poem.Im vergangenen Monat waren es sogar über 85% bei Prime und Collatz!Aber klar die Sinnfrage kann man hier schon stellen. Aber sind es nicht die MK-User selbst die hierauf auch die Antworten geben?

      Bei Collatz haben wir gestern 1,3Mio C gemacht.Davon hat Schildkroete 855k mit 5 x58xx und einer 7870 (meine ich hier mal irgendwo gelesen zu haben)Der Stromverbrauch liegt doch bestimmt bei 750W und mehr ?Mit einem POEM Blade/3Graka sollten über 2Mio drin sein.Wenn man ganz großzügig rechnet sollte ein Blade bei 200W liegen.Also C/W ist POEM zur zeit die Nummere uno.

    • #931317
      ThaRippa
      Verwalter

      Naja wenn’s ein allgemeiner Challenge-Rechner werden soll, muss genug CPU-Leistung für alle erdenklichen Aufgaben da sein. Eine Spezialisierung macht meines Erachtens nach keinen Sinn. Klar kann jeder ein Board mit 3 Grakas und einem i7 bestücken und ein ATX Netzteil dran hängen. Was ich von euch aber erwartet hätte ist ein Gehäuse mit mehreren davon oder ein modulares Design.

    • #931318
      ulv
      Teilnehmer

      Also gut:[SIZE=”3″]Xeon CPU Sockel 1155: CPU: Quad-Core “Ivy Bridge” Fertigung: 22nm[/SIZE]263€ : Intel Xeon E3-1265LV2 (_mit_ IGP), 4x 2.50GHz, TDP 45W -> http://geizhals.de/?cat=cpuppro&v=l&sort=r&xf=25_4~2_22~4_45#xf_top225&#8364; : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W -> http://geizhals.de/?cat=cpuppro&bpmax=&asuch=&v=l&plz=&dist=&xf=2_22~25_4&sort=r293&#8364; : Intel Xeon E3-1270V2 _(keine IGP), 4x 3.50GHz, TDP 69W -> http://geizhals.de/778205%5BSIZE=”3″%5DMainboard: Chipsatz Z77 (uATX geht nicht recht, weil bereits der 2. PCIe dort scheinbar elektrisch immer nur 8x ist)[/SIZE]Edit: Jetzt wo die ATX auch fast alle nur 8+8 können füge ich die uATX evtl. doch noch dazu – mal sehen…ATX mit 2x PCIe 3.0 x16 + 1x PCIe 2.0 x4(x16) der ist ungefähr so schnell wie ein PCIe3.0 x2_96€: MSI Z77A-G45 -> http://geizhals.de/746836 (Im Handbuch nicht beschrieben :x; vermutlich 16, 8+8, 16+2, “8+8+2”)114€: MSI Z77A-GD55 -> http://geizhals.de/746837 (Im Handbuch nicht beschrieben :x; vermutlich 16, 8+8, 16+2, “8+8+2”) <- von isch121€: Biostar Hi-Fi Z77X -> http://geizhals.de/838352 (Im Handbuch 16, 8+8, 16+2, 8+8+2)ATX mit 3x PCIe 3.0 x16146€: MSI Z77A-GD65 -> http://geizhals.de/746838 __(Im Handbuch nur 16, 8+8, 8+4+4)162€: MSI Z77 MPOWER -> http://geizhals.de/823426 (Im Handbuch nur 16, 8+8, 8+4+4)184€: MSI Z77A-GD80 -> http://geizhals.de/756504 __(Im Handbuch nur 16, 8+8, 8+4+4)ATX mit 4x PCIe 3.0 x16*253€: ASUS P8Z77 WS______ -> http://geizhals.de/749614 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8) 358€: ASUS P8Z77-V Premium -> http://geizhals.de/771794 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8) ATX mit 5x PCIe 3.0 x16* bis 4 Grakas dual Slot (ab 5 Grakas zwei davon single Slot)215€: ASRock Z77 WS_____ -> http://geizhals.de/837323 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???) 259€: ASRock Z77 Extreme9 -> http://geizhals.de/775925 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???)[SIZE=”3″]Grafikkarte: Nvidia GT640 (GK107)[/SIZE]65-100€ -> http://geizhals.de/?cat=gra16_512&xf=1439_GT+640#xf_topjetzt auch mit 42 Watt!? -> http://geizhals.de/846273auch single Slot + low Profile -> http://geizhals.de/?cat=gra16_512&xf=1439_GT+640~1481_1~351_low+profile#xf_top* Was ich komisch finde ist, dass der Z77 eigentlich nur 16 PCIe Lanes zur CPU hat, wie kann der dann 8+8+8+8 machen -> http://de.wikipedia.org/wiki/Intel-7-Serie#Modell.C3.BCbersichtPS: Die Angaben aus dem Handbuch gelten natürlich nur für Ivy Bridge CPUs -> sonst gibt es ja gar keine PCIe 3.0!

    • #931319
      Obi Wan
      Verwalter

      schade, das wir kein vb4 Forum haben, sonst würde ich dem letzten Beitrag ein LIKE verpassen.schöne Zusammenfassung UlV

    • #931321
      isch
      Teilnehmer

      Frohes neues Jahr an alle

      @ ulv da hast ja schon mal eine super Zusammenstellung gemacht.

      263€ : Intel Xeon E3-1265LV2 (_mit_ IGP), 4x 2.50GHz, TDP 45W zu teuer und viel zu wenig Takt
      225€ : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W ausreichend Takt “günstiger” Preis
      293€ : Intel Xeon E3-1270V2 _(keine IGP), 4x 3.50GHz, TDP 69W viel zu teuer für 100MHz mehr

      Der 1240V2 ist die bester wahl von der P/L her und ein bisschen OC sollte ja auch noch gehen.

      Beim Board brauchen wir nur 3 PCIE Steckplätze weil die CPU nicht mehr schafft.

      Wenn ich das jetzt richtig sehe bei deiner Auflistung ist ja nur max 16+8+8 bei 3 Graka das höchst mögliche.

      253€: ASUS P8Z77 WS
      358€: ASUS P8Z77-V Premium
      215€: ASRock Z77 WS
      259€: ASRock Z77 Extreme9

      Vom Preis her fällt das ASUS P8Z77-V Premium ja schon mal raus.Beim verbrauch ist Asus ja eigentlich nicht die erste wahl müsste man dann halt mal testen.

      Die GT640 kannst leider vergessen.Bevor ATI die neuen Treiber raus gebracht hat war die mal die beste Karte für POEM.
      Die 7750er wischen mit den GT640 den Boden auf.
      Doppelter Output bei nur ein paar Watt mehr.Aber Achtung diese gilt nur mit den aktuellen Beta Treibern wie das bei Linux aus sieht weiß ich nicht.
      Hier noch mal SingleSlot 7750

      Beim RAM sollte es dann was schnelles sein

      1600MHz

      2x 8GB 1,35V CL9-9-9-24, very low profile <- liegen hier bei mir schon rum bin aber noch nicht zum testen gekommen. Crucial Ballistix Sport VLP

      2x 8GB 1,35V CL8-8-8-24, low profile
      Crucial Ballistix Tactical LP

      1866MHz

      2x 8GB 1,35V CL11-11-11-27
      Mushkin Enhanced Blackline Frostbyte

    • #931328
      isch
      Teilnehmer

      Waren glaube um die 40W für eine 7750

    • #931324
      phil68
      Teilnehmer

      Gesundes Neues Jahr 🙂

      Danke für die Zusammenstellung Christian :d:

      Hab zwar wenig Zeit, wollte denoch fix etwas dazu schreiben. Ich würde trotzdem die ITX Variante bevorzugen. Nur weil bei Poem der Hardwarehunger so groß ist, schmeiß ich nicht alles über den Haufen. Andere Projekte laufen super nebenher und brauchen keinen ganzen Kern dafür.

      Edit: Jetzt wo die ATX auch fast alle nur 8+8 können füge ich die uATX evtl. doch noch dazu – mal sehen…

      GPU1, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
      GPU2, PCIe3.0 x16, mit 6WUs, GPU-Last 92%, 2050s, gibt 740k
      GPU3, PCIe3.0 x8, mit 6WUs, GPU-Last 91%, 2230s, gibt 680k
      = 2160k/Tag bei 270W

      Mit dem Mehrverbrauch der Full-ATX gegenüber ITX, kann ich 2 GT640 betreiben. Dabei kann ich in Kauf nehmen, dass die etwa nur 500k @x1 schaffen. Abgesehen davon glaube ich nicht, dass wir uns nur auf ein Projekt konzentrieren sollten. Es wäre möglich immer 2 ATI mit 2 NV zu betreiben und 2 verschiedene GPU Projekte zu rechnen. Wirklich sinnvolle Projekte gibt es leider nur für NV Karten(POEM & GPUGrid). Ich werd sicher nicht mehr Collatz oder Primzahlen berechnen… In der Anfangszeit, als wir noch zu viert oder fünft gerechnet haben, war es wichtig ein Projekt zu wählen, dass ordentlich Credits abwirft. Jetzt wo wir eine beachtliche Zahl an Mitgliedern haben, könnten wir die Projekte nach anderen Kriterien auswählen :-k

      Mein Xeon 1230 V2 läuft mit 100MHz weniger als der 1240 und liegt unter 200€. Wenn das neue Board kommt, kann ich mal testen wie weit der geht. Generell sollten wir auf die IGP verzichten.

      Die GT640 kannst leider vergessen.Bevor ATI die neuen Treiber raus gebracht hat war die mal die beste Karte für POEM.
      Die 7750er wischen mit den GT640 den Boden auf.

      Hallo isch, wie sieht das bei anderen Projekten aus? Ich vermute mal, dass die 7750 ca. 50W unter Volllast braucht, was dann immerhin 20W mehr als die GT640 sind :-k Das relativiert den doppelten Output auch wieder. Ich lass mich aber gern belehren, da ich noch keine Erfahrung mit der 7750 habe.

      Grüße Dirk

    • #931331
      isch
      Teilnehmer

      Wo für 32GB RAM ?16GB sollten doch völlig reichen.

    • #931329
      ulv
      Teilnehmer

      Hab mir eben nochmal ein paar X79 Mainboards angesehen. Die machen ja Quad-Channel-RAM aber dafür sind die alle (solange es nur Sandy-Bridge-CPUs dafür gibt) nur mit PCIe 2.0 unterwegs. Dann wären aber selbst die PCIe 2.0 16+16+16 nur mit PCIe 3.0 8+8+8 vergleichbar.
      => Einziger Vorteil der “doppelt” so schnelle RAM. Dafür aber langsamere PCIe und “alte” CPUs.

      Dann wird es langsam übersichtlicher:

      225€ : Intel Xeon E3-1240V2 _(keine IGP), 4x 3.40GHz, TDP 69W -> http://geizhals.de/781379?v=l
      215€: ASRock Z77 WS -> http://geizhals.de/837323 (Im Handbuch steht dann aber 16+16, 16+8+8, 8+8+8+8, 5. Graka ???)
      400€: 3-4 Stück HD 7750 Grakas: http://geizhals.at/de/?cat=gra16_512&xf=1440_HD+7750#xf_top
      240€: Extrem schneller Speicher: 4x8GB DDR3 2400 CL10 -> http://geizhals.at/de/?cat=ramddr3&xf=254_2400~256_4x~1454_8192~255_10#xf_top
      150€: ATX Platinum Netzteil -> http://geizhals.at/de/?cat=gehps&xf=1248_600%7E366_abnehmbare+Anschl%FCsse%7E1119_80+PLUS+Platinum#xf_top
      —–
      1230€ + Gehäuse, CPU-Kühler, (Lüfter für Grakas etc.)

      Der Speicher scheint mir dann neben der CPU das Bottleneck des Rechners zu sein. Dann darf der auch ein wenig heizen, oder?
      Mit mehr als 2400 gibt es leider nur 4GB Module und das macht dann bei 4 Slots nur max 16 GB. Zu wenig?

      Die 4. Graka könnte man für Races bei Collatz und Prime gut brauchen.
      Ob die 4 Grakas UC oder 3 Grakas OC besseres Credit/Watt Verhältnis haben müsste man auch erst noch testen. Auf die 100€ kommt es dann aber auch nicht mehr an.

      Ich trage mal noch die geposteten Messwerte zusammen. Evtl. müssen wir dann nix mehr ausprobieren sondern können gleich starten. Pentathlon ist ja schon im Mai. 😉

    • #931336
      isch
      Teilnehmer

      POEM brauch so gut wie nichts an RAM16GB Reichen locker.Selbst bei 8x yoyo ecm (die dicken Dinger) reicht das noch wenn wir de CPU mal bei Challenges brauchen.Tante Edit:Können die Xeons überhaupt so hohe Taktraten beim RAM?Lassen die sich überhaupt beim RAM übertakten?

    • #931334
      ulv
      Teilnehmer

      Vergleiche richtig zitiert:
      http://www.planet3dnow.de/vbulletin/showpost.php?p=4706929&postcount=1145
      http://www.planet3dnow.de/vbulletin/showpost.php?p=4708146&postcount=1230
      http://www.planet3dnow.de/vbulletin/showpost.php?p=4710047&postcount=1275
      http://www.planet3dnow.de/vbulletin/showpost.php?p=4709823&postcount=1267

      [TABLE]CPU | RAM | CPU-Load | GPU-Load | PCIe 3.0* | Grakas | Credit/Tag/Graka | Ergebnis
      CPU i7 (SandyB) 6x 3,2 | ? | 50% | 97% | 8+8 | 2 x HD7750@900MHz | 790k | mit je 6 WUs, Laufzeit 32min, Verbrauch 220W.
      CPU i7 (SandyB) 6x 3,2 | ? | 75% | 94% | 8+8+4| 3 x HD7750@900MHz | 702k | Laufzeit GPU 0 + GPU 1 ca 36min
      |||||| 617k | Laufzeit GPU 2 ca 41min, Verbrauch 255W.
      |
      CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | 23% | 99% | 8 | 1 x HD7750@900MHz | 990k | Laufzeit 1530sec
      CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | 50% | 97% | 8+8 | 2 x HD7750@900MHz | 855k | Laufzeit 1770sec
      CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | ? | ? | 8+4 | 2 x HD7750@900MHz | 860k | GPU-0 Laufzeit 1758sec
      |||||| 813k | GPU-1 Laufzeit 1860sec
      CPU i7 (SandyB) 6x 3,2 | 16GB 1600 Quad | ? | 92% | 8+8+4 | 3 x HD7750@900MHz | 740k | GPU1, 2050s
      |||||| 740k | GPU2, 2050s
      |||||| 680k | GPU3, 2230s, Verbrauch bei 270W
      |
      CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Dual | | | 16 | 1x HD7770 (1050MHz) | 841k
      CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Dual | | | 8 | 1x HD7770 (1050MHz) | 834k
      CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1333 Single | | | 16 | 1x HD7770 (1050MHz) | 614k
      CPU i7 (IvyB) 4x 3,5 | 2x 8GB 1066 Dual | | | 16 | 1x HD7770 (1050MHz) | 784k
      [/TABLE]
      *bei SandyB läuft nur PCIe2.0 => nur halbe Bandbreite

      Was gibt es da zu lernen:
      PCIe:
      PCIe 3.0 x16 und x8 schenken sich selbst bei einer 7770 fast nix.
      PCIe 3.0 x8 und x4 machen aber einen Unterschied auch bereits bei der 7750. => -5% bis -12% Credits

      RAM: Bereits bei einer Graka (HD7770):
      Single Channel RAM (-50% Bandbreite) => -27% Credits
      RAM mit 1333 zu 1066 (-20% Takt) => -7% Credits
      Je stärker die CPU belastet wird je kritischer wird logischerweise der RAM werden.

    • #931333
      VJoe2max
      Teilnehmer

      Würde es vllt. Sinn haben eine Hälfte mit nVidia-Karten und die andere Hälfte mit AMD-Karten auszustatten, um für versch. Projekte immer gut gewappnet zu sein und sich so nicht zu sehr zu spezialisieren? Oder ist das von der Aufgabenverteilung her schwierig?

    • #931335
      ulv
      Teilnehmer

      isch;501211 said:
      Wo für 32GB RAM ?
      16GB sollten doch völlig reichen.

      Flexibilität oder Poem only?

      Wie viel RAM brauchen denn 4*6 Poem WUs?

      Wenn das wenig ist, dann sollten wir den schnellsten RAM für das Board kaufen, den wir kriegen können:
      4x4GB DDR3 2800MHz -> http://geizhals.de/847539
      (Das Board kann angeblich sogar bis 3000MHz)

    • #931337
      Lukas
      Teilnehmer

      Also hab mich mal ein bissle informiert und bei der Intel Seite steht dass sie 1333 / 1600 als Ram Takt und 32 GB Ram haben können ( muss natürlich nicht heißen ob ein höherer Ram ned geht )

      Quelle

    • #931338
      littledevil
      Teilnehmer

      Ich hoffe Ihr habt schön gefeiert und seid gut rein gerutscht O:-)

      Ist ja schon ein wildes Treiber hier :respekt:


      @isch
      wieviel CPU power wird pro 7750 benötigt? Mehr Output als Gt640 würde ja heißen, das auch mehr CPU power nötig ist, oder?

      Grundsatzfrage wäre, welchen fertigstellungstermin wir anpeilen.
      „Ivy Bridge-EN/EP“ mit bis zu 12 Kernen bei 130 Watt TDP scheint ja erst im Herbst zu kommen, aber man kann ja den Rest schon vorher fertig machen und dann die CPU tauschen

    • #931341
      Lukas
      Teilnehmer

      sry ganz ganz dumme idee 😀 aber was is mit Haswell oder dauert dass zu lange?

    • #931344
      isch
      Teilnehmer

      littledevil;501218 said:
      Ich hoffe Ihr habt schön gefeiert und seid gut rein gerutscht O:-)Ist ja schon ein wildes Treiber hier :respekt:@isch wieviel CPU power wird pro 7750 benötigt? Mehr Output als Gt640 würde ja heißen, das auch mehr CPU power nötig ist, oder?Grundsatzfrage wäre, welchen fertigstellungstermin wir anpeilen. „Ivy Bridge-EN/EP“ mit bis zu 12 Kernen bei 130 Watt TDP scheint ja erst im Herbst zu kommen, aber man kann ja den Rest schon vorher fertig machen und dann die CPU tauschen

      Bei 6Wus habe ich ca 30% CPU last auf meinem i7NV WUs brauchen mehr CPU als ATI.Auf einer GT 640 kannst aber nur 4 WUs laufen lassen.Im Endeffekt nimmt sich das nichts.

    • #931343
      ulv
      Teilnehmer

      isch;501216 said:
      Können die Xeons überhaupt so hohe Taktraten beim RAM?Lassen die sich überhaupt beim RAM übertakten?

      In einem Forum scheint es so beschrieben zu sein.
      Wenn nicht dann halt ein i7-3770K, 4x 3.50GHz -> http://geizhals.de/761779
      Der i7-3770K kann es mit Sicherheit! -> http://www.intel.com/content/dam/www/public/us/en/documents/datasheets/core-i7-memory-suppliers-datasheet.pdf

      Mit Intel XMP 1.3 geht es eigentlich direkt bis 2800. Ist schon ein großer Unterschied ob 1600 oder 2800! Vor allem dann, wenn es hauptsächlich auf die RAM-Performance ankommt. Das könnten 30% mehr Credits sein.

    • #931348
      isch
      Teilnehmer

      Ist es den möglich mit einem NT 2 Boards zu betreiben?@ ulv ja mit dem K würde das ja dann wieder gehen.Eventuell könnte man auch noch auf die neuen Haswell CPUs warten die sollen ja noch mal Effizienter sein als die IBs

    • #931351
      littledevil
      Teilnehmer

      isch;501224 said:
      Bei 6Wus habe ich ca 30% CPU last auf meinem i7

      D.h. 3 Karten pro Board? Mit nem i7 3770k @4,3GHz
      Oder einen 6 Kerner @3,8 GHz mit 4 Karten?

    • #931353
      ulv
      Teilnehmer

      phil68;501204 said:
      Hallo isch, wie sieht das bei anderen Projekten aus? Ich vermute mal, dass die 7750 ca. 50W unter Volllast braucht, was dann immerhin 20W mehr als die GT640 sind :-k Das relativiert den doppelten Output auch wieder. Ich lass mich aber gern belehren, da ich noch keine Erfahrung mit der 7750 habe.

      In diesem Post (3. Zeile der Tabelle) siehst du, dass die dritte 7750 nur 25 Watt mehr gebraucht hat. Auch wenn das evtl. nicht ganz genau stimmt ist die 7750 um einiges besser als die GT640. Selbst wenn die auch nur ähnlich sind vom Credit/GPU-Watt dann ist das doch immer besser, wenn wir weniger Hardwareteile, Kühler, etc. brauchen.

      phil68 said:
      Mit dem Mehrverbrauch der Full-ATX gegenüber ITX, kann ich 2 GT640 betreiben.

      Der i7 im ATX-Board ist bei Poem mit 3x 7750 dann vermutlich fast so schnell wie 6 oder gar 10 GT640@x0.5 (der Splitter ist ja nur PCIe 2.0) im ITX mit Splitter.
      Ich würde für den Splitter und das Design schon mehr zahlen, aber wenn dann zusätzlich noch die Performance stark leidet dann will ich nicht mehr.
      Und so viel Strom kann das ATX-Board doch auch nicht mehr brauchen als ein ITX mit gleicher CPU, RAM und Chipsatz, oder?
      Wenn das alles klappt dann macht der Rechner 2,5k/Tag bei ca. 200 Watt.
      Und MK.de macht dann gleich mehr als doppelt so viel Credits/Tag als bisher.
      Und wenn alles doch nicht so funktioniert stellen wir alles schnell auf ITX um. (Nur das Mainboard ist dann übrig)

      VJoe2max said:
      Würde es vllt. Sinn haben eine Hälfte mit nVidia-Karten und die andere Hälfte mit AMD-Karten auszustatten, um für versch. Projekte immer gut gewappnet zu sein und sich so nicht zu sehr zu spezialisieren? Oder ist das von der Aufgabenverteilung her schwierig?

      Das sollte ja alles trotzdem noch gehen. Es könnten ja sogar gleichzeitig noch drei weitere Grakas in den Rechner (solange die nicht auch Poem rechnen wollen).
      Oder doch lieber zusätzlich zwei Splitter mit je 4 Grakas. 😀

      isch said:
      Ist es den möglich mit einem NT 2 Boards zu betreiben?

      Die einzig saubere Lösung sind, meiner Meinung nach, die PICOs aber die gehen ja so recht nur bis 70 Watt.
      Ein Mörder-Board und nur ein einziges OS ist doch auch viel einfacher. Auch weil die aktuelle Hardware vermutlich erstmal mit Windows doch besser läuft.

    • #931352
      isch
      Teilnehmer

      Auf dem normalen i7 @3,7GHz

    • #931357
      ulv
      Teilnehmer

      Burntime;501236 said:
      Und beim EMK2 “einfach” Grafikkarten mit flexiblen Risern nachzurüsten wäre nichts?

      Das ist mit den PICOs schwierig, die können eigentlich nicht noch zusätzlich 25 bis 35 Watt ab.Dann müssten wir wieder am Gehäuse arbeiten, Kabel legen, die Riser müssten alle einzeln mit Strom versorgt werden, für das Netzteil ist es eigentlich jetzt schon zu knapp, etc.Die Software mit der wir momentan die Blades verwalten kommt auch nicht mit Grakas klar und und und.=> Never touch a running system. Besonders wenn es so gut läuft!

    • #931358
      VTG01
      Teilnehmer

      Mal ein kleiner Aufruf:Wir rechne (ich denke es sind 3 Personen) bei einer Collatz Challenge mit.Wäre mal ganz nett wenn ihr eure GT’s und 7750 und alle anderen mal ein bisserl Collatz rechnen lasst und mal notiert was die Karten so schaffen. So hätten wir auch gleich einen Vergleich was als 2. Projekt noch möglich ist und vor allen was an Credits zu erwarten sind.PS: Dauer nur mehr bis 03.01.2013 0:00 Uhr, also – lasst es krachen!!Zum Rest:Ich schätze dass die Stromversorgung der Grakas nicht so einfach werden wird – wobei 3 sicher möglich sein sollten, bei 5 Karten im Board die alle 60 Watt brauchen ist das sicher nicht mehr so einfach (3 für POEM, der Rest >90% GPU_Power)

    • #931354
      Burntime
      Teilnehmer

      Und beim EMK2 “einfach” Grafikkarten mit flexiblen Risern nachzurüsten wäre nichts?

    • #931360
      isch
      Teilnehmer

      6 Graka sind auch kein Problem von der Stromversorgung.Die Boards haben einen zusätzlich Moles anschluss.Ich bekomme meine 7xxx Karten bei Collatz nicht zum laufen und mit einer NV brauch man erst gar nicht anfangen.Schau mal hier wie lange eine GT640 braucht.Dann kannst ja mal mit deinen 58xx Karten vergleichen.Und hier noch 7750er.

    • #931365
      littledevil
      Teilnehmer

      ulv;501239 said:
      => Never touch a running system. Besonders wenn es so gut läuft!

      Sehe ich ganz genau so :d:Das mit den zusätzlichen Grakas finde ich auch gut. dann sind es eben 3 Poem optimierte Grakas und der Rest hängt dann per x1 dran:z.b. MSI Z77A-GD65 + Xeon E3-1230V23x PCIe 3.0 x16, 4x PCIe 2.0 x1+G.Skill TridentX DIMM Kit 32GB PC3-12800Ualternativ das größere MSI Z77 MPOWER mit ATX 6-pin Power ConnectorWelche Projekte könnten wir mit Optimalen Credit/Watt-Verhältnis mit den 4x x1 karten bedienen?Wenn Poem Grad nicht Mode ist, kann man 7 Karten rechen lassen und die CPU ein CPU ProjektP.S. Falls die Stromversorgung keien Problem ist und 2 *schnell + einmal x4 auch für Peom genügt: MSI Z77A-G45

    • #931369
      isch
      Teilnehmer

      Der link vom RAM ist falsch.Wir wissen ja noch nicht ob die Xeons den schnellen RAM unterstützen.Und 32GB finde ich etwas übertrieb.Außer einem höheren Stromverbrauch bringen 4 Riegel doch nicht.Die IB unterstützen doch nur Dualchannel.Das mit den anderen Grakas an den x1 Slots ist eine gute Idee.Da könnten ja dann GT640 rein und GPUGRID rechnen wenn die nicht viel CPU brauchen und sich das mit den kleinen Grakas lohnt.

    • #931370
      ulv
      Teilnehmer

      Bei mehr als 4 Grakas bleiben aber noch viele Fragen offen.Peter hat das glaube ich mal versucht aber das BIOS, Windows bzw. die Treiber sehen das so nicht direkt vor. Auch der BOINC-Client muss ja damit umgehen können.Irgendwie sollten wir das jetzt aber mal in Angriff nehmen:Variante 1) Erst mal RAM und CPU + ITX, eine GT640 und eine 7750Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750Oder es bastelt jemand los, der schon einen i7 oder Xeon ein Z77-Board oder eine Graka hat. Dann würde es noch etwas billiger für den Anfang.Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.

    • #931372
      phil68
      Teilnehmer

      Ich möchte nochmal kurz darauf hinweisen:

      Abgesehen davon glaube ich nicht, dass wir uns nur auf ein Projekt konzentrieren sollten. Es wäre möglich immer 2 ATI mit 2 NV zu betreiben und 2 verschiedene GPU Projekte zu rechnen. Wirklich sinnvolle Projekte gibt es leider nur für NV Karten(POEM & GPUGrid).

      Ein reiner POEM Cruncher wird uns z.B. beim Pentathlon und anderen Races nix bringen :-k

      In diesem Post (3. Zeile der Tabelle) siehst du, dass die dritte 7750 nur 25 Watt mehr gebraucht hat. Auch wenn das evtl. nicht ganz genau stimmt ist die 7750 um einiges besser als die GT640. Selbst wenn die auch nur ähnlich sind vom Credit/GPU-Watt dann ist das doch immer besser, wenn wir weniger Hardwareteile, Kühler, etc. brauchen.

      Das trifft eben aber nur auf POEM zu! Meiner Meinung nach sollte die Kiste, wie oben schon genannt, auch für andere Projekte tauglich sein! Bei PG Challenges z.B. kommt man mit der ATI nicht sehr weit…

      Aber egal, ich hab sowieso vor in der nächsten Woche ein neues µATX Board und eine 7750 zu ordern, um mir selbst ein Bild zu verschaffen. Danach bin ich dann(vielleicht) schlauer. Einen x1 Riser hab ich hier auch noch, sodass ich:

      Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750
      Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.

      abdecken kann 😉

      Bei mehr als 4 Grakas bleiben aber noch viele Fragen offen.
      Peter hat das glaube ich mal versucht aber das BIOS, Windows bzw. die Treiber sehen das so nicht direkt vor. Auch der BOINC-Client muss ja damit umgehen können.

      Soweit ich mich erinnere, gab es da Probleme!

      Mal ein kleiner Aufruf:

      Wir rechne (ich denke es sind 3 Personen) bei einer Collatz Challenge mit.
      Wäre mal ganz nett wenn ihr eure GT’s und 7750 und alle anderen mal ein bisserl Collatz rechnen lasst und mal notiert was die Karten so schaffen. So hätten wir auch gleich einen Vergleich was als 2. Projekt noch möglich ist und vor allen was an Credits zu erwarten sind.

      PS: Dauer nur mehr bis 03.01.2013 0:00 Uhr, also – lasst es krachen!!

      Ich hatte meine Rechner umgeschwenkt, da das mit der Anmeldung nicht so recht geklappt hatte bin ich nach 2 Tagen wieder auf andere Projekte ausgewichen.

      Grüße Dirk

    • #931375
      littledevil
      Teilnehmer

      Ob BOINC mehr als 4 GPUs ansprechen kann, ist natürlich die Frage. Windows kann es wohl scheinbar.Sofern Peter seiner Miner noch am Start hat, könnte er es ja mal checken… [-o<@isch was ist am RAM-LInk falsch? Ich denke DDR3-1600 geht auf jeden Fall??Bis auf das 2011er Board habe ich grad keins, das mehr als 4 PCIe Steckplätze hat und dafür fehlt mir noch die CPU

    • #931383
      ulv
      Teilnehmer

      littledevil;501258 said:
      Ob BOINC mehr als 4 GPUs ansprechen kann, ist natürlich die Frage. Windows kann es wohl scheinbar.

      Kann es scheinbar aber nur zum Bilder ansehen und nicht für Boinc! Wenn du weiter liest dann steht dort, dass (zumindest) die AMD-Treiber das wegen einer Windows-Beschränkung nicht können.
      Unter Linux scheint es aber zu gehen. 😎

    • #931389
      ulv
      Teilnehmer

      phil68 said:
      Aber egal, ich hab sowieso vor in der nächsten Woche ein neues µATX Board und eine 7750 zu ordern, um mir selbst ein Bild zu verschaffen. Danach bin ich dann(vielleicht) schlauer. Einen x1 Riser hab ich hier auch noch, sodass ich:

      Variante 2) Erst mal RAM und CPU + ATX, eine GT640 und eine 7750Variante 3) Wir kaufen einen x1 Riser und testen die Graka-Performance mal im Vergleich.

      Das ist ja super! =D>Du könntest auch das Gigabyte GA-Z77MX-D3H nehmen?[TABLE]MBoard | Format | PCIe 3.0 | PCIe 2.0 || 1 Graka | 2 Grakas* | 3 Grakas* | 4 Grakas* ASRock Z77 Pro4-M | uATX | 16 | 4+1+1 || 16 | 16+2 | 16+2+0,5 | 16+2+0,5+0,5Gigabyte GA-Z77MX-D3H | uATX | 16 , 8+8 | 4+1|| 16 | 8+8 | 8+8+2 | 8+8+2+0,5[/TABLE]* alles umgerechnet auf PCIe 3.0 SpeedGut zum testen wäre das ASRock evtl. sogar besser geeignet, weil einer der PCIe 2.0 x16 elektrisch nur x1 ist und du so einfach den Splitter-Speed messen könntest. Da du ja aber einen PCIe-x1-Riser hast geht das auch in dem Gigabyte.Für den Dauerbetrieb wäre das Gigabyte klar im Vorteil. 2 Grakas mit PCIe 3.0 x8 und ein Splitter (oder 3. Single-Slot-Graka) in PCIe 2.0 x4. Von den Slots würde man das selbst bei 2x Dual-Slot + Splitter einfach stecken können.So etwas wäre doch auch insgesamt eine nette Alternative mit 2x Poem PLUS 2-5 x Grakas für GPU-Only. Dann geht normaler RAM ein billigerer Xeon – eigentlich alles nur Vorteile. Vorausgesetzt der Splitter läuft. :-kOder eines dieser hier? Das Gigabyte GA-Z77MX-D3H ist nur das billigste.http://geizhals.de/749617, http://geizhals.de/746848, http://geizhals.de/764690Mann, die sind alle bei gh.de so blöd einsortiert da muss man jedes mal aufs Bild und ins Handbuch schauen. x(

    • #931413
      VTG01
      Teilnehmer

      Mal eine Idee die etwas günstiger (in Österreich etwa 465.-ohne Netzteil) ist als die oben genannte:

      1 x Intel Core i3-3220, 2x 3.30GHz, boxed (BX80637I33220) (deutlich günstiger als ein i7-3770)
      1 x Crucial Ballistix Tactical LP DIMM Kit 16GB PC3-12800U CL8-8-8-24, low profile (DDR3-1600) (BLT2C8G3D1608ET3LX0CEU)
      2 x Club 3D Radeon HD 7750, 1GB DDR3, VGA, DVI, HDMI (CGAX-7752Z) (single slot, wobei auch Dualslot möglich sein sollte Gigabyte Radeon HD 7750 OC).
      1 x ASRock Z77 Extreme4-M, Z77 (dual PC3-12800U DDR3)

      Nun die Fragen:
      – Packt das noch eine PicoPSu? (160xt)
      – Schafft die CPU 2 Karten in POEM

      Eventuell ist mit einem “Blade” Aufbau die Leistung auch skalierbar, soll heissen 3 oder 4 Boards in einem Gehäuse (Eigenbau) sollten liegend möglich sein.

    • #931428
      isch
      Teilnehmer

      littledevil;501258 said:
      @isch was ist am RAM-LInk falsch? Ich denke DDR3-1600 geht auf jeden Fall??Bis auf das 2011er Board habe ich grad keins, das mehr als 4 PCIe Steckplätze hat und dafür fehlt mir noch die CPU

      Es steht G.Skill Tridentx und verlingt sind Crucial Ballistix Tactical@ ulv Hardware ist bei mir genug vorhanden.MSI z77 GD55 mit i7 3770K und einer ATI 7870 so wie 2 x 8GB Crucial Ballistix Tactical CL8-8-8-24-1T 1600MHzASRock B75 Pro3-M i7 3770 @ 3,7GHz 2x 8GB G.Skill Ares CL10-10-10-30 DDR3-1600 mit Intel Onboard GrakaDann liegt hier noch eine ATI 7750,NV GT640 und eine NV GTX660TI rum Ab Mitte Januar habe ich Urlaub und damit auch einiges an Zeit zum testen.Ihr müsst nur sagen was ich zusammen Schustern soll und welche Projekt.Es ist auch kein Problem mit beiden Rechnern gleichzeitig zu testen.@ VTG01 der i3 ist mit 2 Karten bei POEM schon überfordert.Eine Karte lastet meinen i7 zu 30% aus was 2,66 Kerne sind.Klar kann man auch den i3 nehmen und weniger WUs laufen lassen was aber die Effizienz verringert.Und so viel Sparsamer als ein i7 wird der auch nicht sein.

    • #931431
      ThaRippa
      Verwalter

      Hab heute einiges über die GT640 gelesen. Sie kann wohl ihre vielen Streamprozessoren kaum ausspielen, weil es sie nur mit DDR3 gibt. Das soll sich wohl auch bei BOINC und PhysiX (für die zwei Anwendungen würd ich meine kaufen, und damit meine 7950 wieder Zero-Core kann) bemerkbar machen. Mich würd nun interessieren, wie sehr sich der Speichertakt der 640er auswirkt, bzw, was da “drin” ist. Aufschlussreich wäre ja z.B. wenn die nie voll Ausgelastet ist bei manchen WUs.

    • #931432
      ulv
      Teilnehmer

      isch;501317 said:
      @ ulv Hardware ist bei mir genug vorhanden.

      MSI z77 GD55 mit i7 3770K und einer ATI 7870 so wie 2 x 8GB Crucial Ballistix Tactical CL8-8-8-24-1T 1600MHz
      ASRock B75 Pro3-M i7 3770 @ 3,7GHz 2x 8GB G.Skill Ares CL10-10-10-30 DDR3-1600 mit Intel Onboard Graka
      Dann liegt hier noch eine ATI 7750,NV GT640 und eine NV GTX660TI rum

      Ab Mitte Januar habe ich Urlaub und damit auch einiges an Zeit zum testen.Ihr müsst nur sagen was ich zusammen Schustern soll und welche Projekt.

      Das ist ja perfekt! :d:

      Kannst du dir noch ein oder zwei solche x1 – Riser kaufen?
      z.B.: http://www.amazon.de/dp/B003Y3M2DS Datenblatt: http://www.delock.de/produkte/G_89159/merkmale.html

      Mich interessiert hauptsächlich was der x1 Riser für Einbußen bei Poem hat <- das vor allem im Hinblick auf Credit/Watt und ob dadurch auch die CPU-Last sinkt, man also dann mehr von den Grakas einbauen kann. Es könnte ja sein, dass 6 GT640/7750 unter Poem gedrosselt auf deinem Board ganz OK laufen würden. Evtl. sogar mehr Credits/Watt und Credits/Tag machen als das doppelt so teure Board mit 3 GT640/7750. Vom Preis wäre das dann fast kein Unterschied für eine Prime-Challenge wäre der Unterschied aber enorm. Ansonsten wäre noch ein Vergleich von der GT640 mit der 7750 bzgl. Prime, Collatz und Poem jeweils Credit/Watt sehr interessant. Da bist du ja ohnehin schon dran. Wenn du das gleich fix und fertig testen willst dann können wir dir auch noch zwei GT640 oder zwei 7750 schicken. Möchtest du das?

    • #931435
      konfetti
      Teilnehmer

      Hi – also auch unter Windows hab ich 4 GPUs für Boinc zum laufen bekommen, auf dem MSI K9A2 Platinum hab ich 2 4850er, ne 9800GTX und eine 8600GT laufen gehabt – mit nem Dualcore und 4GB RAM – GPU-Auslastung bei >95% pro Karte. – Einzige Voraussetzung bei den ATIs war der Fake-Display Adapter um selbige für Boinc Aktiv zu haben – 100Ohm Widerstände in dem VGA-DVI-Adapter ham ja gut funktioniert ;)an der 9800GTX hing ja der Monitor und bei der 8600GT gings auch so.

    • #931433
      littledevil
      Teilnehmer

      ulv;501266 said:
      Unter Linux scheint es aber zu gehen. 😎

      Läuft das GPU-Cruchen unter Linux mit alle Projekten?
      Wäre es denkbar das System mit 4 x 7750 und 3 x GT 640 zu bestücken?
      Das MSI Z77 MPOWER könnte man dann mit 4 güsntigen x1 Riser-Verlängerungen bestücken und per 6pin das Mainboard mit Strom unetrstützten

      bzgl. Riser wären die sehr günstig und gut um die Grakas gut zu positionieren : Neu! PCI-E-Kabel 1x bis 16x Riser Extender Card SCN-0047

    • #931439
      isch
      Teilnehmer

      Ja das MSI ist ganz gut beim verbrauch.Habe hier schon ein paar Werte gepostet.Ich habe 1x ATI 77501x ATI 78701x NV GT6401x GTX 660TIJa bei 2,34€ kann ich auch gleich 4 Stück bestellen wenn die Funktionieren.

    • #931434
      isch
      Teilnehmer

      Wie funktioniert das mit den Riser.Stecke ich die in den normalen x16 Slots?Dann würden beim B75 z.B. 2 Stück rein gehen und beim z77 3Wenn ich noch ein paar Karten mehr bekomme wäre nicht schlecht.Dann würde ich mir 3 von den Riser bestellen.

    • #931436
      littledevil
      Teilnehmer

      Ach Isch Du hast ja sogar das MSI Z77A-GD55 :d:
      Nehme mal an, das ist gut im Verbrauch? O:-)

      Bestell Dir doch am besten gleich 4 von den günstigen Risern dazu 😎

      Wieviele Grakas hast Du denn?

      Habe leider keine 7750 oder 640er. GT240 o.ä. könnte ich Dir aber zum testen schicken, falls das etwas bringt.

    • #931445
      ulv
      Teilnehmer

      littledevil;501323 said:
      bzgl. Riser wären die sehr günstig und gut um die Grakas gut zu positionieren : Neu! PCI-E-Kabel 1x bis 16x Riser Extender Card SCN-0047

      Lieferbar in 30 Tagen? :-k

      Hat jemand noch GT640 oder 7750 übrig zum testen oder sollen wir gleich welche kaufen?

    • #931466
      littledevil
      Teilnehmer

      ulv;501335 said:
      Hat jemand noch GT640 oder 7750 übrig zum testen oder sollen wir gleich welche kaufen?

      Peter habe ich zumindest jeweils eine geschickt – weis aber nicht, ob die übrig sind :fresse:
      Wenns schneller gehen soll: Extender Riser Flex Kabel PCI-E PCIe x16-Karte x1-Slot

    • #931468
      ulv
      Teilnehmer

      isch;501352 said:
      Dann lohnt sich das ja nicht.können wir die riser die ulv verlinkt hat dann im neuen cruncher gebrauchen?
      Dann würde ich die 4 bestellen und dann spenden

      Zum testen würde eine oder zwei davon sicherlich reichen.
      Den Riser steckst du einfach dazwischen. Die Stromversorgung ist komplett durchgeschleift. Nur die zusätzlichen Lanes fehlen.
      Wenn du Glück hast geht sogar das Gehäuse noch zu. Sind ja nur 2cm extra.

      Wenn die Karten auch mit x1 einigermaßen laufen dann kommt am Ende wohl die Splitter Lösung mit ITX oder uATX (wenn der Splitter in einem Z77 Board läuft) und dann brauchen wir die Riser am Ende wohl nicht mehr. Ich denke wir sollten erst mal versuchen die Fakten zu klären und dafür reicht vermutlich ein Splitter – außer du möchtest zwei GT640/7750 gleichzeitig an x1 testen.

      Wenn du dir Grakas wünschen darfst was hättest du den gerne?

    • #931462
      isch
      Teilnehmer

      Dann lohnt sich das ja nicht.können wir die riser die ulv verlinkt hat dann im neuen cruncher gebrauchen?Dann würde ich die 4 bestellen und dann spenden

    • #931469
      littledevil
      Teilnehmer

      Ja, einer von den teuren würde wohl genügen…
      Welchen Vorteil hätte matx +splitter vs. ATX mit Riser?

    • #931470
      isch
      Teilnehmer

      Dann bestelle ich die heute Abend 2xWenn ich noch eine 7750 bekommen könnte wäre das i.O.Wenn es eine 640 ist muss ich halt alle ati treiber löschen und nv treiber installieren

    • #931472
      ulv
      Teilnehmer

      isch;501359 said:
      Dann bestelle ich die heute Abend 2x

      Wenn ich noch eine 7750 bekommen könnte wäre das i.O.

      Dann kauf doch eine http://geizhals.de/823961 auf meine kosten. Geld per PN.

      littledevil said:
      Welchen Vorteil hätte matx +splitter vs. ATX mit Riser?

      Ob die Grakas überhaupt in einem normalen PCIe x1 laufen ist doch noch gar nicht klar! Die müssen ja keine 30-50 Watt über den PCIe liefern. Du erinnerst dich das hatten wir alles schon mal. Auch ist nicht klar ob das BIOS, Board oder sonst mit eine Graka in irgend einem x1 klar kommt.
      (Hier sind die Nvidia zumindest unter Linux besser, weil man da keinen laufenden X-Server bzw. Bild braucht.)
      Normalerweise muss es ein eigens mit PEG bezeichneter Slot sein.

      wikipedia said:
      Ein PCI-Express-Steckplatz kann das daran angeschlossene Gerät mit Strom versorgen. Laut Spezifikation beträgt die gelieferte Leistung für einen gewöhnlichen Steckplatz wie bei PCI maximal 25 Watt, für Low-Profile-Karten höchstens 10 Watt und bei einem PEG-(PCIe-x16)-Steckplatz maximal 75 Watt.

      Für ein ATX Board voll mit z.B. acht Grakas musst du die Machbarkeit erst noch zeigen.
      Die Splitter Lösung läuft bei Peter ja schon, weil dann die Grakas alle vom Splitter mit Strom versorgt werden.
      Und ja, es gibt diese billig Riser, die leider auch so gelötet sind. Die könnte man alle einzeln auf externen Strom umfrickeln – das auch nur zur Erinnerung.

    • #931479
      Jabba
      Teilnehmer

      Die PCIe Verlängerungen gibt es uch mit separater Stromversorgung.Ob x1 oder x16 macht für die Performance kaum einen Unterschied.Es hängt primär davon ab, wieviel die Graka mit der CPU kommuniziert. Bei Bitcoin reicht ja bspw. eine serielle Verbindung, um die Recheneinheiten zu versorgen. Da gehen nur ein paar Steuerdaten und die Ergebnise drüber.Bei den BOINC Projekten sollte für die meisten GPU Projekte ebenfalls eine x1 Verbindung reichen. -> testen!Als Indikator für ein testwürdiges Projekt würde ich mich anhand der CPU-Last orientieren. Wenn dort eine hohe CPU Last auftritt, kann das ein Hinweis sein, daß es zwischen den beiden richtig abgeht. Sollte es aber abwechselnd zu hoher CPU und GPU Last kommen, dann muß wohl die CPU erst wieder ein paar Daten bereitstellen, bevor die GPU wieder tätig wird.Sollte man beim Testen also beides im Auge behalten.Ich hoffe, daß ich nächste Woche ein paar Tests beisteuern kann, die das Funktionieren des Splitters mit ein paar kleinen 640ern und 7750ern beweisen.GrußJabba

    • #931474
      littledevil
      Teilnehmer

      Meien GTX 550 + 5830 liefen zumindest problemlos über x1, aber das kann auch zufall sein. Ums testen kommen wir natürlich nicht herum.

      25W sind doch für die kleinen Karten ausreichend, oder?
      Riser oder Board mit entsprechender Zusatzversorgung soltle ees aber schon sein.
      Dachte das mit dem Umlöten ist für Euch Lötprofis kein Ding 😉
      Wenn man sich in den ganzen Bitcoin-Foren umschaut, scheint das mit dem Riser ja zu klappen…

    • #931484
      isch
      Teilnehmer

      Auf welchem Board soll ich jetzt testen mit welchem Takt CPU/RAM?Grakas lasse ich erst mal so laufen.Dann Bestelle ich nachher diese Riser und @ ulv soll es die Graka sein?Die SingleSlot gibt es doch schon viel günstiger.Ich habe z.B. diese hierTante Edit:wenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?

    • #931485
      phil68
      Teilnehmer

      wenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?

      Hi isch, klar testen schadet nicht 😉 Interessant ist ja auch, wie der Unterschied zwischen:

      • PCIe 2.0 x 16 vs. PCIe 3.0 x 16
      • PCIe 3.0 x 16 + PCIe 2.0 x 4 vs. PCIe 3.0 x 8 + PCIe 3.0 x 8

      usw. ausfällt!

      Grüße Dirk

    • #931483
      phil68
      Teilnehmer

      Hier geht es aber ab 😯

      Du könntest auch das Gigabyte GA-Z77MX-D3H nehmen?

      Sorry, zu spät, hatte dann auch gleich bestellt. Das Paket liegt heut schon beim netten Nachbarn zur Abholung bereit. Wenn ich es schaff, kann ich morgen schon ein paar Tests(PCIe 2.0/3.0/x4/x1 danach diverse Projekte) fahren.

      Test-Hardware:

      • 1 x Xeon 1230 v2
      • 2 x GT640
      • 1 x HD 7750
      • 1 x ASRock Z77 Pro 4M

      (x1 Riser vorhanden/altes Asus H61 auch noch vorhanden)

      Mich würd nun interessieren, wie sehr sich der Speichertakt der 640er auswirkt, bzw, was da “drin” ist. Aufschlussreich wäre ja z.B. wenn die nie voll Ausgelastet ist bei manchen WUs.

      Das kommt auf das Projekt an. Generell würde ich da aber zum schnelleren Ram greifen! Gerade z.B. Poem scheint von der Anbindung zu profitieren.
      Die 7750 scheint es auch in verschiedenen Ausführungen zu geben.

      Ob x1 oder x16 macht für die Performance kaum einen Unterschied.

      Das dachte ich auch immer… scheint aber auch abhängig vom Projekt zu sein. Mal sehen was bei unseren Testläufen raus kommt.

      Grüße Dirk

    • #931489
      littledevil
      Teilnehmer

      Da wäre ein BOINC-Basteltreffen ideal. Wenn jeder seine 7750 + GT640 mit bringt, hätten wir schon den test-PC zusammen 🙂

    • #931496
      ulv
      Teilnehmer

      isch;501373 said:
      @ ulv soll es die Graka sein?Die SingleSlot gibt es doch schon viel günstiger.Ich habe z.B. diese hier

      Ich hab die Graka ausgesucht, weil die den schnelleren Speicher und weniger Stromverbrauch (laut Datenblatt) hat. Meinem Gefühl nach sind die Spannungswandler auf den kleineren Karten auch die besseren. Du kannst dir aber auch eine andere aussuchen, aber bitte nicht nur nach dem Preis.Kennst mich ja, für ein Watt weniger gehe ich einen weiten Weg. Die Low-Profile Karte kann man ja auch zusammen mit dem Delock-Riser relativ einfach noch festschrauben, mit den normalen wird das vermutlich schwieriger.

      isch;501373 said:
      Tante Edit:wenn Phil alles da hat brauch ich ja doch nicht testen oder soll ich trotzdem?

      Könnt ihr zwei evtl. mal telefonieren?Das Testen ist ja doch aufwendig. Evtl. könnt ihr euch das geschickt aufteilen:Phil68 mit allen GT640 gegen isch mit allen 7750. 😀

    • #931497
      ThaRippa
      Verwalter

      Hat schon jemand eine GT640 mit DDR5 aufgetrieben? Der DDR3 soll die ja ohne Ende ausbremsen.

    • #931501
      isch
      Teilnehmer

      Bei POEM bringt schneller Graka RAM nichts.@ ulv dann werde ich deine nehmen so sehen wir gleich ob die sparsamer sind.

    • #931505
      konfetti
      Teilnehmer

      http://geizhals.de/839721Die hat die selben Werte, aber noch die Info “ZeroCore Power (3W)” – was auch immer diese 3W dann sind – leider volle Bauhöhe.. – und nochmal schnelleren RAM, auch wenn der ja nix bringt 😉

    • #931510
      Jabba
      Teilnehmer

      Bei vielen Projekten bringt schnellerer RAM tatsächlich nichts, außer Wärme. Bspw. konnte ich bei Bitcoin den RAM auf 187 MHz takten.Im Gegenteil, RAMtakt runter, GPU Takt hoch. Es ist idR sogar ein höherer GPU Takt möglich als mit StandardRAMtakt, da weniger Abwärme von den RAMs kommt.

    • #931513
      isch
      Teilnehmer

      zero core sollte eigentlich jede 7xxx karte haben.was uns aber auch nichts bringt da unsere ja schufften sollen und nicht faul rum liegen:)Tante Edit:siehe letzten PostHabe mal eine Einstein@Home ATi WU laufen lassen.3808s Prime Grid PPS (Sieve) ati 9,612.s

    • #931569
      isch
      Teilnehmer

      Leider bekomme ich keine WUs mehr.Nach 10Std und 10min hatte ich 415.382C errechnet.macht in 24Std 980.573C

    • #931514
      isch
      Teilnehmer

      sieh aktuellen Post weiter unten.

    • #931692
      isch
      Teilnehmer

      ulv;501591 said:
      Sehr übersichtlich, Danke isch! :d:So richtig aussagekräftig wird es wohl erst mit wenigstens 2 Grafikkarten. Die teilen sich ja schließlich den RAM und dann sollte man das deutlicher merken. (Ich nehme an das war jetzt immer nur eine 7750, oder?)

      Ja immer nur eine Graka

      littledevil;501594 said:
      Sehr schön isch. Der takt schein ja wichtiger als die Latenz zu sein. Wie hoch könntest Du bei CL11 Takten?

      Habe ich nicht getestet bekomme doch den 2400MHz RAM dann sehen wir weiter.Und Formula ist auch wieder Online und wir sind sogar auf Platz 28 und nicht 38

    • #931691
      Lukas
      Teilnehmer

      schön isch,Wie viele Gk wollen wir jetzt pro Rack nehmen ?

    • #931693
      phil68
      Teilnehmer

      Sauber isch :d:

      Ich hatte ein paar Probleme mit meinem Setting… Wenn man beim Asrock die PCIe auf Standard stellt, wird der mit x16 2.0 gefahren 😡 Hab jetzt das neueste Bios drauf und Gen3 gewählt. Jetzt hab ich auch PCIe 3.0 x16. Allerdings scheint das bei POEM kaum einen Unterschied zu machen.

      app.Info Einstellung 6 WUs CPU 0.33 GPU 0.125

      Hatte ich auch mal probiert, danach sind die Credits total in den Keller gegangen! Ein Wert unter 0,5 CPU scheint nicht sinnvoll.

      Ich schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:

      • Xeon@3,5GHz
      • Ram@1333 9-9-9-24-1T
      • app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16

      Ich werd dann als nächstes mal @ x1 testen.

      Bei den Intel Specs noch folgendes gefunden:

      • XEON PCI Express Configurations: 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4
      • I7 3770k PCI Express Configurations : 1×16, 2×8, 1×8 & 2×4

      Das kann doch nicht sein :-k Das würde ja heißen, dass beim i7 nur 3 Karten möglich sind. Hier der Link: http://ark.intel.com/products/65523/Intel-Core-i7-3770K-Processor-8M-Cache-up-to-3_90-GHz

      Grüße Dirk

    • #931690
      littledevil
      Teilnehmer

      Sehr schön isch. Der takt schein ja wichtiger als die Latenz zu sein. Wie hoch könntest Du bei CL11 Takten?

    • #931687
      ulv
      Teilnehmer

      Sehr übersichtlich, Danke isch! :d:

      So richtig aussagekräftig wird es wohl erst mit wenigstens 2 Grafikkarten. Die teilen sich ja schließlich den RAM und dann sollte man das deutlicher merken. (Ich nehme an das war jetzt immer nur eine 7750, oder?)

    • #931697
      littledevil
      Teilnehmer

      phil68;501597 said:

      • XEON PCI Express Configurations: 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4
      • I7 3770k PCI Express Configurations : 1×16, 2×8, 1×8 & 2×4

      Bei 2600k sind es auch nur 16 Lanes :-kVielleicht ist da auch nur die Anbindung ohen Zusatzchips gemeint?

      The PXE switch Gives the z77 the ability to do 48 lanes but manufactures have programmed them to use 32 as in the case of z77

      Evtl. wird da der gnaze Traffic gebündelt, aber wnen alle gPUS gleichziet die Bandbreite benötigen wird es zu Engpaß

    • #931694
      isch
      Teilnehmer

      Ich schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:

      Xeon@3,5GHz
      Ram@1333 9-9-9-24-1T
      app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16

      Da hakt doch bei dir irgendwas.Zeigt den GPUZ auch PCIe 3.0 x16 an.
      Du fährst ja auch mit 100MHz mehr und gibst auch mehr CPU pro WU und der 1333 RAM sollte doch kein 150K ausmachen.Hast du Dualchannel?
      Wie sieht es den mit der CPU lasst aus?
      Wie lange läuft eine WU von den 6?
      Welche Graka hast und wie sieht es mit dem Stromverbrauch aus?

      Eben sind die beiden x1 Riser gekommen 🙂

    • #931707
      phil68
      Teilnehmer

      isch;501598 said:

      Ich schaffe hochgerechnet ca. 720k/Tag mit folgendem Setting:

      Xeon@3,5GHz
      Ram@1333 9-9-9-24-1T
      app.Info Einstellung 6 WUs CPU-0.5 GPU-0.16

      Da hakt doch bei dir irgendwas.Zeigt den GPUZ auch PCIe 3.0 x16 an.
      Du fährst ja auch mit 100MHz mehr und gibst auch mehr CPU pro WU und der 1333 RAM sollte doch kein 150K ausmachen.Hast du Dualchannel?
      Wie sieht es den mit der CPU lasst aus?
      Wie lange läuft eine WU von den 6?
      Welche Graka hast und wie sieht es mit dem Stromverbrauch aus?

      Eben sind die beiden x1 Riser gekommen 🙂

      Hi isch 🙂

      • GPUz zeigt PCIe 3.0 x16 an
      • Ram läuft im Dual Channel
      • CPU Last liegt zwischen 90% und 100% ( POEM,SIMAP und Climate Prediction auf 8 Kernen) sollte normal sein.
      • Eine WU braucht ca. 2060s
      • Graka ist eine Club 3D HD7750 GDDR5 1024MB
      • Verbrauch liegt unoptimiert bei ca. 100W

      Grüße Dirk

    • #931710
      isch
      Teilnehmer

      SIMAP und Climate PredictionDie werden das ganze aus bremsen.Lass mal ein Kern frei.

    • #931731
      phil68
      Teilnehmer

      Hat auch nix gebracht…

    • #931734
      isch
      Teilnehmer

      Und wenn du nur POEM laufen lässt?

    • #931769
      isch
      Teilnehmer

      Heute ging es dann weiter.Da die 2te Graka Heute schon kam und der RAM noch auf sich warten lässt gibs schon Tests mit 2 Grakas.Den Riser habe ich auch getestet07.01idle 28,5W-29WLoad 8x FM@H 57,5WClub 3D Radeon HD 7750, 1GB DDR3eine einzelne Wu dauert bei 0,33 CPU 1300sGPU Takt ist immer 800MHz[table “” not found /]
      08.01[table “” not found /]
      Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.*Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.**Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.***Und das ganze noch mal mit 200MHz mehr.______________________________________________________________PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
      Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.______________________________________________________________Beide Grakasidle 40W[table “” not found /]
      +Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.+117W @ 60C120W @ 74C122W @ 76C++121W @ 75C+++118,5W @ 74C++++123W @ 76C______________________________________________________________Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.ich versuche die CPU Last auf max 33% zu haltenapp.Info Einstellung 4 WUs CPU 0.5 GPU 0.25app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142

    • #931778
      VTG01
      Teilnehmer

      Tolle Testreihe! :respekt::respekt:

      Dabei fällt auf, dass bei 2 Grakas die Credits doch um einiges geringer je Karte ausfallen als mit einer Karte. Hast du mit der Club 3D Radeon HD 7750, 1GB DDR3 bereits über mehrere Tage POEM gerechnet? Was mich noch interessiert ist, hast du die 7870er auch schon einmal getestet – oder läuft die unter POEM nicht. :+

      Du schreibst

      idle 28,5W-29W
      Load 8x FM@H 57,5W

      ich denke das ist bei 3,4 Ghz ohne Graka – oder?
      kannst du dich noch an den Verbrauch unter Leiden erinnern?

    • #931786
      ulv
      Teilnehmer

      isch;501675 said:
      PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
      Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.

      Sorry, da hatte ich ja gar kein gutes Händchen. Kannst du evtl. einen anderen größeren Lüfter gegen die Karte blasen lassen?Oder möchtest du den Kühler austauschen? http://www.caseking.de/shop/catalog/Grafikkarten/VGA-Kuehler-Heatpipes/Alle-VGA-Kuehler:::10452_120_602.html

      isch;501675 said:
      Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.

      Hattest du den Riser im gleichen Slot wie vorher oder einem anderen? Die Stromversorgung sollte eigentlich durchgeschleift sein.Nur um sicher zu gehen sollten wir evtl. auch noch einen der Delock-Riser testen!

    • #931788
      phil68
      Teilnehmer

      Nach dem nochmaligen installieren der Intel Treiber(k.A. ob es daran lag) und dem Anhalten der anderen Projekte, komme ich jetzt auf ca. 900k :d:


      @isch

      Klasse Arbeit :respekt:

      Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.

      Da sollte an der Seite ein 4Pin Molex dran sein, den musst du mit Strom versorgen.

      Meine WUs(1400) reichen noch ein paar Tage.

      Grüße Dirk

    • #931791
      isch
      Teilnehmer

      @ ULV eine weitern Lüfter dagegen ist kein Problem aber wenn ich den Kühler tausche hat man ja wieder eine Dualslotkarte.

      Das mit dem x1 Riser können wir so was von vergessen.

      [table “” not found /]

      +65W @ 65C


      @phil
      wie kommst du auf 1400? bei mir hat er bei 800 gemeckert das ich genug habe und nichts mehr bekomme.

    • #931781
      isch
      Teilnehmer

      VTG01;501684 said:
      Tolle Testreihe! :respekt::respekt:Dabei fällt auf, dass bei 2 Grakas die Credits doch um einiges geringer je Karte ausfallen als mit einer Karte. Hast du mit der Club 3D Radeon HD 7750, 1GB DDR3 bereits über mehrere Tage POEM gerechnet? Was mich noch interessiert ist, hast du die 7870er auch schon einmal getestet – oder läuft die unter POEM nicht. :+Du schreibst

      idle 28,5W-29WLoad 8x FM@H 57,5W

      ich denke das ist bei 3,4 Ghz ohne Graka – oder?kannst du dich noch an den Verbrauch unter Leiden erinnern?

      Ja hat mich auch gewundert.Aber sobald der RAM etwas schneller ist steigen die C ja gleich wieder an.Komisch ist auch das die CPU Last so extrem hoch geht.Ja hatte mal in Oktober oder November schon mal getestet aber mangels wu dann wieder eingestellt.Da hatte ich über 800K nach einem Tag.Die 7870 hatte ich auch schon mal getestet die war aber nicht besonders.Vielleicht hatte ich nur noch nicht die richtigen Einstellungen gefunden.Kann die aber noch mal testen.Die Verbrauchswerte waren bei 3,4GHz und mit 7750er.Leiden teste ich gleich noch mal.Stelle den POEM Test für heute eine da die WUs bei mir langsam knapp werden und es gibt schon wieder keine neuen.

    • #931792
      ulv
      Teilnehmer

      Schön langsam dämmert es mir: Die WUs sind vermutlich zu groß für den Speicher der Grafikkarten. Und dann geht alles über den PCIe, CPU und RAM.
      Sollen wir mal eine 7750 mit 4GB wagen? Oder hat schon jemand eine?

      Hier mal die 7750er mit 4GB (DDR3)
      -> http://geizhals.de/?cat=gra16_512&xf=1440_HD+7750~132_4096#xf_top

      Oder hat jemand eine GT640 mit 4GB?
      -> http://geizhals.de/?cat=gra16_512&xf=132_4096~1439_GT+640#xf_top

    • #931794
      isch
      Teilnehmer

      Ich habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.

    • #931798
      ulv
      Teilnehmer

      isch;501700 said:
      Ich habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.

      Ist das der Verbrauch im Mainboard-RAM oder in der Graka selber.?

    • #931515
      isch
      Teilnehmer

      ulv;501704 said:

      isch;501700 said:
      Ich habe noch mal schnell getestet.Mit 7 WUs liegt der RAM Verbrauch der Graka bei 140MB.Also alles im grünen Bereich.

      Ist das der Verbrauch im Mainboard-RAM oder in der Graka selber.?

      Das ist der Graka RAM ausgelesen mit GPUZ.Der normale Arbeitsspeicher hat bei 2x8GB eine Auslastung von rund 26%

    • #931799
      Lukas
      Teilnehmer

      @isch Heißt des wir müssen jetzt wieder in Richtung MB denken die möglichst viel pcie haben und phil hat ja gesagt dass der 3770k nur 1×16, 2×8, 1×8 & 2×4 also max 3 Gk unterstützt siehe http://ark.intel.com/products/65523/Intel-Core-i7-3770K-Processor-8M-Cache-up-to-3_90-GHz

    • #931800
      isch
      Teilnehmer

      Nein Brauchen wir nicht.Alles was unter x8 ist bricht viel zu stark ein.Da selbst di Xeons nur 1×16 & 1×4, 2×8 & 1×4 or 1×8 & 3×4 haben würde das MSI GD55 reichen

      Eigentlich macht es auch keinen Sinn mehr als 2 7750 zu betreiben.Die CPU last bei 2 Karten steigt doch mer an als ich erwartet hätte.

    • #931801
      phil68
      Teilnehmer

      @phil wie kommst du auf 1400? bei mir hat er bei 800 gemeckert das ich genug habe und nichts mehr bekomme.

      Ich hab den Arbeitspuffer auf:

      • Minimaler Arbeitspuffer: 2 Tage
      • Max. zusätzlicher Arbeitspuffer: 9 Tage

      Die Batch fragt Arbeit 2 x pro Min ab 😯 Nicht gerade die feine englische… aber wenn man anders keine Arbeit bekommt!

      Eigentlich macht es auch keinen Sinn mehr als 2 7750 zu betreiben.Die CPU last bei 2 Karten steigt doch mer an als ich erwartet hätte.

      Ich frag mich auch, was denn nun die CPU so belastet! Andere Projekte sind da in Sachen GPU-WUs besser aufgestellt und laufen prima nebenher! Sobald ich Climate Prediction zusätzlich auf 4(CPU)Kernen laufen lasse, gehen die Laufzeiten der POEM WUs in den Keller… 1680s vs. 3000s (900k vs. 505k) Da macht es kaum Sinn andere Projekte nebenher laufen zu lassen. 4 Grafikkarten machen eigentlich nur Sinn, wenn man mit denen(2) andere Projekte rechnet. Leider bleibt dann nur WCG(HCC) und GPUGrid.

      Grüße Dirk

    • #931802
      isch
      Teilnehmer

      Im Taskmanager wir eine Prozess Namens NT Kernel & System mit 17-18% angegeben.Wenn ich eine Graka wieder aus baue habe ich das nicht mehr.HCC kannst leider auch vergessen baucht auch ordentlich CPU. Wie sieht es den bei GPUGrid mit der GT640 aus und was raucht die an CPU?

    • #931804
      Jabba
      Teilnehmer

      Kannst mal meine Stats bzgl. GPUGrid anschauen. Ich habe in den letzten Tagen GPUGrid auf einer GT640 mit Standardtakt und 2 x Leiden gerechnet.
      Siehst auch in den Teamstats.

    • #931806
      isch
      Teilnehmer

      Heute sind die beiden 2×4 GB 2400MHz RAM Riegel eingetroffen.07.01idle 28,5W-29WLoad 8x FM@H 57,5WClub 3D Radeon HD 7750, 1GB DDR3eine einzelne Wu dauert bei 0,33 CPU 1300sGPU Takt ist immer 800MHz[table “” not found /]
      08.01[table “” not found /]
      09.01[table “” not found /]
      Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.*Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.**Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.***Und das ganze noch mal mit 200MHz mehr.****app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142 neuer RAM______________________________________________________________PowerColor Radeon HD 7750 low profile, 1GB GDDR5idle 34W[table “” not found /]
      Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.______________________________________________________________Beide Grakasidle 40W[table “” not found /]
      09.01[table “” not found /]
      +Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.+117W @ 60C120W @ 74C122W @ 76C++121W @ 75C+++118,5W @ 74C++++123W @ 76C- 118W @ 72C app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166– 118W @ 71C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142—118,5W @ 73C app.Info Einstellung 8 WUs CPU 0.5 GPU 0.125—-121,5W @ 72C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142—– 123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142[table “” not found /]
      +65W @ 65C______________________________________________________________Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.09.01ich versuche die CPU Last auf max 33% zu haltenapp.Info Einstellung 4 WUs CPU 0.5 GPU 0.25app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142

    • #931811
      littledevil
      Teilnehmer

      Wahnsinns Testparcour :respekt:

      isch;501719 said:
      Dann habe ich das mal mit dem x1 Riser versucht leider wird die Karte nicht erkannt.Das liegt wohl an der fehlenden Stromversorgung.

      Kannst Du mal versuchen die vom Takt auf min zu flashen?

    • #931814
      isch
      Teilnehmer

      Ne flashen tu ich nichts.

    • #931818
      FanStar
      Teilnehmer

      Bei Interesse könnte ich zum Testen noch eine HD7750 mit 1GB DDR5 beisteuern.Ist die OC-Version.Link

    • #931815
      littledevil
      Teilnehmer

      Hast Du zum gegenteste eine Karte, die unter Vollast serh wenig benötig ? z.B. 15W

    • #931817
      isch
      Teilnehmer

      Könnte die GT640 morgen mal versuchen.Soll ich sonst noch was testen?

    • #931820
      isch
      Teilnehmer

      Ist nett gemeint :d: aber eine Dualslot bekomme ich nicht mehr aufs Mobo.

      Ich habe vorhin noch eine SingleSlot mit 4GB bestellt :x:D

    • #931821
      FanStar
      Teilnehmer

      Im Zweifelsfall einfach nochmal melden, würde sie zur Verfügung stellen.

    • #931829
      isch
      Teilnehmer

      ich denke das ist bei 3,4 Ghz ohne Graka – oder?kannst du dich noch an den Verbrauch unter Leiden erinnern?

      Hier erst mal mein SysCPU: 3770K 3,4GHz @ 0.864VRAM: 2x8GB Crucial Ballistix Tactica 1900 9-9-9-27-1T@ 1,505V [das sind nicht die LP Riegel)MoBo: MSI Z77A-GD55 alles an Stromsparoptionen im Bios anGraka: Club 3D Radeon HD 7750 mit Arctic Cooling AcceleroNT: FSP Fortron/Source Aurum Gold 400WSSD: Crucial RealSSD C300 128GBLüfter: 4x120erund dann hier Verbrauchswerte mit der 7750idle 28.3W8x Leiden 56,6WPrime 95 75,3W

    • #931830
      phil68
      Teilnehmer

      Hier noch ein paar Tests von mir:

      [TABLE]Projekt |Graka|Anbindung|Laufzeit in Sec|Credits pro Tag|Bemerkung|CPU-Last in %|Verbrauch in W
      POEM|HD7750(6WU)| x16 3.0| 1630|930.000|Single|40|100
      POEM/POEM|HD7750(6WU)/GT640(3WU)|x16 3.0/x1 2.0|2300/4800|660.000/ 157.950|Verbund|80|131
      POEM/POEM|HD7750(6WU)/GT640(3WU)|x16 3.0/x4 2.0|2300/2690|660.000/282 .000|Verbund|80|138
      POEM/GPUGrid|HD7750(6WU)/GT640(1WU)|x16 3.0/x4 2.0|1880/19660|805.000/35.700|Verbund|53|144
      [/TABLE]

      Man sieht hier recht gut, dass andere Projekte die CPU kaum belasten. Also könnte man jeweils 1 HD7750 mit 2 oder 3 anderen Grafikkarten auf einem Board betreiben, muss aber dann die zusätzlichen Karten andere Projekte(wenig CPU Last) rechnen lassen. Berechnungen auf der CPU fallen dann leider auch weg… es sei denn man rechnet kein POEM. Welche Projekte sich dafür eignen, müsste man testen. GPUGrid scheint sich auf der GT640 nicht wirklich zu lohnen. Selbst wenn man die LongRuns auswählt, kommt man nur auf 50k pro Tag. Eine GTX 690 macht etwa 300k pro Tag, eine GTX650ti etwa 160k.

      Ich könnte aber noch einen Test mit einer zusätzlichen GT640 fahren!? (1x HD7750 + 2 x GT640)

      Grüße Dirk

    • #931833
      isch
      Teilnehmer

      Ist aber schon erstaunlich wieviel besser der Xeon geht.Auf 930K kommen ich ja noch nicht einmal wenn ich auf 4.3GHz OC und den RAM mit 1800 laufen lasse.Kannst du deinen RAM auf 1600MHz OC ?

    • #931841
      littledevil
      Teilnehmer

      Interessant, was hat/kann der Xeon besser? :-k

    • #931847
      isch
      Teilnehmer

      Xeon@3,5GHzRam@1333 9-9-9-24-1T

      Das ist die Frage.Oder liegt es am Board?

    • #931861
      isch
      Teilnehmer

      phils gegen meiner macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930Kich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909K

    • #931851
      gr3if
      Teilnehmer

      Welche beiden wollt ihr vergleichen?

    • #931868
      ulv
      Teilnehmer

      isch;501776 said:
      phils gegen meiner macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930Kich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909K

      Habt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?Die gleiche Version vom Boinc-Client, App-Version, WU-Bezeichnung?Gleiches OS 32/64Bit? Virenkiller oder ähnliches?@isch: Hast du die Onboard-Grafik in Betrieb?Es sind ja aber eh auch nur 2,3% Unterschied. Und ich denke der RAM und die CPU spielen erst wenn die Ressourcen knapp werden eine gewichtigere Rolle – also wenn 2 oder 3 Karten im System sind.Die CPUs müssten ja eigentlich sehr ähnlich sein, zumindest von L1-, L2- und L3-Cache.Habt ihr die genau gleiche Chipsatz-Version?

    • #931870
      isch
      Teilnehmer

      Habt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?

      du hast aber schon gesehen das meine CPU mit 4,3GHz lief was 32K am Tag mehr bringt und mein RAM mit 1800.Nein natürlich nicht.Seine Hat GDDR5 was aber auch nur 4K am Tag mehr macht bei sonst gleichen Einstellungen.Die gleiche Version vomBoinc-Client, 7.042x64App-Version, sollten die gleichen Einstellungen seinWU-Bezeichnung? opencl_ati_100Gleiches OS 32/64Bit? Win7 HPx64Virenkiller oder ähnliches? Avira AntivirusFree@isch: Hast du die Onboard-Grafik in Betrieb? ne habe den Monitor an die obere Graka angeshlossen

      Habt ihr die genau gleiche Chipsatz-Version?

      Z77

    • #931872
      VTG01
      Teilnehmer

      Ich schätze dass das der GPU Takt ist, der ist um etwa 12% höher (800 +12% ist etwa 900) – wobei isch auch mit 900Mhz gelaufen ist, jedoch nur mit 3,4 Ghz CPU. naja, ich denke mal dass das nicht wirklich viel Unterschied ist.Dennoch würde mich interessieren ob eine 7870 mit 1,1 Ghz dann an die 1,1 Mio Credits kommt oder auf deutlich mehr.

    • #931873
      isch
      Teilnehmer

      Ah da her die mehr Credits.Hier sieht man aber schön das 100MHz GPU Takt mehr bringt als 800CPU und 467RAM zusammen.@ VTG01 die 900 waren GrakaRAM Takt bei meinem Test.Die 7870 werde ich auch noch testen

    • #931871
      phil68
      Teilnehmer

      Boinc-Client, 7.042×64
      opencl_ati_100(POEM++ OpenCL version 1.03 windows_intelx86 (opencl_ati_100))
      Win7 HPx64
      Avira AntivirusFree

      Genau 😉 Hab allerdings gestern auf 7.0.44(Beta) umgestellt, wegen der app_config.xml. Diese soll einfacher aufgebaut sein und sich einfacher und effektiver konfigurieren lassen. Siehe hier: http://www.seti-germany.de/wiki/App_config.xml
      Leider hat das nicht wirklich funktioniert.

      Vielleicht hilft das weiter?

      ermittelte Geschwindigkeit für Gleitkommazahlen : 3400.41 Millionen Operationen/Sek
      ermittelte Geschwindigkeit für ganze Zahlen : 11843.46 Millionen Operationen/Sek

      Meine GPU läuft mit 900MHz… der einzige Unterschied, der mir jetzt einfällt. Ich werde heut abend mal auf 3,7GHz umstellen. Mal sehen was geht 🙂

      Grüße Dirk

    • #931889
      VTG01
      Teilnehmer

      @ischdu hast doch schon irgendwo die config Datei für mehrere WU’s gepostet, hast du da noch einen Link davon? oder kannst du mir die Datei senden?

    • #931897
      isch
      Teilnehmer

      Du meinst die app.info die schicke ich dir gleich.

      hier ist von Heute der Langzeit Test mit 2 Graka und 2400er RAM

      [table “” not found /]

      123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142

      Leider hatte ich einen Absturz im laufe des Tages wodurch einiges an Rechenzeit verloren ging.

    • #931961
      isch
      Teilnehmer

      Habe mal meine 7870 Durchgetestet.1.150K war das beste was ich raus geholt habe bei 1250MHZ und 7 Wus.Bei 10 Wus waren es nur noch1.030k

    • #931967
      VTG01
      Teilnehmer

      Danke für die App_Info. Leider habe ich keine WU’s bekommen um zu testen, aber morgen ist auch noch ein Tag.Aus dem Vergleich 7750er zu 7870er geht hervor dass die 7870 zwar mehr mach aber doch deutlich mehr Strom benötigt als die 7750er. Hast du vielleicht notiert was dein Gerät an Strom benötigt hat beim Test mit der 7870er?

    • #931969
      VTG01
      Teilnehmer

      Zitat:
      Zitat von isch Beitrag anzeigen
      phils gegen mein
      er macht mit dem Xeon 3,5GHz RAM 1333MHz 7750 930K
      ich mit meinem 3770K 4,3GHz MHz1800MHz 7750 909K
      Habt ihr genau die gleiche Graka, RAM, RAM-Sorte, Takt?
      Die gleiche Version vom Boinc-Client, App-Version, WU-Bezeichnung?
      Gleiches OS 32/64Bit? Virenkiller oder ähnliches?

      @isch
      : Hast du die Onboard-Grafik in Betrieb?

      Es sind ja aber eh auch nur 2,3% Unterschied. Und ich denke der RAM und die CPU spielen erst wenn die Ressourcen knapp werden eine gewichtigere Rolle – also wenn 2 oder 3 Karten im System sind.

      Die CPUs müssten ja eigentlich sehr ähnlich sein, zumindest von L1-, L2- und L3-Cache.
      Habt ihr die genau gleiche Chipsatz-Version?

      Ist es nicht so dass der Xeon als Server Prozesser speziell auf Multitasking ausgelegt ist und somit mit vielen Anfragen besser auskommen sollte?

      Was mir auffällt ist auch die Aussage dass die Rechenzeiten bei POEM deutlich in den Keller gehen wenn nebenbei noch Climate Pr. oder sonstiges laufen.

      Ich frag mich auch, was denn nun die CPU so belastet! Andere Projekte sind da in Sachen GPU-WUs besser aufgestellt und laufen prima nebenher! Sobald ich Climate Prediction zusätzlich auf 4(CPU)Kernen laufen lasse, gehen die Laufzeiten der POEM WUs in den Keller… 1680s vs. 3000s (900k vs. 505k) Da macht es kaum Sinn andere Projekte nebenher laufen zu lassen

      Aus meiner Sicht deutet das darauf hin dass sehr viel in den Speicher geschrieben / gelesen wird. Das geht so lange gut wie Cores zur Verfügung stehen. Aber sobald mal doppelt so viele WU’s als Cores laufen wird da wohl ein Flaschenhals sein. Ich hab die Erfahrung gemcht als ich eine VM mit 16 Cores auf einem i7 aufgesetzt hatte. Die Rechenzeiten waren etwa 3-4x so lange – Projekt war damals SIMAP.
      ❓ könnte man sich mit der Erklärung abfinden? ❓

    • #931968
      isch
      Teilnehmer

      Oh ganz vergessen zu schreiben.Es waren 134W.Aber irgendwas limitiert hier.Bei den 7 WUs habe ich grade mal 74% Last.Der Der Arbeitsspeicher lief mit 2400MHz CPU halt auf 3,4GHz.

    • #928956
      Jabba
      Teilnehmer

      Also die Zeiten in denen Xeons einfach die besseren Prozessoren waren sind für die von uns betrachteten Xeons vorbei.Die Low End Xeons sind normale Ivy Bridges mit aktiviertem Hyper Threading (und das noch nicht mal bei allen).Wenn Du richtig Xeon Power willst, dann brauchst Du die nativen 8-/10-Kerner. Aber die kosten richtig Geld. Von der Plattform mal ganz abgesehen.Einziger Vorteil, wenn man mal nicht auf Geld schaut, ist, daß man nur ein Monster betreuen muß, das zwischen 32 und 40 nativen Kernen zur Verfügung stellt.Für das Geld kann man sich allerdings ne Farm mit 1230ern gönnen.Deine Erfahrungen mit Simap sind plausibel. Simap rechnet ja konstant auf der CPU und nicht wie einige andere Projekte mal nen Schwung auf der GPU und dann wieder auf der CPU. Dadurch bringen mehr VMs als native Cores gar nix. Selbst Hyper Threading kann (muß aber nicht!) Dich da schon ausbremsen.GrußJabba

    • #931996
      phil68
      Teilnehmer

      Kannst du deinen RAM auf 1600MHz OC ?

      Der Kingston LP-RAM scheint ein wahres OC Wunder zu sein…

      [TABLE]Projekt|Graka|Anbindung|RAM@|Timings|VDimm|Laufzeit in Sec|Credits pro Tag
      POEM|HD7750(6WU)|x16 3.0|1333|9-9-9-25|1,35V|1630|930.000
      POEM|HD7750(6WU)|x16 3.0|1866|10-10-10-28|1,5V|1600|950.000
      [/TABLE]

      Die Low End Xeons sind normale Ivy Bridges mit aktiviertem Hyper Threading (und das noch nicht mal bei allen).

      Die Xeon’s sind eine sehr preiswerte Alternative zum “fast” gleichen i7. Wenn sowieso eine Graka verbaut wird, lohnt es sich die 8W weniger TDP mitzunehmen. Zumal man mit der internen Grafikeinheit sowieso nix reißen kann.
      Das Einzige was nervt… ich bekomme den Xeon, selbst mit Z77 Board, nicht auf den Turbo-Takt 🙁

      Grüße Dirk

    • #932004
      isch
      Teilnehmer

      Optimierst du noch alles auf möglichst wenig Stromverbrauch?Dann kann man mal sehen ob mein GD55 Sparsam ist oder nicht.

    • #932001
      Jabba
      Teilnehmer

      Kannst Du ihn denn untervolten?Mein Mobo (GA-Z77N) bietet da nix! :-(Übertakten geht nur im Bios übers Taktanheben. 3,7 waren schon drin. Hab aber noch nicht weiter getestet.

    • #932003
      phil68
      Teilnehmer

      Hi Peter 🙂

      Kannst Du ihn denn untervolten?

      Ja das geht. Im Moment läuft er mit 0,9V. Das Asrock bietet recht üppige Einstellungen an.

      Übertakten geht nur im Bios übers Taktanheben. 3,7 waren schon drin. Hab aber noch nicht weiter getestet.

      Per BCLK komm ich bis 108… also 3780MHz.

      Grüße Dirk

    • #932008
      littledevil
      Teilnehmer

      Jabba;501926 said:
      Mein Mobo (GA-Z77N) bietet da nix! 🙁

      Schade, hätte ich bei GA eigentlich erwartet, da auch mit Z77 bestückt. Kann man die Spannung gar nicht verändern oder nur OC?

    • #932010
      Jabba
      Teilnehmer

      Spannung kann beim ga nur für die Rams geändert werden. Für die CPU gibtskeinerlei spannungseinstellungen. :-(Kann dir gar nicht sagen wie mich das. ..Aktuell laeuft es mit dem 1230er, 16 GB, DVD, 500er HDD, 240er SSD und einer 7750 unter Vollast (8 x Leiden, 1 x Collatz) bei ziemlich genau 120 W. Room for improvement.

    • #932026
      littledevil
      Teilnehmer

      Hmm.. oder doch ein anderes Board? Weiß nicht, o umtausch noch geht – bin grad im Urlaub…

    • #932046
      gr3if
      Teilnehmer

      Jabba;501937 said:
      Spannung kann beim ga nur für die Rams geändert werden. Für die CPU gibtskeinerlei spannungseinstellungen. :-(Kann dir gar nicht sagen wie mich das. ..Aktuell laeuft es mit dem 1230er, 16 GB, DVD, 500er HDD, 240er SSD und einer 7750 unter Vollast (8 x Leiden, 1 x Collatz) bei ziemlich genau 120 W. Room for improvement.

      Strg+f1 kennst du aber? Vorher ist das nie sichtbar…..

    • #932068
      Jabba
      Teilnehmer

      @Greif

      hab ich noch nicht probiert… hätte ich da etwa das Handbuch lesen müssen? 😉
      Werds ausprobieren und Meldung erstatten!

    • #932079
      isch
      Teilnehmer

      Die PowerColor Radeon HD 7750, 4GB DDR3 ist jetzt auch da und ich konnte keine unterscheide zu meiner Club 3D Radeon HD 7750, 1GB DDR3 feststellen.Morgen teste ich dann mal mit 3 7750er.

    • #932084
      ulv
      Teilnehmer

      Super, dann wird es jetzt richtig spannend. 8-[

      Danke, dass du dir die Arbeit mit den Tests machst!

    • #932087
      gr3if
      Teilnehmer

      Jabba;501997 said:
      @Greifhab ich noch nicht probiert… hätte ich da etwa das Handbuch lesen müssen? ;-)Werds ausprobieren und Meldung erstatten!

      HM scheint bei dem Brett tatsächlich nicht zu gehen:http://www.hardwareluxx.de/community/f12/gigabyte-ga-z77n-wifi-ga-h77n-wifi-919904.htmlDas ist mal wieder super@Gb^^

    • #932110
      isch
      Teilnehmer

      Heute sind die beiden 2×4 GB 2400MHz RAM Riegel eingetroffen.

      07.01

      idle 28,5W-29W
      Load 8x FM@H 57,5W

      Club 3D Radeon HD 7750, 1GB DDR3

      eine einzelne Wu dauert bei 0,33 CPU 1300s

      GPU Takt ist immer 800MHz
      [table “” not found /]

      08.01

      [table “” not found /]

      09.01

      [table “” not found /]

      Es hat mich jetzt doch mal mit dem Stromverbrauch interessiert und ich habe die Vcore mal auf 0,856V gesenkt.WHA Fehler werden schon mal nicht produziert was ein sehr gutes Zeichen ist.Eventuell geht da noch ein bisschen.

      *Die Laufzeiten haben sich mit der Zeit verringert.Viele waren bei 1980 oder sogar noch tiefer.Es gab auch ein paar negative Ausreißer die dann 1991s hatten.
      **Da die PowerColor 10s pro WU schneller ist habe ich bei meiner den GDDR5 RAM mal um 100MHz übertaktet.
      ***Und das ganze noch mal mit 200MHz mehr.
      ****app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142 neuer RAM

      ich versuche die CPU Last auf max 33% zu halten
      app.Info Einstellung 4 WUs CPU 0.5 GPU 0.25
      app.Info Einstellung 5 WUs CPU 0.4 GPU 0.2
      app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166
      app.Info Einstellung 7 WUs CPU 0.285 GPU 0.142
      ______________________________________________________________

      PowerColor Radeon HD 7750 low profile, 1GB GDDR5

      idle 34W

      [table “” not found /]

      Ich vermute der Höhere Verbrauch kommt vom GDDR5 Speicher.Ich muss den Lüfter manuell auf 100% (Terror Pur was ich nicht lange aushalte) stellen damit die Temps nicht so hoch gehen.Hatte teilweise 106C und einen verbrauch von 97W.
      Diese Karte scheint mir für unser Projekt völlig ungeeignet zu sein.
      ______________________________________________________________

      2 Grakas

      idle 40W

      [table “” not found /]

      09.01

      [table “” not found /]

      +Leider gestaltet sich hier die Verbrauchsmessung etwas schwierig.Da ich den Lüfter nicht mehr auf 100% regeln kann dreht der jetzt je nach Temp hoch und runter was den verbrauch stark beeinflusst.

      +117W @ 60C
      120W @ 74C
      122W @ 76C

      ++121W @ 75C

      +++118,5W @ 74C

      ++++123W @ 76C

      – 118W @ 72C app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166
      — 118W @ 71C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142
      —118,5W @ 73C app.Info Einstellung 8 WUs CPU 0.5 GPU 0.125
      —-121,5W @ 72C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142
      —– 123W @ 73C app.Info Einstellung 7 WUs CPU 0.5 GPU 0.142

      [table “” not found /]

      +65W @ 65C

      ______________________________________________________________

      15.01

      3 Grakas

      [table “” not found /]

      app.Info Einstellung 6 WUs CPU 0.33 GPU 0.166

      http://www.abload.de/thumb/po0tk1d.jpg
      ___________________________________________________________________

    • #932124
      Obi Wan
      Verwalter

      ich seh schon, ihr seit die “Meister der Tabellen”

    • #932128
      isch
      Teilnehmer

      Ich hatte mit deutlich mehr gehofft.Ist ja sogar weniger als mit 2 Karten.Morgen teste ich noch mal mit 2 Karten und 900MHz GPU Takt.

    • #932127
      Jabba
      Teilnehmer

      Der Output ist heftig!Super Aufstellung!

    • #932130
      Jabba
      Teilnehmer

      Das stimmt. Dennoch: mit Low-End Karten solch ein Ergebnis und das noch in Relation zum Stromverbrauch ist aller Ehren wert.

    • #932173
      isch
      Teilnehmer

      Die ersten 24 Stunden meines Langzeittest mit 2Grakas und 900MHz sind rum.Leider hatte ich 3 abstürze und weiß daher nicht wie viele Credits verloren gegangen sind.[table “” not found /]
      app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166

    • #932248
      isch
      Teilnehmer

      Gibt er einen Splitter der von PCIe 3.0×16 auf 2x PCIe 3.0 x8 geht?

    • #932260
      littledevil
      Teilnehmer

      Die könnten etwas sein, aber k.a. wo man die kaufen kann:ARC2-PEL-2X16ARC1-PELY423-C7designed for Supermicro proprietary motherboard such as H8DGG-QF with chipset that supports bifurcation.Gibt es ein Tool mit dem man den PCIe traffic loggen kann, also nur die Auslastung?Wenn Geld keine Rolle spielt:NA255A External PCIe Gen3 to GPU Desktop EnclosureShopDas alte Modell zur Preisabschätzung

    • #932263
      isch
      Teilnehmer

      Ne das ist ein bisschen zu teuer 🙂

    • #932270
      isch
      Teilnehmer

      Die ersten 24 Stunden meines Langzeittest mit 2Grakas und 900MHz sind rum.Leider hatte ich 3 abstürze und weiß daher nicht wie viele Credits verloren gegangen sind.[table “” not found /]
      app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166Ich Stoppe dann hier und fange eine neue Testreihe mit anderen Einstellungen an.

    • #932340
      Burntime
      Teilnehmer

      Spricht was gegen CAD-Karten?

    • #932343
      Christoph!
      Verwalter

      Burntime;502298 said:
      Spricht was gegen CAD-Karten?

      Vermutlich die Kosten?

    • #932350
      ThaRippa
      Verwalter

      Vor allem haben CAD-Karten kein anderes Silizium drin. Die GPGPU-Berechnungen werden von den speziellen Treibern auch nicht schneller.

    • #932368
      Deadsystem
      Teilnehmer

      wäre eine Erweiterung des EMK2-Rechners mit je einer Graka pro Board nicht sinnvoll?

    • #932372
      littledevil
      Teilnehmer

      So eine Überlegung hatte wir mal, aber zum einen liegt der EMK2 dann so lange brach und im Gehäuse ist kein Platz mehr.

    • #932377
      Jabba
      Teilnehmer

      @Deadsystem
      Wie LD schon richtig erwähnt hat, paßt da nix mehr rein – vllt. eine Low Profile PCIe…. grübel grübel

      Ansonsten dürfte sich der Stromverbrauch auch noch einmal deutlich erhöhen. Was mich gleich zur Frage der Stromspende führt 🙂
      Ein zusätzliches Netzteil wäre evtl. ebenfalls nötig (sollte genau durchgerechnt werden).

      Gruß

      Jabba

    • #932383
      Deadsystem
      Teilnehmer

      dachte da erst an 90° Riserkarten, aber vermutlich ist der Platz nicht vorhanden. zweite Möglichkeit: die Grafikkarten außerhalb in einem extra Gehäuse mit den Mainboards verbinden. Gibt es ca. 1m lange Pci-e Riser-Kabel?dritte Möglichkeit: Vorhandenes Gehäuse vergrößern oder anderes Gehäuse.vierte Möglichkeit: EMK2 splitten und sowas wie 2x Revision 1.0 mit Grafikkarten bestückenwäre schade die nicht bestückten PCI-e Slots nicht auszunutzen.

    • #932385
      Jabba
      Teilnehmer

      @Deadsystem
      PCIe Verlängerungen gibts: ca. 17cm, habe auch schon gut 30cm zum Laufen gebracht.
      Ins Gehäuse paßt schlichtweg nix mehr.
      Eine Erweiterung haben wir bereits ausgiebig diskutiert und verschiedene Lösungen erörtert.

      Befriedigend ist ein Umbau / Aufrüstung zum GPU Cruncher nicht, da doch erheblicher Aufwand betrieben werden muß.
      Einen EMK3 aufzubauen erscheint da leichter. Man sollte allerdings nicht die Betriebskosten außen vor lassen. Die sind erheblich.

      @LD
      Meine FPGAs kommen wohl irgendwann im April 😉 und leisten ca. 0,3 THash/s.

      Gruß

      Jabba

    • #932384
      littledevil
      Teilnehmer

      Sofern es entsprechende FPGAs bzw. ASICs geben sollte, die entsprechend kompakt sind, könnte man da upgraden, aber zurück zum Thema GPU cruncher…

    • #932408
      isch
      Teilnehmer

      Es hat mich wieder in den fingern gejuckt und ich habe noch mal eine Graka zum testen bestellt :+

      XFX Radeon HD 7770 GHz Edition 1000M Double Dissipation Edition

      Es ist die geworden wegen den 2 Lüftern weil gleich leiser und Kühler.

      Leider war das ein großer Irrtum.Wenn die beiden richtig los legen drehen die mit 4140 rpm und das Ding wird trotzdem noch bis zu 78C heiß 😡

      Hier mal ein paar Ergebnisse.

      [table “” not found /]

      Wie man am GPU Load MHZ Verhältnis sieht scheint da irgendwas zu limitieren.Ich tippe mal auf die CPU.
      Was mich aber an allermeisten wundert ist der hoher Strom verbrauch.2 7750 verbrauchen weniger und meine 7870 hat bei 7 WUs @ 1250MHz auch nur 134W gezogen.Dabei kamen 1.150K pro Tag raus was ein c/w von 8582 macht.

      Habe ich mit der XFX einfach nur Pech gehabt oder sind die 7770 doch so viel schlechter als die 7750 http://www.lustige-smilies.de/data/media/13/keine-ahnung-smilie.gif

      Fazit.

      Mehr Stream-Prozessoren/Textureinheiten bringen nichts.Die Takt grenze liegt irgendwo bei 900MHz-1000MHz bei einem CPU Takt von 3,4GHz.Leider geht bei den 7750 nicht mehr wie 900MHz.

      Ich teste jetzt mal die CPU mit 3,6GHz.Wenn die Stabil läuft kommen noch mal die 2 7750er dran und eventuell auch noch mal die 7770.

    • #932410
      isch
      Teilnehmer

      Da ja eigentlich nur 2 Grakas Sinn machen können wir auch auf Dualslot setzen.Ich weiß nicht wie das bei Asus mit dem Stromverbrauch aussieht.Bei den Mobos brauchen die ja mehr als die anderen.Auf 900MHz ist sie auch schon OC was auch nichts schadet 🙂

      Hatte da vielleicht an sowas gedacht und dann von hinten mit einem 120er/140er belüften.

      spart man einen Lüfter und die 120er/140er sind wahrscheinlich auch noch sparsamer.

    • #932409
      littledevil
      Teilnehmer

      Hmm.. wie schauts denn mit der ASUS HD7750-T-1GD5

    • #932425
      Obi Wan
      Verwalter

      :respekt: Kompliment, ISCH für deine Testreihen :d:

    • #932422
      littledevil
      Teilnehmer

      schöner Passivkühler. Der paßt gut zur Belüftung nach draußen :d:

    • #932430
      VTG01
      Teilnehmer

      @ ischMit der Taktfrequenz der Graka kann ich dir Recht geben und das Ergebnis bestätigen. Ich habe kurzzeitig POEM auf dem x4 gerechnet. Es ist nahezu egal ob die 7870 Graka mit 800Mhz oder mit 1200 Mhz läuft, lediglich der Stromverbrauch sinkt. Auch ist es mir nicht gelungen die CPU-Last oder die GPU-LAst über 90% zu bringen. Die 7870 rechnet überhaupt nur bis 79% (ok bei Collatz und Treiber 12.4 geht sie auf 100%, ist übrigens die Catalyst Version mit der Collatz noch geht). Nimmt man noch andere projekte hinzu so sinkt die POEM Leistung am 4-Kerner deutlich ab. Gelaufen ist der X4 mit nur 3,2 Ghz, die 3,6 Ghz habe ich nicht stabil bekommen. Liegt vielleicht aber daran dass ich vorher eine 5770 drinnen hatte …Hast du schon die neuen Treiber getestet? hatte heute Morgen eine Info dass 13.x (Nummer habe ich verdrängt) herausgekommen ist.

    • #932432
      isch
      Teilnehmer

      Ne ich teste noch mit den 12 Beta 11.Will da keine falschen Ergebnisse hervor rufen mit den neuen Treibern.

    • #932472
      littledevil
      Teilnehmer

      Das mit dem ersten Slot ist sehr interessant.
      Bei 2x x8 sollte ja die CPU Anbindung nicht limitieren :-k

    • #932470
      isch
      Teilnehmer

      [table “” not found /]
      app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166GPU Takt 900MHzDann ist mir eins extrem aufgefallen und zwar die Graka im oberen Slot Profitiert deutlich mehr vom höheren CPU Takt als die im unteren Slot.Nach ca 15Std hatte die schon 2 Durchläufe mehr als die andere und bis Heute morgen waren es mehr als 3.Im oberen Slot braucht die Graka ca 1875s pro WU und die im unteren 2020s pro WU.

    • #932498
      isch
      Teilnehmer

      [table “” not found /]
      app.Info Einstellung 6 WUs CPU 0.5 GPU 0.166GPU Takt 900MHzich Stoppe hier mal und teste mit anderen Einstellungen weiter.

    • #932503
      Renovatio
      Teilnehmer

      Erstaunlich wie viele Tabellen hier schon stehen. 😮 Das nenne ich mal eine Testreihe was am effizientesten ist. Kompliment. :mk rult:

    • #932693
      littledevil
      Teilnehmer

      Any News?

    • #932723
      isch
      Teilnehmer

      Ich teste jetzt wie viel Credits verloren gehen wenn auf der CPU noch andere Projekte laufen.

    • #932775
      isch
      Teilnehmer

      Leider ist die WU Versorgung nicht besonders so das er Heute im laufe des Tages leer gelaufen ist.Also kann ich erst in ein bis zwei Tagen sagen wie viel er schafft wenn die CPU voll belastet wird.

    • #932777
      VTG01
      Teilnehmer

      Irgendwie stellt sich die Frage wenn ein POEM-Cruncer mit 6 oder 8 Boarsd, sprich 12 oder 16 Grakas im Betrieb ist der auch immer wieder leer läuft?

    • #932783
      isch
      Teilnehmer

      Das Problem liegt wohl an der Server von POEM.Der neue ist wohl schon bestellt und sollte eigentlich schon laufen aber da gibt es wohl Verzögerungen.Arbeit an sich ist wohl genug vorhanden und es wird wohl auch noch neue dazu kommen.

    • #932784
      Mad-Max
      Moderator

      VTG01;502764 said:
      Irgendwie stellt sich die Frage wenn ein POEM-Cruncer mit 6 oder 8 Boarsd, sprich 12 oder 16 Grakas im Betrieb ist der auch immer wieder leer läuft?

      Dafür wärs ja dann gut, wenn er sich dann mit was anderem beschäftigen könnte…

    • #932840
      VTG01
      Teilnehmer

      Arbeit an sich ist wohl genug vorhanden und es wird wohl auch noch neue dazu kommen.

      Das kann ich mir gut vorstellen. Speziell im medizinischen Bereich sind die Grenzen sehr weit weg. Kann mir durchaus vorstellen dass das Projekt viel Jahre läuft. Es kommt drauf an wie schnell die Ergebnisse der WU’s verarbeitet werden können.

    • #932865
      orw.Anonymous
      Teilnehmer

      http://jmof.org/logopdayday.jpg

      While a yourself has to put in a lot of application and cool one’s heels a eat one’s heart out anon a punctually to take home systematic loans, payday loans during self employed are very peacefully to obtain. A certain does not have to metamorphose cash advance america $yn7514* cash advance loans they basis undue ill fortune on those that are struggling financially already. Payday lenders chance that there fees are not in sight of cortege when all in all there high operating costs and large fail rates. They associate their fees to overdue penalties from
      of choices. One plausible street to sort wrong the good from the bad is before checking a payday loans review website. Sometimes again I egg on you that if your planning to extract this itinerary to find the best apportion in favour of your needs. Knock off the slightest loan you need and extend your account only take every month and notification longing be send to you as in good time as it gets debited. So at the moment you play a joke on got an stunning figuring out of a payday accommodation whenever there’s any emergency tied up to economic stuff. Payday betterment provides you a
      http://www.comparegoldfarmers.com/forum/viewtopic.php?f=35&t=114998&p=475647#p475647
      http://www.forums-autosital.com/index.php?/topic/81776-payday-loans-in-tempe-arizona/
      http://heavenlytower.com/community/index.php?topic=327571.new#new
      http://www.forums-autosital.com/index.php?showtopic=81784

    • #932872
      orw.Anonymous
      Teilnehmer

      http://jmof.org/logopdayday.jpg

      these loans. Effectiveness be the importance rate a hint higher but solely research enkindle will reveal this argument actually conveniently and avail you affordable administer on realizable cash advance loans online ~ws2369# Cash Advance On Assuming that the borrower has fulfilled every criteria stated away the credit provider, the no hamper payday loan would be approved in no time. The borrower commitment bargain the accommodation proceeds credited speedily to his bank account not later than the next working epoch or
      need loot urgently? As we recall nowadays, loot is much more portentous to convene our diurnal needs. At times it’s uncommonly difficult to fulfill our requirements. If you are hard up you are growing to borrow these loans, you obligation grasp the hard-hearted the score of these loans and it is in its piece rate. These loans are offered at extraordinary rating of avail
      http://blog.wallstreetitalia.com/eforo/2012/01/09/2012-recessione-o-depressione/#comment-14
      http://www.sierrasanvicente.com/foro/index.php?topic=262.new#new
      http://www.hostmaniaweb.com/blog/viewtopic.php?f=6&t=1102&p=76676#p76676
      http://savethesoapgenre.org/wp-content/plugins/zingiri-forum/mybb/showthread.php?tid=1719&pid=21594#pid21594

    • #932875
      orw.Anonymous
      Teilnehmer

      Gelöscht da Werbung und nichts zum Thema ❗

      LG phil68

    • #932886
      isch
      Teilnehmer

      Der POEM Server ist mal wieder leer gesaugt und ich habe nichts mehr zu tun.Hier ist mal ein Ergebnis der letzten Tag http://www.abload.de/img/poz8jcp.jpgEs wurde aber nicht 24 Stunden am Tag durch gerechnet mangels ausreichender WUs.Ich würde sagen es sind so 850K drin wenn die CPU noch andere Sachen nebenbei rechnet.Die Graka lief mit 900/900 und der Arbeitsspeicher mit 1800 CL 9-9-9-27.Man hat also ca 100K Verlust wenn die CPU voll beschäftigt ist.Wenn es wieder WUs gibt versuche ich mal eine Woche am Stück zu rechnen danach lasse ich mal ein Kern frei und schaue dann noch mal was bei rum kommt.

    • #933028
      Deadsystem
      Teilnehmer

      habe seit einigen tagen eine HD 5750 am laufen. schafft maximal 240.000 credits am tag. es laufen 3 tasks gleichzeitig mit 0,666 cpu auslastung. mit den aktuellen wu’s ist eine anwendung nach ca 54min fertig.meine frage ist jetzt: wie ist die große differenz zu erklären, denn auf dem papier sind die karten recht ähnlich. welches feature ist für den großen unterschied verantwortlich?

    • #933034
      gr3if
      Teilnehmer

      Der Ram, da gibt es ddr2-gddr5 Ram und so

    • #933045
      Deadsystem
      Teilnehmer

      was meinst du genau damit? sind die gddr5 chips verkappte ddr2? im datenblatt wird die speicherbandbreite bei beiden karten ziemlich ähnlich angegeben… http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7770-und-hd-7750/

    • #933054
      Deadsystem
      Teilnehmer

      jo, keine verbesserung. kann sein, dass die neueren grakas besser mit mehr WU’s umgehen können. ist aber auch nur ein relativ geringer unterschied feststellbar, wenn ich mir deine testreihen angucke. ist zwar nicht wenig aber nicht so deutlich 😉

    • #933050
      isch
      Teilnehmer

      POEM interessiert der Graka RAM nicht wirklich.Der große unterschied kommt daher das die 7750 Karten PCIe 3.0 haben und eine neue Architektur.Der neue Treiber bringt auch noch mal ordentlich Schwung mit.Welche CPU mit wievielt GHz hast du und wie sieht es mit dem Arbeitsspeicher aus?

    • #933052
      isch
      Teilnehmer

      Hast schon mal mit mehr WUs probiert?

    • #933051
      Deadsystem
      Teilnehmer

      es läuft ein 3770k mit 4,4GHz und 16gb ram @ 1600 9-10-9-24 1t. dachte erst an die erhöhte anzahl der transistoren (+~30%)

    • #933062
      VTG01
      Teilnehmer

      Naja, ich denke mal dass es einfach an der Architektur der Graka liegt und wie die Befehle verarbeitet werden. Die Schnittstelle PCIe 3.0 bringt da weitere deutliche Vorteile bei dem Abgleich der Daten zwischen CPU und GPU.

      Ich hatte eine kleine Testreihe mit einem X4 955 der mit 3,4 Ghz lief und einer 7870er die mit 1,2 Ghz lief. Ich konnte in keiner Kombination CPU oder Graka auslasten, bei etwa 75-78% war bei der Graka Schluß, bei der CPU bei etwa 85-88%. Erst das Absenken des GPU Taktes auf etwa 800Mhz brachte eine höhere Auslastung der GPU. Die Creditausbeute sank jedoch nur mäßig, kaum merkbar. Stromtechnisch war es jedoch deutlich zu sehen.

      Anders ist es bei Collatz. Hier leistet eine moderat gefahrene 5850 mehr als eine hoch gezogene 7870. Unterschied könnte daher kommen dass Collatz bereits seit ein paar Jahren läuft und anders Programmiert ist als POEM. Die neuesten Treiber von Catalyst bewirken ausschließlich Berechnungsfehler bei Collatz. Bei mir funktioniert Treiberversion 12.4.

      Somit rechnet die 58xx Serie Collatz, die 78xx POEM (naja, eigentlich rennt auf dem Rechner Leiden). Ist aber weiter nicht schimm ….

    • #933480
      isch
      Teilnehmer

      So mal wieder ein kleines update von mir.http://www.abload.de/thumb/15ire0.jpgDa die WU Versorgung in letzter Zeit etwas holprig war läuft es jetzt seit ein paar Tagen stabil.

    • #933479
      isch
      Teilnehmer

      So mal wieder ein kleines update von mir.Da die WU Versorgung in letzter Zeit etwas holprig war läuft es jetzt seit ein paar Tagen stabil.

    • #933683
      Deadsystem
      Teilnehmer

      @isch hast du eine Lösung gefunden wie man zwei AMD Grafikkarten mit Poem betreiben kann?hab da ein Posting von dir im boinc.fzk.de forum gelesen. ist schon paar Monate her.

    • #933685
      isch
      Teilnehmer

      Die beiden AMD Karten laufen ohne Probleme zusammen.Im Poem Forum waren es zwei verschiedene NV Karten.

    • #933686
      VTG01
      Teilnehmer

      Mal ein kurzer Zwischenstand von mir:
      Mein Q9400 ist nun seit 1 Woche mit einer 7750er und einer 5850 ausgestattet. Mit der 5850 wurde Collatz fertig gerechnet. Komischerweise ging alles glatt bi sdie Collatz WU’s weg waren. Da ich kein POEm bekommen habe habe ich mir eine Ladung Collatz geholt – und siehe da, nur mehr Berechnungsfehler … Na egal, Soll ja POEm rechnen. Tags darauf kamen einige POEM WU’s daher und los ging es.

      im Verhältnis 1:1 Graka/CPU ist die 5850 doch einiges schneller als die 7750, obwohl sie am 1. PCIe Slot hängt. Differenz ca. 55 Minuten zu 75 Minuten. ich habe dann die ini Datei ein wenig geändert, auf 0,75:0,50. Sprich es laufen 4 WU’s parallel auf 3 Kernen. Leider ging da kaum mehr etwas – offensichtlich ist das Board, ein P5B Deluxe doch schon ein wenig in die Jahre gekommen :shock:. Auch der Hauptspeicher mit 2 GB DDR2 ist ein wenig überholt. Zur Zeit rennt das Gerät wieder im Verhältnis 1:1, 1 Task Clamate rennt nebenher, Leiden ist nach dem Einstieg von 2 Potenten Usern wieder leer gesaugt.

      Ich komme mit den 2 Karten zur Zeit auf NUR 170.000 Credits je TAG !! :(:(:(

      Das nächste ist ist, dass ich das Gerät leider aus der Ferne nicht durchstarten kann – der bleibt immer im irgendwo drinnen hängen ….:fresse:

      Da wir über Nacht mehr als 25cm Schnee bekommen habe ist es mir leider nicht möglich zu meinem POEM Rechner zu gelangen – wird somit noch eine Woche so weitertümpeln 🙁

    • #933697
      Deadsystem
      Teilnehmer

      isch;503725 said:
      Die beiden AMD Karten laufen ohne Probleme zusammen.

      Im Poem Forum waren es zwei verschiedene NV Karten.

      könnte es sein, dass ältere Karten wie die HD 5750 Probleme damit haben? musstest du was an der app_info ändern?

    • #933709
      isch
      Teilnehmer

      @ VTG01 da klemmt aber was ganz gewaltig.Welchen Treiber hast du drauf?Mit welcher PCIe Geschwindigkeit laufen die Karten?CPU und RAM sind ja auch nicht die schnellsten.Hast mal nur mit der 7750 getestet?

    • #933733
      VTG01
      Teilnehmer

      Es sind die 12.11Beta Treiber drauf. Sobald ich wieder am Damm bin werde ich die 5850 ausbauen und dann nur mit der 7750 rechnen lassen. Nur die 7750er habe ich noch nicht laufen gehabt.

    • #934031
      Obi Wan
      Verwalter

      ich habe den Überblick verloren.Was ist den jetzt der Status oder das Fazit der Aktion ?

    • #934084
      VTG01
      Teilnehmer

      Gemischt, am alten Asus P5B Deluxe und dem Q9400 rennt die 7750er auf 65% bei 4 Wu’s auf 2 Cores. Output sind nun irgendwo um die 200.000 je Tag – falls ich mal wieder WU’s bekommen sollte.

      Testen will ich noch 6 WU’s auf 3 Cores, ich denke aber dass der Speicherausbau mit 2 GB deutlich zu klein ist.

      Das Verhältnis Watt/Credits ist jedoch deutlich besser als bei Collatz. Da bringt die 5850er etwa 165.000 Credits je Tag mit deutlich mehr Stromhunger.

    • #934086
      VTG01
      Teilnehmer

      1 WU bringt knapp 3.000 Credist. bei 9.000-11.000 Credits schaffen die 2 Grakas am Tag 4 WU’s, Rechenzeit sind somit 12 Stunden je WU?die 7750er braucht 1.08 Stunden (68 Minuten). Ich denke mal dass da einiges nicht passt.

    • #934087
      Neo111430
      Teilnehmer

      Sry mein fehler es gibt da ein problem was ich schon länger hab von 12 POEM++ OpenCL version v1.05 (opencl_nvidia_100) WU`s ist nur ein OK rest hat “Fehler beim Berechnen”

    • #934085
      Neo111430
      Teilnehmer

      VTG01;504173 said:
      Gemischt, am alten Asus P5B Deluxe und dem Q9400 rennt die 7750er auf 65% bei 4 Wu’s auf 2 Cores. Output sind nun irgendwo um die 200.000 je Tag – falls ich mal wieder WU’s bekommen sollte.

      Testen will ich noch 6 WU’s auf 3 Cores, ich denke aber dass der Speicherausbau mit 2 GB deutlich zu klein ist.

      Das Verhältnis Watt/Credits ist jedoch deutlich besser als bei Collatz. Da bringt die 5850er etwa 165.000 Credits je Tag mit deutlich mehr Stromhunger.

      :(Mann wie kommst du auf 200.000 pro tag.Mein recher schaft mit i7 und 2 x 470GTX auf 100% nur 9000 -11000 .

      “Collatz und POEM”

    • #934339
      Christoph!
      Verwalter

      Obi Wan;504120 said:
      ich habe den Überblick verloren.Was ist den jetzt der Status oder das Fazit der Aktion ?

      Was nu???Edit: ich möcht doch so gerne was sehn!! Vllt sollte man den Thread mal oben im Forum den Link wieder rausnehmen 😉

    • #935547
      dodo
      Teilnehmer

      Hey,Euer Super Boinc Rechner Thread hatte mich echt fasziniert.Auch hier hab ich mir alles durchgelesen.Teilweise habt ihr sehr intressante tests bzw. erkenntnisse dabei, die generell sehr nützich sind.Auch wenn ich mich mit Boinc und dergleichen bisher wenig auskenne wollte ich hier doch mal etwas einwerfen.Wahrscheinlich hat es der ein oder andere schon gesehen:http://www.computerbase.de/news/2013-04/asus-bringt-pcie-lane-reiche-workstation-platine-p9x79-e-ws/7x pci-e in voller länge…PEG?!?!3x 8fach elektrisch4x 16fach elektrischIs auch schon etwas älter die news aber ich wollte es mal hier erwähnen.Soweit ich es mitbekommen habe, liegt das probleme mehrere Grafikkarten parallel mit daten zu versorgen, an einer potente CPU.Da kann der Sockel 2011 ja auch net viel mehr bieten ausser einem hohen Preis.Allerdings steht beim Schwestermodel, das in dem Artikel auch verlinkt ist, dass dieses mit Xeons mit 8 kernen und 16 threads klar kommt.http://www.computerbase.de/news/2011-12/asus-desktop-workstation-mainboard-p9x79-ws-vorgestellt/Wobei ihr für die CPU wohl nen guten Sponsor bräuchtet^^.Die fangen anscheinend bei knapp 1000€ ein.Dürfte wohl schwer zu finanzieren sein.Ich wollte es aber mal erwähnt haben.

    • #935989
      x20011
      Teilnehmer

      Hier mal ein kleines Bildchen als Anregung 😉http://abload.de/img/903255_49368883068515jli20.jpg

    • #935991
      Darkness
      Teilnehmer

      @x20011 Ein Link dazu wäre schön:d:

    • #935996
      x20011
      Teilnehmer

      Darkness;506183 said:
      @x20011 Ein Link dazu wäre schön:d:

      Link habe ich keinen mehr… 🙁 Aber bei dem Bild handelt es sich um einen Teil des Computer Clusters der SNU National University in Seoul, South Korea.

      http://www.top500.org/system/177987

    • #936002
      Darkness
      Teilnehmer

      Schade, aber die Infos hören sich ganz interessant an.

      dodo;505714 said:
      Hey,
      Auch wenn ich mich mit Boinc und dergleichen bisher wenig auskenne wollte ich hier doch mal etwas einwerfen.
      Wahrscheinlich hat es der ein oder andere schon gesehen:
      http://www.computerbase.de/news/2013-04/asus-bringt-pcie-lane-reiche-workstation-platine-p9x79-e-ws/
      7x pci-e in voller länge…PEG?!?!
      3x 8fach elektrisch
      4x 16fach elektrisch

      Sieht doch garnicht so schlecht aus:-k
      Letztlich wird wahrscheinlich der Preis entscheiden, denn theoretisch könnte man auch ASUS Z9PE-D8 WS+ 2* Intel Xeon E5-2603 oder höher (z.b. E5-2609 oder E5-2620) verwenden.
      4x PCI-e x16 und 3x PCI-e x8, dazu 2*2011 Sockel, 8x DDR3 😡

      dodo;505714 said:
      Wobei ihr für die CPU wohl nen guten Sponsor bräuchtet^^.
      Die fangen anscheinend bei knapp 1000€ ein.
      Dürfte wohl schwer zu finanzieren sein.
      Ich wollte es aber mal erwähnt haben.

      Da hast du natürlich recht, denn Intel lässt sich seine High-End CPU´s vergolden (vorallem da keine große Konkurrenz durch AMD), deswegen mein Vorschlag: Lieber zwei kleinere CPU´s für 400-600€ anstatt einer Highend CPU für 900€ aufwärts. Braucht zwar mehr Strom, spart aber einiges an Kosten

    • #936007
      VTG01
      Teilnehmer

      Naja, ich halte das Ding am Bild für nicht erstrebenswert. Die 4 Netzteile werden einiges an Strom saugen und die Abwärme kann ein Einfamilienhaus im Winter heizen – zumindest im Süden ….Im Sommer wird der nicht lange rennen dann gehen die Lichter wegen Überhitzung im Raum aus. Bei 2,5-3,0kW Stomaufnahme für das Teil brauchst du noch mal ne Kühlung mit zumindest 2,0 KW Stromaufnahme. Kommst du dann auf sagen wir mal 5kW Strombedarf je Stunde. Sind 120kW je Tag oder 840 kWh je Woche. Das will ich mir gar nicht mehr leisten.

    • #936009
      Dazzle
      Teilnehmer

      Es muss nicht grundsätzlich das Fetteste das am besten geeignete sein.Mehrere GT640’s sind im Vergleich zum Verbrauch effizienter wie eine 680 und kommen mit PCI-E 1x aus:d:Außerdem ist es günstiger, bestes Beispiel ist der EMK2, der hat auch keine teuren Xeons und rennt wie Sau

    • #936011
      dodo
      Teilnehmer

      Wo sind eigentlich die Radis?Unten drunter?Wahrscheinlich bestückt mit ordentlichen lüftern mit 3000upm…und selbst damit dürften die karten sehr warm werden

      Darkness;506195 said:
      Sieht doch garnicht so schlecht aus:-kLetztlich wird wahrscheinlich der Preis entscheiden, denn theoretisch könnte man auch ASUS Z9PE-D8 WS+ 2* Intel Xeon E5-2603 oder höher (z.b. E5-2609 oder E5-2620) verwenden.4x PCI-e x16 und 3x PCI-e x8, dazu 2*2011 Sockel, 8x DDR3 :xDa hast du natürlich recht, denn Intel lässt sich seine High-End CPU´s vergolden (vorallem da keine große Konkurrenz durch AMD), deswegen mein Vorschlag: Lieber zwei kleinere CPU´s für 400-600€ anstatt einer Highend CPU für 900€ aufwärts. Braucht zwar mehr Strom, spart aber einiges an Kosten

      Die Rechnung kann man nachvolziehen.Dürfte lange dauern bis man ne differenz von etwa 600€ beim strom wieder drin hat…obwohl…würde er nicht annähernd 24/7 laufen wie der Emk2??Dann müsste man das wirklich genau nachrechnen.Wie is das eigentlich mit HT? Bringt das für eure Unterfangen viel?Mal davon abgesehen das HT beim Sockel 2011 sehr teuer is

    • #936036
      x20011
      Teilnehmer

      Da das Rack aus einem Rechenzentrum kommt würde ich mal behaupten, das dort keine Radis verbaut sind. Die kiste wird an ein zentrales Kühlsystem angeschlossen sein….

    • #936019
      Darkness
      Teilnehmer

      x20011;506216 said:
      Die kiste wird an ein zentrales Kühlsystem angeschlossen sein….

      Heizung wird wohl eher zutreffen…

      Dazzle;506202 said:
      Es muss nicht grundsätzlich das Fetteste das am besten geeignete sein.
      Mehrere GT640’s sind im Vergleich zum Verbrauch effizienter wie eine 680 und kommen mit PCI-E 1x aus:d:
      Außerdem ist es günstiger, bestes Beispiel ist der EMK2, der hat auch keine teuren Xeons und rennt wie Sau

      Ich habe eher an die HD 7750 gedacht, welche bereits ab rund 75€ zu haben sind. Aber beim Board sollten wir schon auf Qualität achten, da 16 Karten ordentlich Strom über den PCI-E slot saugen und außerdem 24/7 Betrieb anvisiert wird

    • #936025
      Deadsystem
      Teilnehmer

      VTG01;506200 said:
      Naja, ich halte das Ding am Bild für nicht erstrebenswert. Die 4 Netzteile werden einiges an Strom saugen und die Abwärme kann ein Einfamilienhaus im Winter heizen – zumindest im Süden ….
      Im Sommer wird der nicht lange rennen dann gehen die Lichter wegen Überhitzung im Raum aus. Bei 2,5-3,0kW Stomaufnahme für das Teil brauchst du noch mal ne Kühlung mit zumindest 2,0 KW Stromaufnahme.

      um die wärme wenigstens einigermaßen auszunutzen, würde ich die warmwassererzeugung von so einem teil übernehmen lassen. ich glaub in der schweiz wird ein schwimmbecken von einem großrechner beheizt.

      alternativ dazu, einfach nach draußen verlagern. entweder den radi oder den ganzen computer.

    • #936026
      Dazzle
      Teilnehmer

      Das tut man bereits. Der SuperMUC heizt z.B. das Leibniz Rechenzentrum in Garching bei München über ein Wasserkühlsystem:d:

    • #936033
      Deadsystem
      Teilnehmer

      jo, bei so großen anlagen ist das wohl mittlerweile standard. ich mein, wenn man sich zuhause ein 2kw rechner hinstellt, wäre es wegen der wärmeentwicklung sinnvoll, die abwärme in den warmwasserkreislauf einzubinden. spielt auch in finanzieller hinsicht eine nicht unerhebliche rolle.

    • #936046
      VTG01
      Teilnehmer

      … das mit dem Warmwasser lasst mal bleiben. Warmwasser liegt bei zumindest 40°C zum Duschen und geht auf 60°C für den Abwasch. Keiner der Rechner hätte Freude an einer Kühlwassertemperatur von mehr als 30°C – oder irre ich mich da?

      Und Duschen mit 25 °C finde ich persönlich zwar erfrischend im Sommer aber auf Dauer ist das ein bisserl wenig.

      bei 2 kW x24 Stunden sind das 48kWh. Da kannst du schon eine Menge an Wohnungen mit Wasser versorgen. Ich denke nicht dass du mehr als 5 KWh – 7kWh für deinen WW-Boiler an einem Tag zu Hause benötigst.

    • #936048
      Darkness
      Teilnehmer

      VTG01;506243 said:
      … das mit dem Warmwasser lasst mal bleiben. Warmwasser liegt bei zumindest 40°C zum Duschen und geht auf 60°C für den Abwasch. Keiner der Rechner hätte Freude an einer Kühlwassertemperatur von mehr als 30°C – oder irre ich mich da?

      Es gibt doch irgendeinen Deutschen Superrechner, bei dem die CPU´s mit bis zu 60 Grad “kaltem” Wasser gekühlt werden.

      Außerdem gibt es da sicherlich spezielle Wärmepumpen etc, welche die Energie von niedrigen Temps auf höhere “transformieren”.
      (Prinzip der Wärmepumpenheizung siehe Wikipedia)

    • #936054
      Horstelin
      Teilnehmer

      Hehe, ein Energie-Optimierer 🙂 Das muss man ehrlich gesagt genau durchrechnen. Da kann so einiges schief gehen. Entweder ist die Wärmepumpe verhältnismäßig zu teuer oder der Wirkungsgrad/Leistungsfähigkeit zu schlecht um die Wakü auf 30° zu halten.

    • #936055
      littledevil
      Teilnehmer

      Wärmepumpe kann man machen, wenn man damit ein gröeßres Mehrfamilienhaus versorgen möchte. Für ne reine GPU-Kühlung geht das aber auch mit so heißem wasser. CPU ist schon Grenzwertig, aber wenn man von ganz unten im Speicher mit 35° in den die CPU geht und dann in die GPUs, kommt hinten dann schon mal 60° raus, wenn man die Pumpe entsprechend langsam laufen läßt.

      Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:

    • #936057
      Deadsystem
      Teilnehmer

      littledevil;506252 said:
      Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:

      die frage hab ich mir auch schon gestellt. theoretisch ließe sich ein temperatursensor im wasser plazieren, der ab einer gewissen temperatur umschaltet auf luftkühlung. zwei wasserkreisläufe, eine pumpe geht aus, lüfter von einem radi gehen an.
      muss man gucken wie groß der warmwasserspeicher ist und falls nötig vergrößern. waschmaschine, spülmaschine, wasserhähne. im winter ggf sogar die heizkörper. da wird schon genug wärme benötigt.

    • #936062
      Darkness
      Teilnehmer

      littledevil;506252 said:
      Wärmepumpe kann man machen, wenn man damit ein gröeßres Mehrfamilienhaus versorgen möchte.

      War jetzt eig. eher im Bezug auf Rechenzentrum gemeint, aber man könnte es hier natürlich auch machen, ist aber sicher nicht rentabel.

      littledevil;506252 said:
      Die Frage ist nur, was man macht, wenn der Speicher voll ist bzwl unten schon 60°C hat … :devil:

      Da gibt es doch schon eine Lösung. Machen so gut wie alle Biogasanlagen (da Fernwärmeleitungen eher unrentabel sind) und Wasserkühler. Mit Radiator+ Lüfter die Umgebung heizen.

    • #936064
      isch
      Teilnehmer

      Fernwärmeleitungen unrentabel ???Die eine BGA heizt bei uns in der nähe ein ganzes Dorf,die zweite ein Krankenhaus und die dritte eine Fabrik.

    • #936067
      Darkness
      Teilnehmer

      isch;506261 said:
      Fernwärmeleitungen unrentabel ???

      Ist dann aber eine größere BGA oder? Für kleinere Anlagen die weit entfernt vom nächsten Dorf sind Fernwärmeleitungen meistens unretabel.
      Bei uns in der Nähe ist eine ähnliche Anlage (Anstatt Bigas wurde Holz verwendet) Pleite gegangen. Was ich nur komisch finde ist, dass die Biogasanlage die direkt auf der anderen Straßenseite liegt nicht als Ersatz an die Fernwärmeleitung angeschlossen wurde. Deswegen wird die Fernwärmeleitung jetzt mit Erdgas befeuert 😡

    • #936068
      isch
      Teilnehmer

      Keine Ahnung ob die groß oder klein sind.

    • #937071
      x20011
      Teilnehmer

      Hier mal wieder ein kleines Bildchen wie es aussehen könnte 😉http://abload.de/img/485425_36422120367755c3u6t.jpg

    • #937072
      dodo
      Teilnehmer

      und die können so noch gekühlt werden?Ganz abgesehen von der Laustärke kommt jeder Lüfter irgendwann an sein Limit^^

    • #937074
      Neo111430
      Teilnehmer

      @dodo

      und die können so noch gekühlt werden?

      Sicher nicht oder laufen die nicht auf volleistung.:roll: Sehe leider bei meinem bruder ,schon bei Battlefield,oder Crysis ist temp.über 80°C gewesen troz 6 lüfter in Case.

      Erst damit http://www.mindfactory.de/product_info.php/info/p740301_Alpenfoehn-Peter-Universal-High-End-VGA-Cooler.html

      gehts.Glaub nicht das mit dem abstand da noch was zu kühlen ist.

    • #937076
      konfetti
      Teilnehmer

      Wenn die Kühler von den Kühlrippen her entsprechend angeordnet sind, warum auch nicht – natürlich ist das zum einen eine Frage der Lautstärke, zum anderen dann auch der Auslastung.das sind ja immerhin Dualslot-Karten 😉

    • #937095
      Darkness
      Teilnehmer

      Neo111430;507337 said:
      Glaub nicht das mit dem abstand da noch was zu kühlen ist.

      So wie ich das sehe, sind das Radiallüfter und sollte somit eig. gehen, solange genügend Frischluft im Gehäuse vorhanden ist und die Lüfter hochgeregelt werden. Leise wird es allerdings nicht!

    • #937101
      Dazzle
      Teilnehmer

      Die sind mit an Sicherheit grenzender Warscheinlichkeit runter getaktet und undervoltet. Eine 580 läuft bei guter Luftversorgung schon als single gegen 100°C.
      Zumal ich denke, dass es nicht sehr Energie effizient sein dürfte.
      Viele kleine rechnen genau so schnell mit weniger Strom. Zudem sind sie in der Anschaffung günstiger.
      In den größten Supercomputern der Welt werden auch keine 5Ghz CPUs verbaut, sonder hunderttausende kleine mit 2Ghz oder so
      Daher die 16 geplanten Karten;)

    • #937479
      med
      Teilnehmer

      Moin,
      steht das eigentlich fest das die HD7750 bei Boinc am effektivsten ist? Wenn ich die angegebenen GFLOPS mit den angegebenen Max. Watts vergleiche, komme ich auf folgende Tabelle:

      http://www.mädge.com/forum/FlopsProWatts.png

      Ergo HD7970 GHz FTW 🙂

      P.S.
      Eine HD7950 und zwei GTX 580 könnte ich zum testen laufen lassen.

      P.P.S.
      Und dann noch die Frage ob im Boinc Stats die angegeben:

      – ermittelte Fließkommageschwindigkeit
      – ermittelte Ganzzahlgeschwindigkeit

      etwas aussagen. Denn bei Einstein@Home hat mein i5 3570K mit HD7950 3669.38 Millionen bzw. 12376.66 Millionen. Wärend Speedy sein i7 980 (6 Kerne) mit 3x GTX 560Ti auf 2998.82 Millionen bzw. 9345.34 Millionen kommt. Was vom Verbrauch ja def. für eine große Graka sprechen würde !?

    • #937500
      x20011
      Teilnehmer

      *hust*http://abload.de/img/cracking16characterst26rir.jpg

    • #937505
      med
      Teilnehmer

      =D>Geiles Teil 🙂 Was ist denn da Nettes drin?Btw.Steht das fest das die HD7750 bestes Watt/Punkte Verhältns hat?http://www.xn--mdge-loa.com/forum/FlopsProWatts.png

    • #937506
      med
      Teilnehmer

      Geiles Teil! Was steckt denn da drin?

      Btw.
      Steht es fest das die HD7750 bestes Watt/Punkte Verhältnis hat?

      HD7750: 14,89 GFLOPS/Watt
      HD7970 GHz: 17,2 GFLOPS/Watt

      Außerdem würde man 5,25 Stück von den HD7750 benötigen um die GFLOPS der HD7970GHz zu erreichen. Sprich 5 mal mehr Prozessoren, Mainboards, Ram, etc. was auch nochmal alles Strom nimmt und in der Anschaffung kostet.
      Ist natürlich die Frage wie das bei BOINC skalliert.

      P.S. Warum verschwinden meien Beträge wenn ich eine Grafik mit einbinde?

    • #937507
      isch
      Teilnehmer

      Es kommt immer auf das Projekt drauf an was man rechnen möchte.Bei Poem bringt eine 7970 kaum mehr mal eine 7750.Bei anderen Projekten wich die 7979 mit der 7750 den Boden auf.

    • #937512
      Phiulipp
      Teilnehmer

      Die Radeon HD 7790 darf man aber auch nicht vergessen mit 21.059 GFLOPS/W.

    • #885935
      ThaRippa
      Verwalter

      Bis man Double Precision braucht…

    • #937534
      Phiulipp
      Teilnehmer

      Dann kann man aber auch die 7750 und GT 640 vergessen.

    • #937538
      littledevil
      Teilnehmer

      @x20011 wo hast Du das Foto her?

    • #938306
      Dazzle
      Teilnehmer

      Gegenfrage: Wer bist du 😀

    • #938305
      orw.Anonymous
      Teilnehmer

      Was ist los mit euch?

    • #938320
      orw.Anonymous
      Teilnehmer

      Was ist los mit euch?

    • #938322
      orw.Anonymous
      Teilnehmer

      Was ist los mit euch?

    • #938325
      VJoe2max
      Teilnehmer

      Trollbeiträge entfernt, verwarnt, gesperrt – erledigt! ;).

    • #938254
      Christoph!
      Verwalter

      Könnte mal bitte jemand den Troll ausm Forum entfernen?

    • #938331
      Dazzle
      Teilnehmer

      Gibt es mittlerweile eigentlich Fortschritte?
      Hab das Thema immer gerne verfolgt, da ich es sehr interessant fand, aber in letzter Zeit wurden nur Bilder irgendwelcher üppig bestückten Pc’s gepostet:roll:

    • #938347
      dodo
      Teilnehmer

      Die Bilder unterstützen ja das Vorhaben…sie zeigen das so etwas doch irgendwie möglich ist 😀

    • #938346
      isch
      Teilnehmer

      Jaein.Da POEM mit der wu Versorgung Probleme hat wir hier nicht weiter gemacht.

    • #938580
      topperharly
      Teilnehmer

      Habt ihr euch mal das Design des neuen Mac Pro angeschaut?

      http://www.apple.com/de/mac-pro/

      Vielleicht lässt sich dies ja als Idee für ein Design aufgreifen?

      Gruss Andreas

    • #938582
      littledevil
      Teilnehmer

      Ja, das ist echt abgefahren, was da bei der Baugröße ermöglicht werden soll.

    • #938692
      Mickdagger
      Teilnehmer

      Das Design ist wirklich genial geil! Könnte sogar mein erster eigener Mac werden, wegen meinem Studium und verschiedener Praktika hab ich schon auf Mac´s gearbeitet aber Zuhause tat immer ein PC sein Werk. Danke für den Link!

    • #939702
      Dazzle
      Teilnehmer

      Ich stell mir die Kiste aber recht laut vor, wenn man guckt was da alles drinn sein soll und es nur mit einem Lüfter gekühlt wird:roll:

    • #939718
      ThaRippa
      Verwalter

      Glaub ich weniger. Das ganze sollte nicht lauter werden als eine gleich schnelle Workstation. Immerhin kühlt man mit Aussenluft und zudem setzt Apple darauf dass so gut wie nie sowohl beide GPUs als auch die CPU gleichzeitig 100% ausgelastet sind. Wenn das eintritt, wird die Kiste schon hörbar werden. Das werden konkurrenzfähige Workstations aber auch.

    • #942195
      xfn99
      Teilnehmer

      Guten abend,
      Ich habe den Kompletten Thread nicht durch gelesen, aber einen großen Teil.
      Also entschuldigt bitte, wenn ich etwas wiederholen sollte.
      Wenn ich das richtig mitbekommen habe, benötigt man viele Kerne/Threads.
      Also habe ich mal etwas im Internet gesucht.
      Bei der Grafikkarte halte ich die hd7790 für sinnvoll und würde sie persönlich der GT 640 vorziehen, da sie eine bessere GFlop/Watt performance hat, fast doppelt so schnell ist (gflops single percission) und in etwa gleich teuer ist.

      Bei der Cpu, Mainboard und dem Ram habe ich folgende Ideen:
      Nr.1:
      2x http://geizhals.de/intel-xeon-e5-2620-bx80621e52620-a733975.html
      2x http://geizhals.de/supermicro-x9srl-f-retail-sockel-2011-mbd-x9srl-f-o-a848134.html
      Meine Idee war das man zwei Mainboard nimmt da man dann die Splitter weglassen kann und dadurch Geld spartn würde (auf jedes Board müssten 4×7790 um die angepeilte Performance von 16xgt 640 zu erreichen)
      Ram kann man überlegen was sinnvoll ist.

      Nr.2:
      http://geizhals.de/amd-opteron-6376-os6376xfn99
      hkwof-a862698.html (16 Kerne müsste reichen)
      http://geizhals.de/supermicro-h8sgl-f-sockel-g34-quad-pc3-10667r-reg-ecc-ddr3-a521405.html
      Hier würde man dann wahrscheinlich Splitter brauchen

      Mfg xfn99
      Ps: Hoffe das wird kein Doppelpost, irgendwie funktioniert das antworten nicht .

    • #942192
      ThaRippa
      Verwalter

      Auch mal ein Ansatz. Die 7790 ist aber glaub ich die einzige 7000er, die man nicht umflashen kann auf andere Spannungen. Und DP-Leistung fehlt halt auch. Aber: vielen Dank für den Input, hier war es ja recht ruhig geworden.

    • #942194
      xfn99
      Teilnehmer

      Das stimmt undervolting scheint nicht zu funktionieren.
      Hat jemand eine 7790? Wenn ja könnte man schauen, wie sich der vcore verhält, wenn man den Takt runtersetzt. Es könnte möglich sein, das die Vcore sich dem Takt anpasst .
      Man könnte auch hd7970 kaufen (kosten “nur” noch um 200€) und diese untertakten bzhw untervolten .
      Die 7970 haben auch eine hohe double percission Rechenleistung .
      Mfg

    • #942187
      xfn99
      Teilnehmer

      Ok, wie wäre es mit r9 290? Ich weiß nicht, wie sich die undercolten lassen aber @stock kommen sue auch in die Gegend von über 20 glfops/watt.

    • #942186
      ThaRippa
      Verwalter

      Der vCore geht nicht runter wenn man den Takt reduziert, zumindest wenn die 7770 eine Indikation ist. Und bei meiner 7770 konnte ich 0.2V mit der Spannung runter gehen und dabei noch ein wenig mehr Takt geben. Hier wird definitiv nichts verbaut, was man nicht verbrauchsoptimieren kann.

    • #942189
      ThaRippa
      Verwalter

      Leider haben wir keine Gelddruckmaschine, daher brauchen wir auch gute gflops/Geld.

    • #942191
      littledevil
      Teilnehmer

      Welche Vcore hat die 7790 bei vollem Takt? Evtl. macht ja auch OC Sinn.

    • #942201
      xfn99
      Teilnehmer

      Also mal rein rechnerisch ;)Eine r9 290 hat 5000 gflops und kostet 330€Die hd 7790 hat ca 1800 gflops und kostet 100€D.h. man braucht 2,7 7790 für eine r9 290 .Rechnerisch kosten die 2.7 7790 270€ bedeutet eine Differenz von ca 60€ und bietet deutlich bessere Double percission .Wobei man wenn man die r9 290 nehmen würde auch nur ein Mainboard Cpu etc. verwenden müsste und dadurch wieder ca 400-500€ sparen würde .Ps: den Vcore kenn ich nicht in Tests konnten sie die Karte aber um 20-25% übertakten (dann ca 1.2-1.3 GHz)

    • #942203
      xfn99
      Teilnehmer

      Die Karten lassen sich übertakten, soweit ich aber weiß sind es schlechte chips die bei der 7970 durchgefallen sind. Ich glaube auch das Manche Einheiten deaktiviert sind. Ich weiß es nicht mehr genau, ist eine Weile her das ich mich über die Karte informiert habe .Ps: die 7870 bost hat ca 1500alu s die 7970 ca 2000

    • #942202
      ThaRippa
      Verwalter

      So um die 1.2V, je nach Hersteller und Chipgüte. OC ginge sicher, aber auch das wieder nicht per BIOS und daher nicht richtig Linux-Proof. Und Effizient dürfte das nicht sein.Ich würde diese 7870 Boost Edition hier vorschlagen.Man muss aber genau aufpassen, dass es auch wirklich ein Tahiti- (wie die 79xxer) und kein Pitcairn-Modell (wie die anderen 78xxer) ist. Denn nur dann erhält man die billigste GPU mit brauchbarer DP-Leistung. Ob man da das BIOS bearbeiten kann, muss ich allerdings erst mal gucken.

    • #942205
      ThaRippa
      Verwalter

      Die 7970 mag 25% mehr Rohleistung haben, kostet aber mehr als das Doppelte ;)Und warum die sich nicht übertakten lassen sollen ist auch nicht ganz schlüssig. Selbst wenn das wirklich Selektion ist (und oft ist das nicht so weil gegen ende des Produktzyklus die Yield-Rate gut genug ist) dann müssen die funktionierenden Shaderunits ja nicht schlechter sein. Zudem wird es uns wahrscheinlich kaum um OC gehen, eher um möglichst wenig Volt für ungefähr Standardtakt (975MHz!). Klar, da spielt auch die Chipgüte eine Rolle, aber wie gesagt, ich sehe das unkritisch.Interessanter wird sein, ob man nicht “echte” 7950er teilweise zum gleichen Preis bekommt.

    • #942206
      xfn99
      Teilnehmer

      ThaRippa;512866 said:
      Die 7970 mag 25% mehr Rohleistung haben, kostet aber mehr als das Doppelte 😉

      Die hd 7970 kostet ca. 230€
      Die alu s waren ja von der 7970 nicht von der r9 290 😉

    • #942210
      xfn99
      Teilnehmer

      http://geizhals.de/xfx-radeon-hd-7970-double-dissipation-edition-fx-797a-tdfc-fx-797a-tdjc-a723345.htmlBei hardwareversand 220€ wenn ich auf den Link gehe, komme ich zur Startseite von HWV komisch…Die xfx sollen wohl recht laut sein wobei ich denke das der PC dann sowieso in einen Keller wandern dürfte.Verbessert mich, wenn ich falsch liege 😉

    • #942209
      ThaRippa
      Verwalter

      Ich kann diesen Preis bisher bei keinem Renommierten Versender finden, aber sollte man die Tahiti-XT wirklich so billig bekommen, muss die Tahiti-LE ja schon im Bereich um die 150€ liegen, um noch wirklich besser zu sein. Immerhin kosten PCIe-Slots auch Geld.

    • #942211
      isch
      Teilnehmer

      Also mal langsam.POEM hat seit ein paar Tagen kein Graka Projekt mehr.Es wird nächstes Jahr wohl was neues kommen aber da muss man dann erst mal schauen wie das läuft und was da für Karten sinnvoll sind.

    • #942217
      xfn99
      Teilnehmer

      Das ist denke ich mal gut zu wissen .
      Die Xeon s bewegen sich leistungsmäßig auf einem i7 4770k, soweit man das den Benchmarks entnehmen kann. Stellt sich nur die Frage ob so viel Cpu Leistung benötigt wird, wenn die gpu’s rechnen oder ob da etwas faul ist.

      @isch
      ich denke eher nicht das dieses Projekt bis Anfang nechsten Jahres durch ist, von daher sollte es bis dahin auch wieder wu’s geben.
      Ich habe selber leider keine sehr gute Hardware und lasse Boinc meistens auf meinem Handy laufen 😀
      Wenn es wieder Wu’s gibt könnte ich aber mal zum Test welche auf einem i7 3630qm und 2xhd7970m laufen lassen (sind ja wie 7850-7870 im Desktop)
      Mfg

    • #942220
      xfn99
      Teilnehmer

      Wobei es rechnerisch auch kein Wunder ist .
      Eine GT 640 hat glaube ich ca 700gflops die Titan glaub um die 5000gflops
      Wie sieht es bei GPUGrid mit AMD Karten aus ?:)

    • #942216
      isch
      Teilnehmer

      Bei GPUGrid ist die Versorgung sehr gut.Leider sind die großen Karten hier deutlich im verteil.Die Titan ist über 7mal so schnell wie ein 640er

    • #942215
      VTG01
      Teilnehmer

      Ja das mit POEM ist schade – wie ist eigentlich die Versorgung bei GPUGRID? Da gehen zwar keine ATI-Karten – für ein neues Gerät wäre das aber egal.@xfn99… ich habe einige 79xx laufen und die bringen gute Leistung – aber saugen auch ganz schön fest. Projekt ist zur Zeit COLLATZ – kannst dir den User Schildkroete anschauen. Bei POEM sind die 79xxer nicht auslastbar – zumindest mit einem i7 und einer 1155 Plattform. Bei COLLATZ sieht das anders aus – dennoch habe ich mit 2 Karten auch schon Probleme – irgendwas klemmt wenn die 2. Karte in OC rennt. (Habe mal bei allen Karten den Takt zurück genommen und vcore runter gesetzt – somit ist das Problem jetzt nicht mehr tragend)

    • #942218
      VTG01
      Teilnehmer

      @ischdas höhrt sich nicht gut an – da ist der Einstieg in die TOP TEN sowohl in der Anschaffung als auch im Betrieb teuer.Ist ein Paralellbetrieb – ähnlich wie Collatz – möglich oder tendiert es eher Richtung POEM?

    • #942221
      isch
      Teilnehmer

      GPUGrid ist wie Collatz brauch also so gut wie nichts an CPU.GPUGrid ist ein reiner Nvidia Projekt.

    • #942229
      xfn99
      Teilnehmer

      Auf der Webseite steht aber AMD support :
      http://www.gpugrid.net/
      Mfg

    • #942241
      isch
      Teilnehmer

      Das wäre aber das neu das die AMD/ATI unterstützen.In den Einstellungen kann man auch nur Cuda Anwendungen einstellen.

    • #942243
      xfn99
      Teilnehmer

      Komisch da steht aber dich eindeutig AMD und Nvidia …
      In ihrem Forum habe ich gelesen das manche auch amd’s mit der Nvidia optimierten Software laufen lassen .

    • #942246
      isch
      Teilnehmer

      Ne da läuft nichts auf ATI Karten.Der Thread ist von 22 Dec 2011.

    • #942245
      xfn99
      Teilnehmer

      http://www.gpugrid.net/forum_thread.php?id=2778Kann aber auch sein das ich mich da vertan habe ;)Am besten mal selber durchlesen .

    • #942244
      isch
      Teilnehmer

      cuda Anwendungen auf einer ATI das geht doch gar nicht.Hast mal einen Link dazu?

    • #942254
      isch
      Teilnehmer

      Ich habe mich jetzt noch mal ein bisschen in den Forum umgesehen und auch Tests gelesen.Bei GPUGrid ist die 660TI Preis Leistungssieger.Leider laufen die langsam aus und die Preise sind da durch etwas gestiegen.Performance/Watt ist die 780TI am besten.Die brauch max 276W und ist über doppelt so schnell wie die 660TI ( max 153W).Ein 640 ist mit max 37W angegeben.Die 780Ti dürfte fast 8x so schnell sein wie die 640.der reine verbrauch der 8 640 würde ganz leicht über der TI liegen aber man braucht ja dann 2 Bords,CPU,RAM,SSD was den verbrauch wieder nach oben treibt.Das beste Team hat gestern 14,265,375 Credits gemacht eine 780TI hat 570.000CWie man sieht würde man da irgendwo im nirgendwo versinken.

    • #942257
      xfn99
      Teilnehmer

      Wobei ich denke, das eine 780ti dann also wirklich nicht in Frage kommen würde (oder doch ? Eine 780ti(600€) -> 8x gt640(570€)Die Frage ist auch ob man nicht eher anpeilen sollte, in die Top 5 von Einzelnen Nutzern zu kommen. Auf Platz 3 ist jemand mit 4x gtx690 was mir durchaus möglich erscheint (von der Leistung her).

    • #942258
      isch
      Teilnehmer

      Wieso nicht?Eine 780TI kostet 30€ mehr was man durch den etwas geringeren Stromverbrauch pro Jahr locker wieder rein holt.Dann brauch mal bei 8 640er noch ein zweites Mobo,CPU,RAM,SSD was noch mal deutlich mehr Kosten verursacht und den verbrauch in die höher treibt.

    • #942267
      xfn99
      Teilnehmer

      Das stimmt natürlich.
      Warum eigentlich keine AMD Karten und dann eben Projekte, die AMD’s unterstützen ? Die Rechenleistung einer gtx 780ti gibt es bei AMD für 350€ .
      Wenn es nvidia sein muss wären normale 780 seitens des p/l besser.

    • #942270
      xfn99
      Teilnehmer

      Das die Projekte sinnvoll sein sollen, ist klar.Gibt es nicht auch von World Comunity grid gpu Projekte ?

    • #942269
      isch
      Teilnehmer

      Weil wir sinnvolle Projekte rechnen wollen und nicht nach irgendwelchen Primzahlen oder Sternen suchen wollen.Und da gibt es halt nur GPUGRID = nur Nvidia KartenPOEM = ATI und NV Karten aber zur Zeit gibt es kein GPU Projekt.

    • #942273
      isch
      Teilnehmer

      nö schon lange nicht mehr.

    • #942279
      xfn99
      Teilnehmer

      Dann bleibt ja eigentlich nur Nvidia übrig.
      Oder man macht zwei Ausbaustufen .
      Die erste mit Nvidias und die Zweite mit AMD, wenn es wieder was von poem gibt.
      Wie viel soll das Teil denn eigentlich kosten ?(falls es da schon grobe Vorstellungen gibt)

    • #942278
      Dazzle
      Teilnehmer

      Eher die 780 als die 640er. Denn bei den 640ern müsste man dann 2 boards, 2 CPUs und 2xRam dazu kaufen, was preislich, sowie verbrauchsmäßig dann nicht mehr so der burner wäreEdit: zu spät, tapatalk hat nicht alle posts geladen

    • #942283
      xfn99
      Teilnehmer

      Was heißt leider zu viel?
      Wenn ein ähnluches Budget wie beim emk2 vorhanden wahre ließe sich durchaus was machen denke ich.

    • #942282
      isch
      Teilnehmer

      Leider zu viel und der Strom muss ja auch bezahlt werden.

    • #942295
      isch
      Teilnehmer

      Anschaffung der neuen (gebrauchter) Hardware + Stromkosten für den EMK² und den neuen dann auch noch das wird dann sehr viel für die paar Leute die daran beteiligt sind oder noch wohlen.

    • #942298
      Jabba
      Teilnehmer

      Beim EMK2 gabs kein geplantes Budget – das hat sich im Laufe der Zeit so entwickelt.Das war auch gut so. Wenn man das vorher gewußt hätte, wären vermutlich einige abgesprungen oder man hätte mit Kompromissen geplant.Schlimmer noch: wenn man gewußt hätte wieviel Aufwand am Ende erforderlich war…Egal: wir sind alle Stolz auf den EMK2 und das entschädigt für Vieles.

    • #942299
      ThaRippa
      Verwalter

      Diesmal kann und werde ich mich beteiligen. Aber eine 500€-Karte wird mir auch zu fett werden.

    • #942300
      Jabba
      Teilnehmer

      Prima! Das freut mich / uns.Jetzt fehlt nur noch die generelle Richtung ;-)Wie soll der EMK3 denn tatsächlich mal aussehen?

    • #942303
      xfn99
      Teilnehmer

      Ich denke gtx 780er sind am sinnvollsten.
      Die Frage ist ob später auch Poem gerechnet werden soll(wegen der Cpu)

      Unterstützen kann ich das ganze außer bei der Planung nicht wirklich, da ich noch zur Schule gehe …

    • #942304
      ThaRippa
      Verwalter

      Kompakt. Und ich glaube ein Board mit drei, vier dicken Karten ist irgendwie zu einfach. Es müssten schon sechs sein, sonst kann das ja jeder Sechzehnjährige mit Papas Kreditkarte nachbauen. Großartig mischen kann man die Karten ja leider nicht, weil die Optimierung sonst futsch geht. Aber vielleicht bietet es sich ja an zur Hälfte AMD-GPUs einzusetzen? Für diese Frage müssen wir das nächste Jahr abwarten. Aber ich würde mir wünschen:-1 Gehäuse, möglichst kompakt und Serienoptik (wie beim EMK2)-1 Board, 1 Netzteil-1, zur Not 2 Intel-CPUs (Ich bin AMD-ler, aber wir werden CPU-Power brauchen um die Karten zu füttern, alles was über bleibt kann ja auch CPU-Projekte rechnen und AMD frisst mehr Strom)- wenigstens überlegen sollten wir die Wasserkühlung. Hier wird sie zumindest möglich und die Karten mit Luft dicht an dicht werden sich gegenseitig rösten. Wasser wird teurer, schon wegen der Fullcover und dem 1080er Radiator, aber kompakter und flexibler. Hier könnte man aber auch erst mal halb mit Grakas bestücken und Luftkühlung lassen, und dann im zweiten Schritt (wenn klar ist dass alles funktioniert, Netzteil und CPU reichen) auf Vollausbau mit WaKü hochgehen. Realistisch Ende nächsten Jahres. Wahrscheinlich dann mit den Nachfolgern der 780.

    • #942306
      Christoph!
      Verwalter

      Also das mit der potentiellen Wasserkühlung seh ich nicht so kritisch. GPUonly wäre locker möglich, wenn man trotzdem laute Quirle drüber pusten lässt und Lautstärke sollte ja nicht das Problem sein.

    • #942308
      Jabba
      Teilnehmer

      Sag das nicht!Bei Dir steht der ja nicht. Ich hatte den EMK2 etliche Monate neben meinem Schreibtisch stehen…

    • #942309
      ThaRippa
      Verwalter

      Gnihihihi! Christoph hat sich grad als Stellplatzspender gemeldet.

    • #942310
      Jabba
      Teilnehmer

      :-)und die Stromkosten wollte er auch übernehmen?

    • #942313
      isch
      Teilnehmer

      Im Moment ist ja nur GPUGRID interessant da das POEM Projekt ja abgeschlossen ist.Es wird aber wohl nächstes Jahr was neues geben wobei man die genauen Hardware Anforderungen noch er testen müsste.

      Wie oben schon geschrieben macht bei GPUGRId nur eine dicke NV Karten von der Performance/Watt Sinn.

      Hier ist mal aus dem GPUGRID Forum eine kleine Leistungsliste der aktuellen Karten

      1xx% GTX 780ti max 260W
      100% GTX Titan max 250W
      90% GTX 780 max 252W
      77% GTX 770 max 210W
      74% GTX 680 max 170W
      59% GTX 670 max 140W
      58% GTX 690 max 277W
      55% GTX 660Ti max 124W
      53% GTX 760 max 170W
      51% GTX 660
      43% GTX 650TiBoost
      33% GTX 650Ti

      Das gute bei GPUGRID ist das es so gut wie keine CPU braucht.Des weiteren ist die PCIe Geschwindigkeit auch ziemlich egal.

      Mann sollte aber trotzdem ein große CPU nehmen für CPU Projekte.

      Ich würde eine 780TI bei steuern und noch ein bisschen Kleinkram.

    • #942316
      ThaRippa
      Verwalter

      Ich auch.

    • #942320