Die Berkeley Open Infrastructure for Network Computing (BONIC) ist eine Software-Plattform für verteiltes Rechnen.Die BOINC-Plattform wird an der Universität Berkeley entwickelt und ermöglicht es, vielen tausend Computern über das Internet oder Intranet verfügbar zu machen. Dies geschieht in Form von Projekten, die meist gemeinnützig arbeiten und von Universitäten oder anderen Institutionen betreut werden.
Optimierung für BOINC
- Dieses Thema hat 16 Antworten und 4 Teilnehmer, und wurde zuletzt aktualisiert vor 15 Jahren, 2 Monaten von Jabba.
-
AutorBeiträge
-
-
6. Februar 2009 um 17:02 Uhr #492011phil68Teilnehmer
Hallo BOINC`ler,Im Zuge des doch recht hohen Verbrauchs meines Game-Systems beim Crunchen und der Tatsache, dass ich im Moment noch keine Zeit finde mich mit dem Aufbau eines reinen Crunch-Systems zu befassen, habe ich mich etwas intensiver um die Optimierung des Game-Systems bemüht. Sicherlich ist bekannt was ein OC System verbrennt, aber dennoch hat mich das Ergebnis mehr als nur etwas erstaunt. Basis:– E8200- Gigabyte P35 DS3R- 2x2GB GSkill F2-8000CL5D-4GBPQ- XFX 8800GT- Enermax Liberty 400WNachfolgend die Ergebnisse bezogen auf GPU Grid (0,04GPU + 1CUDA) und WCG (CPU 2Cores) :[TABLE]|CPU in GHz|VCore|GPU/SHADER/MEM|VGPU|Leistungsaufnahme|Punkte CPU|Punkte GPU|Gesamtpunkte|Gesamtpunkte in Prozent|KWh pro Tag|Kosten pro Tag in Euro|Kosten in % OC CPU+GPU |4,0|1,32|800/2000/950|1,4|220W|2648|5628|8276|100|5,28|1,056|100OC CPU only|4,0|1,32|650/1625/950|1,0|175W|2648|4428|7076|85,5|4,2|0,84|79,5OC GPU only|2,66|0,94|800/2000/950|1,4|180W|1748|5628|7376|89,1|4,32|0,86|81,8Standard Takt|2,66|0,94|650/1625/950|1,0|125W|1748|4428|6176|74,6|3|0,60 |57[/TABLE]Zur Ermittlung der Punkte von OC CPU+GPU und Standard Takt wurden jeweils aus mehreren WU`s der Mittelwert gebildet, die auch als Basis für OC CPU only(CPU Punkte aus “OC CPU+GPU”) und OC GPU only(GPU Punkte aus “OC CPU+GPU”) dienten. Bei beiden Letzteren wurde ledeglich die Änderung der Leistungsaufnahme gemessen und in das Ergebnis eingerechnet. Meiner Meinung nach ist der Einfluss der CUDA Belastung, bei Standard und OC Profil, für die CPU(0,04CPU 1 CUDA) und auch umgekehrt zu vernachlässigen und sollte nur minimalste Auswirkungen haben. Vergleich Standard vs. OC CPU+GPU :– GPUGRID : -22% Leistung – WCG : -34% Leistung – Gesamt : 43% Kosteneinsparung :d: bei 24% LeistungsverlustVergleich OC CPU only vs. OC CPU+GPU :– GPU GRID : -21,4% Leistung- WCG : +/- 0- Gesamt : 20,5% Kosteneinsparung bei 14,5% LeistungsverlustVergleich OC GPU only vs. OC CPU+GPU :– GPU GRID : +/- 0- WCG : – 34%- Gesamt : 20,5% Kosteneinsparung bei 10,9% LeistungsverlustVergleich OC CPU only vs. Standard :– GPU GRID : +/- 0- WCG : + 51,5%- Gesamt : 40% Kostenerhöhung bei 14,6% LeistungsgewinnVergleich OC GPU only vs. Standard :– GPU GRID : + 27,1%- WCG : + /- 0- Gesamt : 43% Kostenerhöhung bei 19,4% Leistungsgewinn@ Obi Ich hab mich vergeblich am einpflegen einer Tabelle versucht und bin daran gescheitert 🙁 😀 Kannst du mir kurz erklaeren, wie genau das mit dem TABLE-Code, speziell Zeilen und Spalten, in der Foren Software funktioniert? LG DirkEDIT: Danke OBI 😉
-
6. Februar 2009 um 18:02 Uhr #800184Obi WanAdministrator
grins -> du hast oben auf das falsche icon gedrückt :DNicht LEFT ist der BBcode -> sondern TABLE 🙂
-
6. Februar 2009 um 19:02 Uhr #800191phil68Teilnehmer
Obi Wan;358732 said:
grins -> du hast oben auf das falsche icon gedrückt 😀Nicht LEFT ist der BBcode -> sondern TABLE 🙂
Ne 😉 hatte ja vorher schon mit Table versucht, da hat es leider ueberhaupt nicht geklappt!
LG und Dank Dir!
-
6. Februar 2009 um 20:02 Uhr #800219phil68Teilnehmer
EselMetaller;358757 said:
Interessant wäre zu Wissen welche Komponenten Du zum Testen verwendet hast 😉…hab ich glatt vergessen! (siehe Sig)- E8200- 8800GT
EselMetaller said:
22 und 34 sind im Schnitt aber 28% Verlust, also “nur” 72% Gesamtleistung ohne OC.…bezieht sich auf die Gesammtpunkte, also auf das max. zu erzielende Ergebnis pro Tag 😉 8276 vs. 6176 und das sind 75% (hatte vergessen WCG auf 2 Kernen zu berechnen und bin von 6952 vs. 5302 ausgegangen)
Wissenswert wäre auch wo das Gro der Leistungsaufnahme herkommt, von der CPU oder der GPU.
Das werd ich noch nachschieben! Aber ich glaub der Voltmod an der 88’er auf 1,4V wog da wohl etwas mehr.LG DirkEDIT:
Am effizientesten (laufende Kosten / Leistung) sind wohl Mehr-Sockel Systeme mit Stromsparprozessoren und integrierter Grafik.- nur 1x Mainboard / Chipsatz- nur 1x Verluste am Netzteil- nur eine HDD
…leider immer ein tiefer Griff in den Geldbeutel 🙄 …durch die CUDA Unterstuetzung laesst sich da ne ganze Menge mit einer potenten Graka im “Ein-Sockel” System kompensieren.
-
6. Februar 2009 um 20:02 Uhr #800090EselMetallerTeilnehmer
schöner Vergleich :d:
Interessant wäre zu Wissen welche Komponenten Du zum Testen verwendet hast 😉
Fazit :
– bei GPUGRID : -22% Leistung
– bei WCG : -34% Leistung
– insgesammt aber 43% Kosten gespart und trotzdem 76% der Leistung des OC Systems erreicht.22 und 34 sind im Schnitt aber 28% Verlust, also “nur” 72% Gesamtleistung ohne OC.
Wissenswert wäre auch wo das Gro der Leistungsaufnahme herkommt, von der CPU oder der GPU.
Ich vermute mal dass bei Übertaktung der CPU alleine das Ergebnis besser ausgefallen wäre da dort der meiste Mehr-Stromverbrauch durch Vcore Erhöhung kommt und aktuelle CPUs oft auch ohne nennenswerte Spannungserhöhung gut zu übertakten sind.
Und AMD CPUs profitieren bei BOINC ungemein von höherem Takt, wodurch sich OC vergleichsweise eher rechnet als bei Intel.
Am effizientesten (laufende Kosten / Leistung) sind wohl Mehr-Sockel Systeme mit Stromsparprozessoren und integrierter Grafik.
– nur 1x Mainboard / Chipsatz
– nur 1x Verluste am Netzteil
– nur eine HDDBeispiel AMD Opteron 2347HE System: 15,2 GHz / ~200 Watt Gesamtverbrauch
-
7. Februar 2009 um 6:02 Uhr #800267EselMetallerTeilnehmer
phil68;358772 said:
…leider immer ein tiefer Griff in den Geldbeutel 🙄 …durch die CUDA Unterstuetzung laesst sich da ne ganze Menge mit einer potenten Graka im “Ein-Sockel” System kompensieren.Stimmt beides.
Hoffentlich gibt es bald mehr Projekte und auch “normale” Programme mit CUDA Unterstützung, das wäre ein toller Schritt für manche Poweranwendungen.
Rendering bei 3d Programmen z.B.
Es gibt ja auch schon eine handvoll Tools zum Knacken von Verschlüsselungen (Brute-Force, Schlüssellisten, siehe auch BOINC Projekt Free Rainbox Tables ).Aktuelle Grafikkarten sind etwa 20x leistungsfähiger als CPUs bei ca. dreifachem Stromverbrauch und ca. selbem Anschaffungspreis, also etwa um den Faktor 7 effektiver.
-
8. Februar 2009 um 16:02 Uhr #800642phil68Teilnehmer
Hoffentlich gibt es bald mehr Projekte und auch “normale” Programme mit CUDA Unterstützung, das wäre ein toller Schritt für manche Poweranwendungen.
Das hoffe ich auch, da steckt Potential drin!EDIT: Tabelle überarbeitet. Weitere Tests folgen.LG Dirk
-
8. Februar 2009 um 21:02 Uhr #800725EselMetallerTeilnehmer
fein 🙂
Ich bin mal so frei und baue Deine Ergebnisse mit Link zu diesem Thread in die BOINC FAQ ein, ok?
PS: ich hab noch einen Fehler gefunden und behoben: aus MHz hab ich GHz gemacht
-
9. Februar 2009 um 12:02 Uhr #800849EselMetallerTeilnehmer
hier übrigens der Link zu Deinem Test in der FAQ: BOINC FAQ – Wissenswertes
-
9. Februar 2009 um 12:02 Uhr #800846phil68Teilnehmer
Ich bin mal so frei und baue Deine Ergebnisse mit Link zu diesem Thread in die BOINC FAQ ein, ok?
PS: ich hab noch einen Fehler gefunden und behoben: aus MHz hab ich GHz gemacht…gern, da musst du nicht fragen! Bin gerade dabei um mit OC GPU only und dann nochmal mit UC GPU zu testen.
…und Danke fuer die Korrektur 😉LG Dirk
-
9. Februar 2009 um 13:02 Uhr #800866phil68Teilnehmer
hier übrigens der Link zu Deinem Test in der FAQ: BOINC FAQ – Wissenswertes
..schon gesehen 😉 Prima Arbeit deine FAQ, hat mir ‘damals’ den Einstieg extrem erleichtert :d:
-
9. Februar 2009 um 17:02 Uhr #800966phil68Teilnehmer
Update im 1.Post
– Ergebnisse OC GPU only eingefügtGrüße Dirk
-
20. Februar 2009 um 12:02 Uhr #803265JabbaTeilnehmer
Hallo Phil,
habe mal Deine Ergebnisse mit meiner Gamemachine verglichen.
Auch bei mir steigt der Verbrauch beim OCen exorbitant.Ich lasse deshalb die CPU (e8600) auf Standardtakt von 3,33 GHz. Was im Gegenzug erheblich Leistung und Stromersparnis brachte war das Undervolten meiner GTX260.
Unter Volllast bringt die kombination aus e8600@3,3GHz, @1,1V, GTX260 @700 MHz, 1,03V und 4 GB RAM einen Gesamtverbrauch von gerade einmal 200W.
Ich werde versuchen in nächster Zeit ein paar konkretere Daten nachzureichen.Als Projekte liefen Seti und GPUGrid.
Gruß
Jabba
P.S.: Einen ausführlichen Test eines multisockelsystems werde ich hoffentlich auch bald einreichen können.
-
20. Februar 2009 um 20:02 Uhr #803364phil68Teilnehmer
Hallo Jabba,
Danke erstmal für die Infos!
Ich werde versuchen in nächster Zeit ein paar konkretere Daten nachzureichen.
Da ich z.Z. darüber nachdenke auf was moderneres als die 8800GT zu wechseln, wäre es Interessant zu wissen was die GTX260, bei 200W, an einem Tag “wegcruncht”. Sobald du mehr dazu sagen kannst, würde ich die Ergebnisse außerdem gern in die Tabelle einpflegen.
Evtl. wäre es nicht schlecht, eine Punkte pro Watt Spalte in der Tabelle einzufügen :-k …der Übersicht halber und zum besseren Vergleich der Grakas untereinander.Was im Gegenzug erheblich Leistung und Stromersparnis brachte war das Undervolten meiner GTX260.
…Volt oder Bios-Mod?
Grüße Dirk
-
20. Februar 2009 um 21:02 Uhr #803378JabbaTeilnehmer
Hallo Phil,
mit ein paar BOINC Ergebnissen kann ich dienen:
Best five days
[TABLE]
Date Credit
2009-02-18 16,137
2009-02-17 13,771
2009-02-15 12,771
2009-02-19 12,611
2009-02-16 12,158
[/TABLE]Davon kannst Du ungefähr 2000 Punkte für die Arbeit meiner CPUs abziehen. Der Rest ist von der GTX 260.
Die Ergebnisse schwanken deshalb sehr stark, da man am Tag nur zwei WUs schafft und wenn man alle paar Tage mal eine dritte mit in den Abrechnungszeitraum bekommt, dann gibt das einen fetten Peak.
Die GTX ist übrigens per BIOS Mod untervoltet – was wirklich einfach ist und man mit etwas Geduld und guter Vorbereitung in einer Stunde gebacken kriegt. Nur nicht hudeln!So schön das Crunchen mit der Graka ist, leider unterstützen erst zwei Projekte dies unter BOINC. Außerdem nur mit NVIDIA Grakas.
Gruß
Jabba
-
20. Februar 2009 um 23:02 Uhr #803383phil68Teilnehmer
Hallo Jabba,
hab mal deine 3 letzten Task`s bei PS3GRID gemittelt 😉 demnach schaffst du 11515 Punkte pro Tag allein mit der GTX :d: (war die GTX da schon @ 1,03V ?)Die GTX ist übrigens per BIOS Mod untervoltet – was wirklich einfach ist und man mit etwas Geduld und guter Vorbereitung in einer Stunde gebacken kriegt.
Mit der Version von nvflash die auch unter Windows funzt und nibitor geht das recht zügig. …und wenns doch mal daneben geht, hilft immernoch die gute, alte PCI Graka oder “Blind flashen” 😀
…bei der 8800GT von XFX hat der Bios Flash nichts gebracht.leider unterstützen erst zwei Projekte dies unter BOINC
Einstein@Home sollte auch CUDA Unterstützung haben!?
Grüße Dirk
-
21. Februar 2009 um 8:02 Uhr #803391JabbaTeilnehmer
Hallo Phil,die GTX ist seit gut einem Monat untervoltet. Seit einer Woche habe ich den Coretakt auf 700 MHz angehoben. Standardtakt war 620 MHz. Und das Teil skaliert guuuuuut! Mit Einstein@home hab ich mich gar nicht beschäftigt. Muß mir das anschauen.GrußJabba
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.