MK Kühlerprüfstation Version 2
Willkommen in der Mk-Community › Foren › Kühlung › MK Kühlerprüfstation › MK Kühlerprüfstation Version 2
- Dieses Thema hat 97 Antworten sowie 20 Teilnehmer und wurde zuletzt vor vor 7 Jahren von
MK-Forum-Bot aktualisiert.
-
AutorBeiträge
-
-
6. Oktober 2010 um 14:10 Uhr #497620
VJoe2max
TeilnehmerNun ist es endlich ist es soweit: Die Meisterkühler testen nun selbst Wasserkühler!Nach mehreren Anläufen und viel Aufwand ist aus unserem Meisterkühler Teststand v.1 ist die MK-Kühlerprüfstation geworden, die wir euch in dem folgenden Artikel ausführlich vorstellen wollen.… ➡ mehr
-
Dieses Thema wurde geändert vor 7 Jahren von
MK-Forum-Bot.
-
Dieses Thema wurde geändert vor 7 Jahren von
-
6. Oktober 2010 um 15:10 Uhr #865178
Obi Wan
AdministratorProbiere es nochmal, bitte
-
6. Oktober 2010 um 15:10 Uhr #865180
AMD-ATI-Fan
Teilnehmerworks:d:
-
6. Oktober 2010 um 15:10 Uhr #865177
AMD-ATI-Fan
Teilnehmerwar ich zu früh?
AMD-ATI-Fan, Du hast keine Rechte, um auf diese Seite zuzugreifen. Folgende Gründe könnten z.B. dafür verantwortlich sein: 1. Du versuchst, den Beitrag eines anderen Benutzers zu ändern oder auf administrative Funktionen zuzugreifen. Überprüfe bitte in den Forenregeln, ob du diese Aktion ausführen darfst. 2. Wenn du versucht hast, einen Beitrag zu schreiben, kann es sein, dass dein Benutzerkonto deaktiviert wurde oder noch aktiviert werden muss.
-
6. Oktober 2010 um 18:10 Uhr #865201
borsti67
Teilnehmerwas soll man sagen – das Warten hat sich gelohnt! :respekt:
PS: Kleiner Typo auf Seite 10:
Die Versandkosten hin und zurück sind vom euch zu entrichten.
-
6. Oktober 2010 um 18:10 Uhr #865206
GoZoU
Moderatorborsti67;430016 said:
was soll man sagen – das Warten hat sich gelohnt! :respekt:PS: Kleiner Typo auf Seite 10:
Danke, wurde behoben :d:
AMD-ATI-Fan;430017 said:
bin auf die Testergebnisse gespannt:d:Ich auch :+:D
MfG
GoZoU -
6. Oktober 2010 um 18:10 Uhr #865202
AMD-ATI-Fan
Teilnehmerjup, der Artikel ist gut und sehr ausführlich:respekt:
bin auf die Testergebnisse gespannt:d:
-
6. Oktober 2010 um 20:10 Uhr #865226
Obi Wan
AdministratorAMD-ATI-Fan;430017 said:
bin auf die Testergebnisse gespannt:d:nur deshalb hat sich das ganze auch so lange hingezogen, um Hardwarefehler am Teststand auszuschließen und sicher zu sein, das die Testergebnisse jederzeit nachvollziehbar sind 😎
-
10. Oktober 2010 um 19:10 Uhr #865752
braeter
TeilnehmerIch glaubs ja nicht.Fast wär ich so wie DR.PEPPER beim Chinese Democracy Album von Guns`n`Roses reingelaufen. Zum glück hab ich nicht gewettet.Sehr schön, bin begeistert.Ich wünsch euch jede Menge „Aufträge“ für den Teststand :d:Edit:DAS Bild hätt ich gern in Gross als Wallpaper. Wäre des möglich?
-
10. Oktober 2010 um 20:10 Uhr #865755
VJoe2max
TeilnehmerTHX 🙂 Du hast ja auch selbst tatkräftig mit geholfen. Danke noch mal dafür! Ohne deine Anpressspitze könnten Eigenbauten wohl kaum geprüft werden. Was lange währt …. ;)Mit dem Bild müsste GoZoU evtl. weiterhelfen können ;). Hab leider auch nur die kleine Version zur Verfügung.
-
11. Oktober 2010 um 17:10 Uhr #865910
GoZoU
Moderatorbraeter;430574 said:
DAS Bild hätt ich gern in Gross als Wallpaper. Wäre des möglich?Auf meinem Rechner liegt es leider nicht. Es kann sein, dass der 1cebaer es damals geschossen hat. Da er aber schon eine Weile nicht zu erreichen ist, mag ich dir keine große Hoffnung machen, dass ich es besorgen kann – werde es aber versuchen.@Michael_Jim: Danke für das freundliche Angebot, im Moment wollen wir uns aber erstmal auf Kühler ohne zentrale Anpressung beschränken. Oder handelt es sich um ein Bold-Modell? :)MfGGoZoU
-
11. Oktober 2010 um 17:10 Uhr #865301
Michael_Jim
TeilnehmerGoZoU;430753 said:
@Michael_Jim: Danke für das freundliche Angebot, im Moment wollen wir uns aber erstmal auf Kühler ohne zentrale Anpressung beschränken. Oder handelt es sich um ein Bold-Modell? 🙂ne ist der ganz normale mit der zentralen Anpressung für Sockel 775.
Hoffe ihr kriegt einen AC cuplex kryos HF und einen cuplex kryos XT. Möchte mal wissen, ob sie sich stark unterscheiden 😀
P.S. das Wallpaper will ich auch :d:
-
11. Oktober 2010 um 17:10 Uhr #865906
Michael_Jim
Teilnehmerman das ist sooo geil 😀
ich hoffe ihr kriegt viele Samples zum testen von verschiedenen Herstellern.
Habe leider nur einen sehr alten Alphacool NexXxoS XP. Aber falls Bedarf besteht würde ich den sofort zur Verfügung stellen.
ich freue mich schon auf viele Tests 🙂 -
11. Oktober 2010 um 18:10 Uhr #865915
Obi Wan
Administratorbraeter;430574 said:
Ich glaubs ja nicht.zum glück hab ich nicht gewettet.
Sehr schön, bin begeistert.
:shit: .. hätte ich mal nix gesagt, wäre ich jetzt reich 😎
-
12. Oktober 2010 um 20:10 Uhr #866047
braeter
TeilnehmerSchon mal nem Nackten in die Tasche gefasst?Ok, dann wart mer mal ab, vlt wirds ja was mit m Pic.Danke euch.
-
14. Oktober 2010 um 15:10 Uhr #557540
[LE]Al_bundy
Teilnehmerganz nette aufmachung,
vor 5 jahren haben mich die kaltmacher auseinander genommen wo ich ein pc netzteil zur versorgung der FETS hernehmen wollte. das hatte seine gründe. daher bin ich auf nen Laststabiles Labornt umgestiegen.
„Diese Halterung aus Alumium“ macht euch nicht glücklich wenn ihr gerade anschlüsse verwenden wollt bei kühlern die einen zentralen einlass haben. der schlauch wird gegen die Halterung stoßen und macht ne menge arbeit den kühler aufzusetzen da er sich aufgrund des drucks (schlauch an halterung) immer verschieben wird,/will -> keine optimale Montage für einen Kühlertest. -> Kratzer entstehen am Boden (die das dT extrem verfälscht) sowie Wlp verschiebt sich stark asymetrisch. Von einen vergleicshtest kann dann keine rede mehr sein.die gegebenheit eines 16x16cores ist wirklich nur ein kompromiss.
cores mit 16×16 erreichen andere dT als ein core mit 16x24mm.
was wann wo wie kommen wird ist nich vorhersehbar. es ist immer besser einen core anhand einer aktuellen cpu zubauen und den core später der neuen prozessoren anzupassen.
wers nicht glaubt, vergleiche bitte die kühlerrankings von den amd plattformen zu den intelplattformen.
gutes beispiel phobya cpu cooler. auf amd geht der gut. auf intel kackt der ab. das ist unter anderen auch auf den unterschiedlichen coredimensionen zurückzuführen.Tip:
nimmt öl als wärmeleitpaste. pasten können größere körner beinhalten die das dT verfälschen -> kein symetrischer anpresspunkt mehr durch verkanten des wlp körnchens. das hat man bei öl nicht.
falls irgendjmd auf die idee kommen sollte den ihs planzuschleifen, dann bitte aber wieder vernickeln. spätestens nach 100tests ist der ihs müll.
es klingt doof, aber bei unvernickelten ihs kommen nach jeden test µkratzer rein, je nachdem welche partikel in der paste sind können auch mal gröbere kratzer entstehen wo dann der ihs nachgeschliffen werden muss. macht sich extrem ******* da nach jeden schleifen wieder 10 referenzmessungen gemacht werden müssen.ansonsten wünsche ich euch bei diesen projekt viel erfolg und viel spass
ahja noch eins…
150W sind für den core zu wenig. ihr werdet bestimmt ähnliche dT wie ich haben. ergo alle guten bin in 1K.
das sieht geiler aus wenn das dT weiter auseinander liegt. dann kommt auch die messtoleranz nicht so stark zum tragen. entweder mehr heizen, oder weniger kupfer am core. das sieht mir stark nach einen 10mm starken core aus. von den 150W kommen oberhalb des IHS nicht mehr viel an 😉
Bei meinen rebuild versuche ich den Core so flach wie möglich zu halten und nutze 2fets um notfalls auch mit über 200W heizen zu können. theoretisch sind dann bis zu 400W drin.und überhaupt.
geiles Anpresslayout;) -
14. Oktober 2010 um 16:10 Uhr #866270
VJoe2max
Teilnehmer@Marc: Schön, dass du dir unseren Prüfstand angesehen hast und, dass er dir gefällt :)Allerdings muss ich fast alle Kritikpunkte die du anbringst entkräften (eigentlich alle):Zur Stromversorgung: Ein heutiges ATX-Netzteil ist was die Spannungsstabilisierung und die Leistungen auf der 12V-Schiene angeht so manchen Labornetzteil überlegen. Zumal wir ja, wie du, mit der WPS arbeiten. Wir haben die präzise Version mit Shunt (von Marco) im Einsatz und die Stromversorgung wurde, wie du auch in der Doku siehst, exakt abgeglichen. Die Stromversorgung funktioniert in dieser Konfiguration bestens und die Abgabeleistung stimmt überaus exakt. Hätten wir hier Probleme festgestellt, hätten wir evtl. auch gewechselt – aber das stellte sich als völlig unnötig heraus. Das Enermax-Netzteil verrichtet hervorragend seinen Dienst für diesen Zweck! Hier auch noch mal der Dank an den Sponsor des Kraftpakets!OT: Dir wurden dort damals bei KM/EKM vor allem andere Dinge um die Ohren gehauen. Das Netzteil war nur ein Aufhänger wenn ich das richtig in Erinnerung habe ;). Zur Halterung: Hast du dir die mal genau angesehen und den Unterschied zu deiner Halterung erkannt? All die Punkte die du anführst haben wir konsequent ausgeräumt. Es gibt mit unseren Halterungen keinerlei Verschieben des Kühlers auf dem DIE-Sim, da die Halterung selbstzentrierend und winkelausgleichend aufgebaut ist. Der Prüfling wird so immer exakt gleich belastet und es gibt keinerlei Verschiebungen ;). Die Reproduzierbarkeit der Anpressung ist so besser als mit jeder Methode die wir bis jetzt bei anderen Prüfständen finden konnten. Deine Ur-Version hätte mit ein wenig mehr Aufwand durchaus auch so funktionieren können ;). Wir haben dieses Grundkonzept etwas anders umgesetzt und (imho) entscheidend verbessert. Damit wurden alle fallbacks die du anführst beseitigt und grundlegende Verbesserungen des Konzepts umgesetzt. Dass wir die Steifigkeit der Kühlerhalterungen mit prüfen ist btw einkalkuliert und beabsichtigt. Eines der größten Probleme deiner Halterung nach diesem Prinzip waren btw die langen Anpresstangen, ohne vernünftige Führung. Dass es da zu starken Verschiebungen kommt ist kein Wunder gewesen ;). Das kann mit unserem Aufbau nicht passieren. Durch die Selbstzentrierung über die Kugel haben wir zudem keinerlei Versatz um die Hochachse. Das Schlauchargument hat uns bei der ersten Version der oberen Halterung auch noch ein wenig Sorgen gemacht – jedoch nicht so krass wie bei deiner Plattenhalterung. Bei der zweiten Version, die zusätzlich auch für AMD-Sockel geeignet ist, wurde das Problem komplett beseitigt (nicht nur durch die verhältnismäßig große Höhe sondern auch durch die Form des Bügels):
Der Schlauch berührt die Halterung so überhaupt nicht und übt dementsprechend auch keine Kräfte auf die Halterung aus ;).Kühler mit mittigem Einlass können so problemlos mit geraden Anschlüssen genutzt werden. Allerdings verwenden wir grundsätzlich 45°-Adapter, um keinerlei unterschiedliche Bedingungen im Anströmverhalten zu erzeugen. Im Übrigen haben wir von Beginn an mit Silikonöl gearbeitet und nicht mit WLP. Wenn du die Doku aufmerksam gelesen hättest wäre dir das aufgefallen ;). Zum DIE-Sim:Dass 16x16mm simulierte DIE-Fläche ein Kompromiss sind bezweifelt niemand. Genau so ist es gedacht ;). Deine Ansicht, dass es besser sei das DIE-Sim irgendeiner realen CPU nach zu empfinden entspricht nicht unserer Auffassung. Ein DIE-Sim ist keine CPU und liefert auch bei gleicher Auflagefläche keineswegs das gleiche DeltaT wie eine reale CPU. Wir haben daher eine Fläche gewählt die ungefähr einer durchschnittlichen DIE-Fläche entspricht, um eine realistische Leistungsdichte einzuleiten. Wichtiger als gleiche Flächen wie vergängliche CPU-Designs ist für vergleichbare Test über lange Zeiträume hinweg – ganz in der Tradition des WCP-Prüfstands – eine gleichbleibende Basis mit einer festgelegten Leistungsdichte. Kühlerrankings die mit realen CPUs erstellt wurden sind per se nicht vergleichbar mit Ergebnissen physikalischer Prüfstände. Es wäre grober Unsinn dies zu behaupten oder anzustreben. Ein physikalischer Prüfstand kann jedoch eine solide Leistungseinschätzung verschiedener Kühlerdesigns liefern und damit zur zielgerichteten Weiterentwicklung beitragen. Das ist der Hauptanspruch den wir mir der MK-Kühlerprüfstation bestmöglich umsetzen wollen. Die Ergebnisse sollen vor allem die Kühlerentwicklung im Bastler-Bereich weiter bringen. Edit: Dass dabei natürlich auch die Kühler mit den besten Kühlleistungen ganz vorne im Ranking landen ist ein Nebeneffekt, den man, wenn man möchte, natürlich zur Auswahl des eigenen Wasserkühlers heran ziehen kann ;). Im Übrigen können die so ermittelten Delta-T natürlich auch als Anhaltspunkte für die Performance auf realen CPUs heran gezogen werden. Dass man aber nicht einfach seine Wassertemperatur messen kann und das DeltaT eines Prüfstandes dazurechnen kann, sollte jedem klar sein – selbst wenn man mit dem Prüfstand versuchen würde möglichst exakt die verwendete CPU abzubilden. Ein besserer Anhaltspunkt als die Sensorwerte einer CPU ist diese Methode jedoch allemal. Dass Kühler auf verschiedenen CPUs unterschiedlich performen ist eine Binsenweisheit und es ist, unserer Auffassung nach, nicht die Aufgabe physikalischer Prüfstände dies zu beweisen ;). Zur „WLP“:Wie oben bereits erwähnt, verwenden wir seit jeher Silikonöl auf dem Prüfstand. Unser DIE-Sim ist mit einem sehr planen vernickelten AMD-IHS ausgestattet. Das DIE-Sim wird nicht nachgeschliffen. Zur Heizleistung:150W sind genug! Wenn man sich im realistischen Bereich bewegen will. Mit mehr Leistung bewegt man sich zum Einen weit ab von realen Verlustleistungen. Eine deutlich höhere Leistungsdichte anzulegen als in der Realität spreizt zum Anderen zwar die Messergebnisse besser, so dass man weniger Aufwand bei Kalibrierung und Messwertaufbereitung treiben muss, aber es führt auch dazu, dass der Kühler nicht seinen realen Betriebsbedingungen entsprechend geprüft wird. Wie „geil“ ein Diagramm aussieht ist uns btw ziemlich egal ;). Uns interessieren die tatsächlichen Unterscheide in der Kühlleistung verschiedener Kühlerarchitekturen.Durch eine wesentlich höhere Heizleitung kann sich jedenfalls z.B. die laterale Wärmeverteilung deutlich verändern. So könnten Kühler die in der Realität eher bescheiden abschneiden auf dem Prüfstand deutlich besser da stehen. Wir wollen aber eine realitätsnahe Reihung der Kühlleistungen ermitteln ;). Aus diesem Grund haben wir die 150W auch sehr bewusst gewählt, obwohl wir mit dem Infinion SPP80P06P Heiz-FETs den wir einsetzen, noch wesentlich höhere Heizleistungen erzielen könnten (prinzipiell bis zu max. 340W) ;). Zum „Wärmeverlust“ des DIE-Sims:Dass ein dicker Kupfercore Wärme an den falschen Stellen verlieren könnte ist uns bewusst ;). Deshalb haben wir eine ziemlich gute Isolierung verbaut. Der Kern ist komplett in POM gekapselt und wird von unten durch eine Siliziumnitridplatte auf einer weiteren POM-Platte abgestützt. Auf diese Weise ist der Kern bestens davor geschützt Nennenswerte Wärmeverluste an die Umgebung zu erleiden. Es dürfte so sogar erheblich weniger sein, als eine reale CPU ans PCB verliert. Auch diese Überlegung hat uns dazu veranlasst die Heizleistung nicht noch höher anzusetzen. Zur Aluminiumplatte herrscht im Übrigen eine Spielpassung mit Luftspalt. Das dient neben der Isolierung auch dem Winkelausgleich, denn die Siliziumnidridplatte ist zu diesem Zwecke ballig geschliffen – das erfordert den entsprechenden Bewegungsraum für das Modul. Zusammen mit dem ebenfalls Winkelversatz ausgleichenden oberen Haltungsmodul ist so immer eine perfekt orthogonale Krafteinleitung gewährleistet ;).@Anpresslayout: Den offiziellen Dank an deine Person für die Idee und die Unterstützung damals findest du explizit im Text der Doku 😉 :d:.Ich verfolge btw stets interessiert die Arbeiten an deinem Prüfstand-Rebuild. Bis jetzt habe ich da ein paar gute Ansätze aber leider auch ein paar unnütze Dinge ausmachen können….Was die kompromisslose Higflow-Auslegung bewirken wird, kannst du recht gut an unseren, bis jetzt recht mageren, Kühlercharts aber auch an deine eigenen Ergebnissen ablesen. Aber das Thema hatten wir früher ja schon mal ausführlich durchgekaut ;). Die Ergebnisse deines bisherigen Prüfstands waren jedenfalls alles andere als schlecht :d:. Im großen und ganzen bildeten sie auch viele Erfahrungen ab, die wir während der zahllosen Vortests die wir schon durchgeführt haben, nachvollziehen konnten. In einigen Punkten hätte man an deinem alten Prüfstands-Layout noch Verbesserungen anbringen müssen, aber im großen und Ganzen ist das schon eine Referenz ähnlich den bekannten WCP-Tests.
-
14. Oktober 2010 um 17:10 Uhr #866282
ulv
Teilnehmer@Al_bundy
Danke für deine Kritik! Es wird nie den einen Teststand geben und ich finde es sogar gut, wenn dein Teststand eine etwas andere Ausrichtung hat als unserer. Daher wünsche ich dir viel Erfolg mit deiner V2!‚[LE said:
Al_bundy;431156′]
Heizleistung:
ich bezweifel stark das der wirkungsgrad besser ist bei einen DIESIM als bei einer CPU. Mittels wie lange dauert es bis 20°C kaltes wasser sich auf 60°C erwärmt hat kann man den wirkungsgrad und somit auch die abgabewärmeleistung berechnen. ich würde mich jetzt ganz schwer verheben wenn ein DIESIM schneller das Wasser erwärmen würde als eine CPU mit gleicher Verlustleistung. und meine empfindung ist das 150W zu wenig sind. es spielt keine rolle wieviel man an energie reinsteckt, entscheident ist was oberhalb am ihs ankommt. es geht sehr viel energie verloren wenn die wärmeenergie erst durch 10mm kupfer durch muss, anstatt durch weniger zehntel mm silizium.
bei zeiten werde ich euch das darstellen können. extre nur für die skeptiker unter euch 😉Das hier tut meinem Dipl.-Ing.-Herzen aber schon sehr weh. Ich meine, das ist alles richtig bis auf die fett gedruckte Stelle!
Wenn du das wirklich zeigen kannst schlag ich dich für den Nobel-Preis vor. O:-)
Energie geht nie verloren! Da gibt es doch so ein paar Hauptsätze der Thermodynamik.
Wenn du damit sagen willst, dass die Energie zur Seite verschwindet dann hast du die von VJoe beschriebene Wärme-Isolierung an der Seite und unterhalb des DIE-Sim übersehen. -
14. Oktober 2010 um 17:10 Uhr #866279
[LE]Al_bundy
Teilnehmerzur halterung:
nutzt man gerade anschlüsse, ist der kühler deckel sehr hoch, und nutzt man einen schlauch mit hohen biegeradien hast du spannung.
da müsstest du schon ca 100mm luft zwischen oberkannte kühler und unterkannte der halterung haben. bei 45° anschlüssen is das dann aber wieder völlig latteDIESim:
da hast du was falsch verstanden. mit unterschiedlich „krassen“ abmessungen wie beispielsweise 16×16 auf 24x16mm wirst du bei einigen Kühlern eine rankingsverschiebung haben. da nicht jeder kühler an jeden punkt den selben wirkungsgrad hat. das lässt sich sogar sehr einfach testen.
teste einen nexxos xp Rev.2 und einen nexxxos xp highflow auf einen AMD Athlon XP Diesim und auf einen Core2 Duo DIESIM. du wirst feststellen das auf den Athlon der XP vorne liegt und auf den Core 2 Duo, der highflow vorne liegt da der XP für kleien Cores und der highflow für große Cores hergestellt wurde. beides haben identische in und outs sowie bodenplatten. ergo gilt diese aussage nicht mehr, bzw. maximal bedingt„Im Übrigen können die so ermittelten Delta-T natürlich auch als Anhaltspunkte für die Performance auf realen CPUs heran gezogen werden.“
„Wir haben daher eine Fläche gewählt die ungefähr einer durchschnittlichen DIE-Fläche entspricht, um eine realistisch Leistungsdichte einzuleiten“
„Dass Kühler auf verschiedenen CPUs unterschiedlich performen ist eine Binsenweisheit“
Heizleistung:
ich bezweifel stark das der wirkungsgrad besser ist bei einen DIESIM als bei einer CPU. Mittels wie lange dauert es bis 20°C kaltes wasser sich auf 60°C erwärmt hat kann man den wirkungsgrad und somit auch die abgabewärmeleistung berechnen. ich würde mich jetzt ganz schwer verheben wenn ein DIESIM schneller das Wasser erwärmen würde als eine CPU mit gleicher Verlustleistung. und meine empfindung ist das 150W zu wenig sind. es spielt keine rolle wieviel man an energie reinsteckt, entscheident ist was oberhalb am ihs ankommt. es geht sehr viel energie verloren wenn die wärmeenergie erst durch 10mm kupfer durch muss, anstatt durch weniger zehntel mm silizium.
bei zeiten werde ich euch das darstellen können. extre nur für die skeptiker unter euch 😉bzgl. meines setups.
es gibt in der tat einige dinge die nicht optimal sind, die jedoch redaktionel gesehen schon weiter über die norm liegt. ich hatte an den ding knapp 2 jahre gebaut und irgendwann muss man einen schlussstrich ziehen. optimierungen kann man immer vornehmen, da jedes setup optimierbar ist.
da mein DIESim zu sehr verschlissen ist, und es seid geraumer zeit multicore cpu’s gibt sowie es zwischendurch finanziell etwas besser lief, habe ich mich für ein rebuild entschieden wo einige fehler (nicht alle) behoben werden. insbesondere auch die Anpressgeschichte.edit: salop kann man sagen durch den DIESIM kann für dieses setup der beste kühler ermittelt werden, das ranking auf reale intel oder AMD platformen zu übertragen funktioniert aber nicht mehr.
streich das mit der halterung. hast ja recht^^
ich sollte mir die bilder gewissenhafter anschauen^^ -
14. Oktober 2010 um 18:10 Uhr #866283
[LE]Al_bundy
Teilnehmeris schon richtig. ich werd später mal mit meinen grill udn meine cpu wasser kochen und diagramme anheften.
das muss nicht heißen das von 150 W nur 80 ankommen. als unerheblich was da „verloren“ geht erachte ich es jedoch nicht. -
14. Oktober 2010 um 19:10 Uhr #866286
VJoe2max
Teilnehmer‚[LE said:
Al_bundy;431156′]zur halterung:nutzt man gerade anschlüsse, ist der kühler deckel sehr hoch, und nutzt man einen schlauch mit hohen biegeradien hast du spannung.da müsstest du schon ca 100mm luft zwischen oberkannte kühler und unterkannte der halterung haben. bei 45° anschlüssen is das dann aber wieder völlig latte.Wir haben beides :D. – ca. 100m Luft und 45° Adapter ;).
‚[LE said:
Al_bundy;431156′]DIESim:da hast du was falsch verstanden. mit unterschiedlich „krassen“ abmessungen wie beispielsweise 16×16 auf 24x16mm wirst du bei einigen Kühlern eine rankingsverschiebung haben. da nicht jeder kühler an jeden punkt den selben wirkungsgrad hat. das lässt sich sogar sehr einfach testen.teste einen nexxos xp Rev.2 und einen nexxxos xp highflow auf einen AMD Athlon XP Diesim und auf einen Core2 Duo DIESIM. du wirst feststellen das auf den Athlon der XP vorne liegt und auf den Core 2 Duo, der highflow vorne liegt da der XP für kleien Cores und der highflow für große Cores hergestellt wurde. beides haben identische in und outs sowie bodenplatten. ergo gilt diese aussage nicht mehr, bzw. maximal bedingtNatürlich kann es zu Verschiebungen im Ranking kommen, wenn man unterschiedliche DIE-Sim-Flächen einsetzt. Keine Frage – hab ich oben auch schon gesagt ;). Das ist aber nicht so rasend interessant, denn DIE-Flächen ändern sich ständig. Es hat daher aus unserer Sicht keinen Sinn sich auf ein bestimmtes Flächenlayout einzulassen, welches nach kurzer Zeit in der Realität nicht mehr vorkommt. Wir haben unsere DIE-Fläche daher u.A an der Wirtschaftlichkeitsrechnung fest gemacht. Demnach ist die Wahrscheinlichkeit, dass die DIEs im Durchschnitt deutlich größer werden extrem gering, weil dies die Chips zu teuer machen würde. Dass sie deutlich kleiner werden ist ebenso ausgeschlossen, solange Moores-Law auf Biegen und Brechen von den Chipgiganten eingehalten wird. Ein Ende dieses Umstands ist nicht abzusehen. Ein zweiter Aspekt war – wie treffend – das Aspektverhältnis :D. Wir haben eine quadratisches Fläche gewählt, weil dies ebenfalls eine Annäherung an den Durchschnitt darstellt. Man hätte auch ein runde Fläche nehmen können, aber dies würde konzentrische Kühlstrukturen über Gebühr bevorzugen. Rechteckige Flächen mit hohen Aspektverhältnissen bilden nur nur bestimmte CPUs ab, deren DIE ebenfalls ein hohes Aspektverhältnis hat. Die meisten CPUs, insbesondere die der sehr leistungsfähigen Modelle, haben aber schon aus Gründen des Wafer-Verschnitts tendenziell häufiger quadratische oder nahezu quadratische DIE-Flächen. Ausnahmen bestätigen hierbei freilich die Regel ;).
‚[LE said:
Al_bundy;431156′]“Im Übrigen können die so ermittelten Delta-T natürlich auch als Anhaltspunkte für die Performance auf realen CPUs heran gezogen werden.Wir haben daher eine Fläche gewählt die ungefähr einer durchschnittlichen DIE-Fläche entspricht, um eine realistisch Leistungsdichte einzuleitenDass Kühler auf verschiedenen CPUs unterschiedlich performen ist eine Binsenweisheit“Siehst du etwa einen Widerspruch :D. Oberflächlich betrachtet mag das so erscheinen – nicht aber wenn du unsere Zielsetzung betrachtest ;). Die MK-Kühlerprüfstation hat, neben den Rankings für die Kühlercharts, eine etwas andere Zielsetzung als die meisten Hardware- und auch einige richtige Prüfstände. Das Ranking was dabei entsteht, bildet für eine Großzahl von CPUs dennoch recht gut die Leistungsfähigkeit verschiedener Kühler ab. Im Übrigen zeigen die ersten Ergebnisse auch bereits wie unwichtig die Frage nach dem absolut besten Kühler für eine bestimmte CPU tatsächlich ist, wenn es nicht um die Jagd nach dem letzten Viertel-Grad geht, sondern einfach nur um gute Kühlung.Wenn sich die Unterschiede für ein durchschnittliches CPU-Layout, wie wir es simulieren, bereits in so geringem Rahmen bewegen sind die Unterschiede auch sonst nicht gewaltig – das zeigen ja auch deine Ergebnisse bei den Top-Kühlern. Zumal ja in der Realität immer noch Faktoren wie die Planizität des IHS oder die WLP eine erhebliche Rolle spielen, die gut und gerne größer als die Unterschiede in der reinen Kühlleistung zwischen den verschiedenen Kühlern sein können. Was ich damit sagen will: Wir machen hier nicht die direkte Konkurrenzveranstaltung zu Hardwaretestern wie bundymania und Co. und auch nicht zu deinen CPU-orientieren Messungen, sondern wir wollen eher in der Nische der WCP-Tests Fuß fassen. Deren anerkannt saubere Methodik haben wir auf moderne Gegebenheiten angepasst und wollen versuchen, damit vor allem Kühlerbastlern vernünftige Grundlagen an die Hand zu geben, indem wir versuchen die besten Prinzipien die zu besonders guten Kühlleistungen führen Stück für Stück heraus zu arbeiten. Wir hoffen, dass die Diskussion dieser Ergebnisse im Forum letztendlich dazu führen neue Konzepte und Ideen zu entwickeln, wie sich vllt. noch mal ein deutlicher Sprung bei der Kühlleistung realisieren lässt. Nicht zu Letzt deshalb gibt es auch das Angebot Bastler-Kühler zu prüfen. Dass man die Ergebnisse natürlich auch zur Bewertung kommerzieller Kühler oder existierender Eigenbauten heranziehen kann ist ein positiver Nebeneffekt. Die Ergebnisse sind dafür prinzipiell nicht besser aber auch nicht schlechter geeignet als die anderer physikalischer Prüfstände ;). Wie bei jedem Prüfstand muss man sich einfach vor Augen halten, dass die Messergebnisse im Gegensatz zu Tests auf Hardware zwar wesentlich genauer sind, aber eben auch kein reales Setup darstellen. Im Großen und Ganzen stimmt das Ranking in der Realität und im Prüfstandsversuch dennoch oft mit dem auf realen Setups erstaunlich gut überein. Je weiter jedoch ein reales Setup beim User von den Randbedingungen eines Prüfstandversuchs oder auch eines Tests auf Hardware abweicht, desto weniger genau werden sich die Ergebnisse entsprechen – auch das ist aber eine Binsenweisheit ;).
‚[LE said:
Al_bundy;431156′]Heizleistung:ich bezweifel stark das der wirkungsgrad besser ist bei einen DIESIM als bei einer CPU. Mittels wie lange dauert es bis 20°C kaltes wasser sich auf 60°C erwärmt hat kann man den wirkungsgrad und somit auch die abgabewärmeleistung berechnen. ich würde mich jetzt ganz schwer verheben wenn ein DIESIM schneller das Wasser erwärmen würde als eine CPU mit gleicher Verlustleistung. und meine empfindung ist das 150W zu wenig sind.Mal immer ruhig mit den jungen Pferden! Deine Empfindung in allen Ehren, aber die Physik lässt sich ungern austricksen ;). Im Übrigen wird der Umstand der unterschiedlichen Aufheizraten, wie schon bei WCP, auch in unseren Tests durch die dualen Auswertungsprotokolle voll berücksichtigt und dokumentiert. Für den stationären Zustand hat das jedoch keinen Einfluss. Aber nur im stationären Zustand kann eine Aussage über die tatsächliche Kühlleistung des Kühlers getroffen werden. Wie lange ein Kühler braucht braucht, um das Wasser bei einer gegebenen eingeleiteten Heizleistung (egal wie hoch sie ist) in den stationären Zustand zu bringen hängt von Faktoren wie der Kühlermasse, der Wärmekapazität des verbauten Materials und andern Faktoren ab. Das Maß für die Kühlleistung eines Kühlers ist aber ausschließlich das DeltaT zwischen DIE-Sim Temperatur und Wassertemperatur im stationären Zustand – und zwar ausschließlich in diesem! Die Heizleistung hat darauf nur hinsichtlich der erzielten Werte Einfluss, aber nicht hinsichtlich des Wirkungsgrades. Im Prinzip könnte man auch mit 10W Heizleistung testen. In diesem Fall würden die Differenzen aber unmessbar und von der Realität wäre man himmelweit entfernt.Das DIE-Sim selbst hat auf die Heizleistung nur einen statischen Einfluss wie auch das Package einer CPU einen statischen Einfluss auf den Wärmeabfluss in andere Richtungen als zum Kühler hat. Würde man das DIE-Sim unisoliert betreiben, wäre bei einem massiven Kupferblock sicher ein recht erheblicher Abfluss von Wärme an die Umgebung zu verzeichnen. Die ist natürlich zu vermeiden. Aus diesem Grund haben wir eben den Aufwand mit der Isolierung getrieben. Es lässt sich zwar schwer messen, aber angesichts dessen, wie stark sich das PCB unter realen CPUs aufheizt, selbst wenn ein Wasserkühler auf der anderen Seite den Großteil der Abwärme abzieht, kann man ziemlich sicher sagen, dass unser mollig verpacktes DIE-Sim deutlich weniger Wärme an die Umgebung verliert, als an den Kühler. Von daher ist unser DIE-Sim vermutlich einiges „effizienter“ (in dem von dir gemeinten Sinne) was die Aufheizrate angeht, als eine übertaktete CPU, welche die gleiche nominelle elektrische Leistung aufnimmt. Unsere 150W bilden daher schon eher den Extremfall einer sehr stark übertakten CPU ab.Und bitte kommt mir jetzt nicht mit der TDP ;).
‚[LE said:
Al_bundy;431156′]es spielt keine rolle wieviel man an energie reinsteckt, entscheident ist was oberhalb am ihs ankommt. es geht sehr viel energie verloren wenn die wärmeenergie erst durch 10mm kupfer durch muss, anstatt durch weniger zehntel mm silizium.bei zeiten werde ich euch das darstellen können. extre nur für die skeptiker unter euch 😉Da bin ich ja sehr gespannt wie du den ersten Hauptsatz der Thermodynamik außer Kraft setzt :D. Wenn du das Die-Sim natürlich nicht isolierst, wird tatsächlich einiges in die Umgebung abfließen ;). Die Triebkraft der Wärmeübertragung ist der Temperaturgradient. Der Gegenspieler ist die Wärmeleitfähigkeit bzw. der spezifische Wärmewiderstand zwischen den Orten unterschiedlicher Temperatur. (und natürlich auch die Wärmeübergangskoeffizienten).
‚[LE said:
Al_bundy;431156′]bzgl. meines setups.es gibt in der tat einige dinge die nicht optimal sind, die jedoch redaktionel gesehen schon weiter über die norm liegt. ich hatte an den ding knapp 2 jahre gebaut und irgendwann muss man einen schlussstrich ziehen. optimierungen kann man immer vornehmen, da jedes setup optimierbar ist.da mein DIESim zu sehr verschlissen ist, und es seid geraumer zeit multicore cpu’s gibt sowie es zwischendurch finanziell etwas besser lief, habe ich mich für ein rebuild entschieden wo einige fehler (nicht alle) behoben werden. insbesondere auch die Anpressgeschichte.Das hört sich doch gut an :d:. Klar – man muss alte Hüte auch irgendwann mal umkrempeln oder durch Neue ersetzen ;). Da spricht nichts dagegen. Ich hoffe du setzt alle Erfahrungen die du mit dem ersten Prüfstand gewonnen hast bestmöglich in deinem ReBuild um. Versteif dich aber nicht zu sehr auf die High-Flow-Maßnahmen. Das ist nur ein Nebenkriegsschauplatz ;). Wird bestimmt auch ein sehr schöner Prüfstand! Freue mich schon auf´s nächst Update :)Der hier vorgestellte Prüfstand ist im Prinzip ja auch schon die zweite Generation (deshalb auch MK-Kühlerprüfstation Version2). Da hat sich in der Zwischenzeit insbesondere im Bereich des Temperaturabgleichs und vor allem im Auswertungsbereich gegenüber der nie offiziell in Betrieb genommen ersten Version schon Einiges getan. Ansonsten könnten wir auch mal ganz abgesehen von der verbesserten Mechanik nie die gute Reproduzierbarkeit erreichen die wir inzwischen haben. Die grundlegenden Arbeiten und Erkenntnisse die Bison damals federführend mit der ersten Version gewonnen hat, haben extrem viel zum letztendlichen Gelingen des Projekts beigetragen (nicht zuletzt aber auch zur Doku des Ganzen). Eine Weiterentwicklung ist also in jedem Fall sinnvoll und wird in deinem Falle sicher auch deinem ReBuild-Prüfstand zu Gute kommen ;).
-
14. Oktober 2010 um 20:10 Uhr #866288
[LE]Al_bundy
Teilnehmerleienhaft geschrieben liest sich der erste teil so, als ob ihr eure eigene umgebung schafft und die bestehenden setups (intel und amd) ignoriert, nicht nur weil es unwichtig ist zu differenzieren sondern auch da der aufwand zu groß wäre einmal pro jahr, oder spätestens 1x in 2 jahren einen neuen core zu installieren?!
„Natürlich kann es zu Verschiebungen im Ranking kommen, wenn man unterschiedliche DIE-Sim-Flächen einsetzt. Keine Frage – hab ich oben auch schon gesagt . Das ist aber nicht so rasend interessant, denn DIE-Flächen ändern sich ständig. Es hat daher aus unserer Sicht keinen Sinn sich auf ein bestimmtes Flächenlayout einzulassen, welches nach kurzer Zeit in der Realität nicht mehr vorkommt.“
Dieser Satz passt nicht zur folgenden aussage
„Im Übrigen zeigen die ersten Ergebnisse auch bereits wie unwichtig die Frage nach dem absolut besten Kühler für eine bestimmte CPU tatsächlich ist, wenn es nicht um die Jagd nach dem letzten Viertel-Grad geht, sondern einfach nur um gute Kühlung.“
„und wollen versuchen, damit vor allem Kühlerbastlern vernünftige Grundlagen an die Hand zu geben, indem wir versuchen die besten Prinzipien die zu besonders guten Kühlleistungen führen Stück für Stück heraus zu arbeiten. “
mit verstand kann man da nicht schreiben. denn es macht faktisch keinen sinn ob die cpu 50 oder 55°C hat. dennoch gibt es die typen die aufs zehntel grad aussind. und davon gibt es nicht zu wenig, insbesondere bei den kühlerbastlern mit viel ergeiz. da darf man sich nicht die frage nach sinn oder unsinn stellen. die typen sind da, und die wollen auch bedient werden. und die typen die auf testständen testen lassen wollen, erwarten das auch. anders als bei hobbybastlern die mit dremel und lötlampe arbeiten. die ermitteln das zu hause an ihre eigene cpu und freuen sich ergänzend auf werte eines teststandes so wie wir sie haben.
wenn es nur darum geht:
„und wollen versuchen, damit vor allem Kühlerbastlern vernünftige Grundlagen an die Hand zu geben, indem wir versuchen die besten Prinzipien die zu besonders guten Kühlleistungen führen Stück für Stück heraus zu arbeiten. “dann hätte es ein Crosshair 4 und ein 1055T auch getan. und man hätte sich nicht den kritischen aussagen stellen müssen, “ völligrealitätsfremd“ was auch nur bedingt stimmt und zugelassen werden kann.
Dann noch ein paar zeilen zu der core geschichte.
das fängt beim wärmeübergang fet core an, geht hin zu massiven kupfer, zu einen weiteren wärmeübergang core ihs, insbesondere deren fläche des DIE. umso größer die fläche des DIE desto mehr wärmenergie kann kann an den IHS abgegeben werden. hast du jetzt 30% weniger fläche am DIE, kommt defakto physikalus nicht so viel wärme zum ihs, was hier entweder als nichtig betrachtet wird, oder nicht bedacht wurde. isolierung hin oder her, das is ganz lustig, aber alles andere ist einer realen cpu, was den verlust der wärmeenergie zwischen erzeugungsort der wärmenergie und abgabeort der wärmenergie angeht, meilenweit unterlegen 😉
daher finde ich 150W schon etwas mager, um genau zu sein eher das minimum. da es ja nun um einen vergleich zu intel oder AMD nicht geht, kann auch die Verlustleistung abweichen, sodass die streuung der ergebnisse deutlicher wird. -> höherer dT -
14. Oktober 2010 um 23:10 Uhr #866316
[LE]Al_bundy
TeilnehmerAMD-ATI-Fan;431194 said:
hä? das ist doch bei einer normalen CPU nicht anderst als beim
bedingt ja.
AMD-ATI-Fan;431194 said:
Teststand: der DIE ist wesentlich kleiner als der IHS!hat niemand was anderes geschrieben 😉
AMD-ATI-Fan;431194 said:
wenn man jedes Jahr den kompletten heiz-Teil ersetzt ist das nicht nur Kostenaufwändig, sondern man müsste auch alle vorher getesteten Kühler nochmals testen, um vergleichbare Ergebnisse zu liefern 😉ein preis den man zahlen muss umein aktuelles setup präsentieren zu können.
wenn es um die kosten geht, dafür gibt es sponsoren 😉VJoe2max;431195 said:
Du kennst den WCP-Prüfstand nicht wahr? Und jetzt überleg mal wie das dort ablief . In ähnlicher Art und Weise wollen wir das auch machen.Die bestehenden DIE-Layouts von Intel und AMD sind überaus unterschiedlich es gibt x verschiedene Kerne auf dem Markt die sich in den Rechnern dieser Welt unter einer Wakü wiederfinden. Was hilft es einem User mit, sagen wir einem Gulftown-User, wenn du ein DIE-Sim einsetzt dass den Bloomfieldkern möglichst exakt abbildet, oder – noch extremer – einem Deneb-User wenn du einen Thuban-Kern simulierst. Erkennst du die Problematik? Derlei Kombinationen gibt es noch weit mehr und mit weit unterschiedlicheren DIE-Flächen. Kein Kühlertester der Welt würde auf die Idee kommen alle abzubilden. Nehmen wir also an du entscheidest dich für ein DIE-Sim, welches den Bloomfield-Kern abbildet (afaik hast du das ja getan). So schließt du nach deiner CPU-spezifischen Herangehensweise erst mal alle User mit CPUs aus die andere Kerne nutzen. Zumindest bietest du für diese User weniger brauchbare Ergebnisse an als für die Bloomfiel-Nutzer. Du bietest also effektiv, egal für welchen Kern du dich entscheidest, grundsätzlich für die überwiegende Mehrheit der Wakü User Ergebnisse die für deren CPUs wenig bis sehr wenig Aussagekraft haben. Lediglich die Nutzer des Kern für den du dich entschieden hast profitieren davon (sofern man das so sagen kann – ein Prüfstand ist wie gesagt keine CPU).
Unser Ansatz ist ein anderer. Wir testen mit einer DIE-Fläche die real so in keinem Kern bzw. nur annähernd bei einigen Kernen vorkommt. Im Mittel stimmt die Leistungsdichte die wir damit erzeugen aber besser mit einer größeren Anzahl an Kernen überein, als dein Bloomfield-DIE-Sim. Zudem ist es wie gesagt relativ egal auf welche Referenzfläche man sich bezieht (wenn sie nicht völlig unrealistisch für eine CPU ist), solange es darum geht heraus zu finden welche Kühltechnik eine besonders hohe Kühlwirkung erzeugt. Unser Kompromiss bei der Kühlfläche soll genau dem Rechnung tragen. Das Ranking was sich durch dieses Vorgehen ergibt, zum Einen ein klares Bild über den Einfluss der Kühltechnik auf die Kühlleistung an sich, und zum Anderen ergibt es für eine weit größere Zahl an DIEs ein Kühler-Ranking welches der Realität besser gerecht werden sollte als das Kühleranking was für einen bestimmten Kern optimiert ist. Von so einem Ranking wie bei dir profitiert genau genommen ja nur ein kleiner Bruchteil der User. Von einem Ranking wie es mit einem Kompromiss wie dem unseren zu erwarten ist, profitieren viel mehr User in ähnlicher Weise.
ja, bei mir profitiert nur eine kleine gruppe, bei core maßen die es real aber nicht gibt, profitiert keiner davon. ergo keine zielgruppe.
VJoe2max;431195 said:
‚[LE said:
Al_bundy;431165′]
Dann noch ein paar zeilen zu der core geschichte.
das fängt beim wärmeübergang fet core an, geht hin zu massiven kupfer, zu einen weiteren wärmeübergang core ihs, insbesondere deren fläche des DIE. umso größer die fläche des DIE desto mehr wärmenergie kann kann an den IHS abgegeben werden. hast du jetzt 30% weniger fläche am DIE, kommt defakto physikalus nicht so viel wärme zum ihs, was hier entweder als nichtig betrachtet wird, oder nicht bedacht wurde. isolierung hin oder her, das is ganz lustig, aber alles andere ist einer realen cpu, was den verlust der wärmeenergie zwischen erzeugungsort der wärmenergie und abgabeort der wärmenergie angeht, meilenweit unterlegen 😉Was soll man dazu sagen? Das ist ja peinlich, was du da von dir gibst.
Du hast da ganz offensichtlich noch einiges grundlegend nicht verstanden. Auf diesem Wissensniveau lohnt es sich hier wirklich nicht weiter zu diskutieren. Tut mir Leid, aber auf solche Albernheiten hab ich wirklich keine Lust.
Dir fehlen offensichtlich immer noch einfachste Grundlagen wie die Hauptsätze der Thermodynamik. Es verlangt ja niemand dass du die zugehörigen Formeln kennst oder die Definitionen aufsagen kannst, aber das was sie aussagen sollte jemandem der Wasserkühler baut und testet schon geläufig sein und er sollte auch die Konsequenzen dessen begreifen.
Hast du oben bei der Antwort auf ulvs Posting nur zugestimmt, weil du es nicht verstanden hast? Energie geht nicht verloren – nirgends und niemals. Ich habe das Wort Leistungsdichte hier im Verlauf mehrmals genutzt. Es scheint du hast nicht mal verstanden was das bedeutet.
Ich muss wirklich sagen – es tut mir fast weh, so über dich reden zu müssen, denn du machtest mir in letzter Zeit eigentlich den Eindruck, als ob du bezüglich der thermodynamsichen Grundlagen etwas dazu gelernt hättest. Erinnere dich z.B. auch an unsere Diskussionen zur Bedeutung der Reynoldszahl. Ich habe mich schon gefreut, dass die Nachhilfe diesbezüglich offenbar gefruchtet hatte, als ich auf deiner Shopseite irgendwann die Worte laminar und turbulent endlich im richtigen Zusammenhang lesen durfte. Offenbar habe ich mich aber wohl getäuscht…
Dabei habe ich dir extra viel Zeit gelassen das hier ^ zu korrigieren – hätte ja sein können, dass du die letzten Zeilen des Beitrags irgendwie halb abwesend oder mit was anderem beschäftigt geschrieben hast.Schreib mir ne PN – dann lösche ich den letzten Absatz deines Beitrags und das Zitat hier. Das ist doch nur peinlich für dich als Prüfstand-Betreiber und Kühler Hersteller.
PS: Das mag sich jetzt etwas hart für dich anhören, aber tu mir den Gefallen – werde nicht ausfallend, falls du darauf antworten möchtest. Ich sag das nur vorsichtshalber, weil ich ja schon öfters das zweifelhafte Vergnügen hatte in solchen Situationen und ich weiß, dass du gern angepi**t reagierst, wenn du Kritik einstecken musst. Du tust dir aber keinen Gefallen damit ;).
meinetwegen mach ich dazu auch ne messung und stelle dir die auswertung vor.
-
14. Oktober 2010 um 23:10 Uhr #866314
AMD-ATI-Fan
TeilnehmerDann noch ein paar zeilen zu der core geschichte.das fängt beim wärmeübergang fet core an, geht hin zu massiven kupfer, zu einen weiteren wärmeübergang core ihs, insbesondere deren fläche des DIE. umso größer die fläche des DIE desto mehr wärmenergie kann kann an den IHS abgegeben werden. hast du jetzt 30% weniger fläche am DIE, kommt defakto physikalus nicht so viel wärme zum ihs, was hier entweder als nichtig betrachtet wird, oder nicht bedacht wurde. isolierung hin oder her, das is ganz lustig, aber alles andere ist einer realen cpu, was den verlust der wärmeenergie zwischen erzeugungsort der wärmenergie und abgabeort der wärmenergie angeht, meilenweit unterlegen 😉
hä? das ist doch bei einer normalen CPU nicht anderst als beim Teststand: der DIE ist wesentlich kleiner als der IHS!und es geht nicht darum, dass die MKler zu faul zum wechseln währen
leienhaft geschrieben liest sich der erste teil so, als ob ihr eure eigene umgebung schafft und die bestehenden setups (intel und amd) ignoriert, nicht nur weil es unwichtig ist zu differenzieren sondern auch da der aufwand zu groß wäre einmal pro jahr, oder spätestens 1x in 2 jahren einen neuen core zu installieren?!
wenn man jedes Jahr den kompletten heiz-Teil ersetzt ist das nicht nur Kostenaufwändig, sondern man müsste auch alle vorher getesteten Kühler nochmals testen, um vergleichbare Ergebnisse zu liefern 😉
-
14. Oktober 2010 um 23:10 Uhr #866319
Oma-Hans
TeilnehmerAMD-ATI-Fan;431194 said:
…sondern man müsste auch alle vorher getesteten Kühler nochmals testen, um vergleichbare Ergebnisse zu liefern 😉Richtig. Daher sollte der Teststand meiner Meinung nach für einen gewissen Zeitraum mit einem gewisser DIE-Fläche (sei sie jetzt gemittelten, hochgerechnet, geschätzt, willkürlich gewählt; spielt keine Rolle) und def. Heizleistung ausgestattet bleiben um die Tests nicht zu verzerren. Mindestens 2 Jahre sind da in meinen Augen sinnvoll.Die Wechselintervalle richten sich eben nach dem Zweck. Will man dem User die Möglichkeit bieten auf aktuellen Kernen gegen ein paar Kaufkühler anzutretenoder will man eine Plattform bieten auf der er sich mit Bastelkonkurenten und Herstellern messen kann.Wenn ich als kleiner Kühlerbastler meinen Kühler testen lass, dann will ich nach einem Jahr immernoch wissen wo man Kühler im Vergleich zu den anderen steht. Sobald auf einen anderen DIE oder Heizelement umgestiegen wird sind die alten Messwerte hinfällig, denn ich glaub nicht dass die Hobbyisten bei jedem Wechsel ihren Kühler auf ein Neues einschicken wollen. Wieviele Bastelkühler kommen denn im Jahr rein? 5, 6? 10 wenns hochkommt? Würde ein etwas mageres Ranking geben wenn man nach einem Jahr auf einen neuen DIE umsteigt.Man bräuchte also fast zwei Teststände… :+ ;)Gute Nacht, Jens
-
14. Oktober 2010 um 23:10 Uhr #866315
VJoe2max
Teilnehmer‚[LE said:
Al_bundy;431165′]leienhaft geschrieben liest sich der erste teil so, als ob ihr eure eigene umgebung schafft und die bestehenden setups (intel und amd) ignoriert, nicht nur weil es unwichtig ist zu differenzieren sondern auch da der aufwand zu groß wäre einmal pro jahr, oder spätestens 1x in 2 jahren einen neuen core zu installieren?!Du kennst den WCP-Prüfstand nicht wahr? Und jetzt überleg mal wie das dort ablief ;). In ähnlicher Art und Weise wollen wir das auch machen. Die bestehenden DIE-Layouts von Intel und AMD sind überaus unterschiedlich es gibt x verschiedene Kerne auf dem Markt die sich in den Rechnern dieser Welt unter einer Wakü wiederfinden. Was hilft es einem User mit, sagen wir einem Gulftown-User, wenn du ein DIE-Sim einsetzt dass den Bloomfieldkern möglichst exakt abbildet, oder – noch extremer – einem Deneb-User wenn du einen Thuban-Kern simulierst. Erkennst du die Problematik? Derlei Kombinationen gibt es noch weit mehr und mit weit unterschiedlicheren DIE-Flächen. Kein Kühlertester der Welt würde auf die Idee kommen alle abzubilden. Nehmen wir also an du entscheidest dich für ein DIE-Sim, welches den Bloomfield-Kern abbildet (afaik hast du das ja getan). So schließt du nach deiner CPU-spezifischen Herangehensweise erst mal alle User mit CPUs aus die andere Kerne nutzen. Zumindest bietest du für diese User weniger brauchbare Ergebnisse an als für die Bloomfiel-Nutzer. Du bietest also effektiv, egal für welchen Kern du dich entscheidest, grundsätzlich für die überwiegende Mehrheit der Wakü User Ergebnisse die für deren CPUs wenig bis sehr wenig Aussagekraft haben. Lediglich die Nutzer des Kern für den du dich entschieden hast profitieren davon 😉 (sofern man das so sagen kann – ein Prüfstand ist wie gesagt keine CPU).Unser Ansatz ist ein anderer. Wir testen mit einer DIE-Fläche die real so in keinem Kern bzw. nur annähernd bei einigen Kernen vorkommt. Im Mittel stimmt die Leistungsdichte die wir damit erzeugen aber besser mit einer größeren Anzahl an Kernen überein, als dein Bloomfield-DIE-Sim. Zudem ist es wie gesagt relativ egal auf welche Referenzfläche man sich bezieht (wenn sie nicht völlig unrealistisch für eine CPU ist), solange es darum geht heraus zu finden welche Kühltechnik eine besonders hohe Kühlwirkung erzeugt. Unser Kompromiss bei der Kühlfläche soll genau dem Rechnung tragen. Das Ranking was sich durch dieses Vorgehen ergibt, zum Einen ein klares Bild über den Einfluss der Kühltechnik auf die Kühlleistung an sich, und zum Anderen ergibt es für eine weit größere Zahl an DIEs ein Kühler-Ranking welches der Realität besser gerecht werden sollte als das Kühleranking was für einen bestimmten Kern optimiert ist. Von so einem Ranking wie bei dir profitiert genau genommen ja nur ein kleiner Bruchteil der User. Von einem Ranking wie es mit einem Kompromiss wie dem unseren zu erwarten ist, profitieren viel mehr User in ähnlicher Weise. Da wir bei unseren Ergebnissen aber auch die Standardabweichungen in unseren Auswertebögen angeben können, wissen wir auch, und so hoffen wir auch die Profiteure unserer Tests, dass die Jagd nach dem letzten Zehntel-Grad schlicht sinnlos ist. Die Standardabweichungen sind natürlich um Längen besser ist als jede Messung auf echter Hardware. Das wissen zumindest alle die sich mit dem Thema CPU-Sensoren etwas eingehender befasst haben, nur zu gut :fresse:. Und das gilt wohlgemerkt bei ansonsten völlig einwandfreier Kalibrierung gegen Präzisionsthermometer. Im Übrigen auch für deinen Prüfstand ;).Wenn man eine komplette Fehlerrechnung anhängt müsste man auch noch die Genauigkeit des Kalibrierinstruments einbeziehen, aber das macht nicht viel aus. Wollte man tatsächlich an die viel beschworenen Zehntel-Grade heran kommen, müsste man jede Messung viele Male komplett wiederholen. Um sich an den Mittelwert besser heran zu pirschen. Schon bei 150W Heizleistung dauert aber allein das das erreichen des stationären Zustands ca. 20 min – hinzu kommt die Messzeit im stationären Zustand.Alles in allem dauert die Messung eines Kühlers nach unserer Prozedur mit drei Durchflussstufen Netto vier Stunden. Effektiv noch deutlich länger (inkl. Aufbau, Abbau und Auswertung). Es muss also ein Testlauf pro Durchflussstsufe reichen. Deshalb haben wir so lange an der Messgenauigkeit und der Kalibrierung geschraubt, bis wir einen Stand erreicht haben, bei dem wir sagen können, dass die Ergebnisse so genau wie möglich und auch sehr gut reproduzierbar sind. Einem Ranking im Sinne der technisch besten Kühlleistung steht so nicht viel im Wege, auch wenn im Laufe der Zeit mit Sicherheit einige Kühler auf gleichem Niveau liegen werden, wenn man die Standardabweichungen beachtet ;). In deinem letzten Kühler-Roudup lagen, gutmütig geschätzt, auch mindestens fünf Kühler auf gleichem Niveau an der Spitze ;). Hast du mal die Standardabweichungen deiner Messungen ausgewertet?
‚[LE said:
Al_bundy;431165′]Dieser Satz passt nicht zur folgenden aussage“Im Übrigen zeigen die ersten Ergebnisse auch bereits wie unwichtig die Frage nach dem absolut besten Kühler für eine bestimmte CPU tatsächlich ist, wenn es nicht um die Jagd nach dem letzten Viertel-Grad geht, sondern einfach nur um gute Kühlung.und wollen versuchen, damit vor allem Kühlerbastlern vernünftige Grundlagen an die Hand zu geben, indem wir versuchen die besten Prinzipien die zu besonders guten Kühlleistungen führen Stück für Stück heraus zu arbeiten. „mit verstand kann man da nicht schreiben.So so – ohne Verstand erst recht nicht 😉 :D. Welches Kühlprinzip das Beste ist ergibt sich daraus wie gut Kühler mit einer bestimmten Kühltechnik abschneiden. Was genau der Grund ist muss in Diskussionen geklärt werden die sich auf die Grundlage der Tests stützen können. Es bleibt zu hoffen, das sich die Erkenntnisse nutzbringend umsetzen lassen. Nur so kann man in dem Bereich weiter kommen ;). Die Jagd nach dem letzten Viertel-Grad ist eine Spielwiese auf der sich schon genügend andere austoben – aber das hat aber eben nicht viel mit realen Unterschieden zu tun sondern her mit Marketing und der Leichtgläubigkeit vieler Nutzer. Siehe oben ^ ^
‚[LE said:
Al_bundy;431165′]denn es macht faktisch keinen sinn ob die cpu 50 oder 55°C hat.Das ist effektiv egal – da hast du recht ;).
‚[LE said:
Al_bundy;431165′]dennoch gibt es die typen die aufs zehntel grad aussind. und davon gibt es nicht zu wenig, insbesondere bei den kühlerbastlern mit viel ergeiz. da darf man sich nicht die frage nach sinn oder unsinn stellen. die typen sind da, und die wollen auch bedient werden. und die typen die auf testständen testen lassen wollen, erwarten das auch.Die Anzahl ambitionierter Bastlerprojekte die ernsthaft darauf aus sind die kommerzielle Konkurrenz zu schlagen überschätzt du glaub ich ein klein wenig ;). Die kann man vermutlich an zwei Händen abzählen. Nichts desto trotz können gerade die besonders von genauen Ergebnissen profitieren wie wir die zu den jeweiligen Probanden liefern können. Die „Typen“ sind unter anderen unsere geschätzten MK-User und wir können sie nun mit fundierten Messungen „bedienen“ ;).
‚[LE said:
Al_bundy;431165′]anders als bei hobbybastlern die mit dremel und lötlampe arbeiten. die ermitteln das zu hause an ihre eigene cpu und freuen sich ergänzend auf werte eines teststandes so wie wir sie haben.Auch solche Kühler lohnt es sich mal unter dir Lupe zu nehmen. Nicht jeder will gleich in die Oberliga einsteigen, aber um seinen Kühler zu verbessern sind vernünftigen Testwerte und eine Platzierung in den Kühlerchart´s für Bastlerkühler sicher aufschlussreich und vllt. auch ein Ansporn. So ist es zumindest gedacht ;).
‚[LE said:
Al_bundy;431165′]wenn es nur darum geht:“und wollen versuchen, damit vor allem Kühlerbastlern vernünftige Grundlagen an die Hand zu geben, indem wir versuchen die besten Prinzipien die zu besonders guten Kühlleistungen führen Stück für Stück heraus zu arbeiten. „dann hätte es ein Crosshair 4 und ein 1055T auch getan. und man hätte sich nicht den kritischen aussagen stellen müssen, “ völligrealitätsfremd“ was auch nur bedingt stimmt und zugelassen werden kann.Warum so ein aggressiver Tonfall? Wir stellen uns, wie du vllt. gemerkt hast, sehr gern deinen kritischen Äußerungen ;). Nein – ein Test auf Hardware ist dafür völlig unsinnig. Mal abgesehen von dem besonders schlechten Vorschlag gerade diese CPU dafür zu verwenden. Abgesehen davon wäre es äußerst verwegen anzunehmen, dass man so auch in ein paar Jahren noch Vergleiche anstellen könnte. Diese Art Kasperle-Theater brauchen wir nicht in einer ernsthaften Diskussion über den Prüfstand. Ich führe das jetzt aber nicht weiter aus – die Nachteile von Hardwaremessungen wurden schon ausführlich genug besprochen. Wenn du keine vernünftigen Vorschläge hast, wäre es vllt. besser nichts zu sagen ;).
-
15. Oktober 2010 um 0:10 Uhr #866323
VJoe2max
Teilnehmer@Jens: Wie bei WCP früher eben ;). Wenn man sich den Ansatz anschaut nach dem wir uns für die DIE-Fläche entschieden haben, ist es, wie die die Erfahrung über inzwischen viele Jahre zeigt eigentlich überhaupt nicht nötig die Fläche zu ändern. Die mittleren DIE-Größen haben über die letzten Jahren nur wenig geschwankt. Natürlich gab es immer mal wieder einen besonders großen Chip oder auch mal eine besonders kleinen, aber im Wesentlichen wurden die Kerne seit P4 und AthlonXP-Zeiten im Schnitt nicht sehr viel größer (ein bisschen größer wurden sie aber nicht viel). Seit es MultiCores gibt, streut die Chipgröße über die inzwischen recht unüberschaubare Kernflut recht stark, aber außer den anfänglich verwendeten packages mit zwei Einzelkernen war da entgeltlich nichts dabei was eine Änderungen der mittleren DIE-Größe bei einem Simulator mit sich hätte zwangsweise bringen müssen. @Audidude: Und genau auf diese Zielgruppe ist der Prüfstand ausgerichtet. Es ist ein MK-Prüfstand und nicht ein x-beliebiger Prüfstand der versucht die Ergebnisse anderer zu imitieren oder reale Prozessoren abzubilden – davon gibt es schon einige (teilweise wirklich keine schlechten – da gehört imo auch Marcs bisheriger Prüfstand dazu). Wir haben, wie auch in der Doku beschreiben, lediglich versucht die für unsere Zielsetzung am besten erscheinenden Methoden zu kombinieren und bei Bedarf zu optimieren. An vielen Stellen haben wir uns dann eben selber was einfallen lassen und es so gelöst, dass wir es am Ende für gut befinden konnten. Das war im Prinzip ja schon Bisons Ansatz zu Beginn des Projekts und ich denke wir haben es, wenn auch ein wenig schleppend, zu einem brauchbaren Ergebnis gebracht. @Marc: Hast ne PN ;).Edit: Wenn du wirklich messen willst – mach den Versuch einmal mit nacktem DIE-Sim und einmal mit sauber isoliertem DIE-Sim. Du wirst erstaunt sein ;).
-
15. Oktober 2010 um 0:10 Uhr #866322
Audiodude
TeilnehmerEine gleichbleibende Die Fläche finde ich auch wesentlich besser als die „Korinthenkackerei“ mit der ewigen Anpassung (sorry aber das musste mal gesagt werden). Ich denke das in diesem Forum nicht unbedingt die User vertreten sind die sich um Zehntel Grad sorgen machen. Wichtig sind mir z.B. grundsätzliche Unterschiede und eine lange Vergleichbarkeit.
Greetz Audiodude
-
15. Oktober 2010 um 10:10 Uhr #866289
[LE]Al_bundy
Teilnehmermal etwas grundsätzliches.
mir ist es egal wie bei mk getestet wird. auch gibt es einige leute die theoretische sehr viel ahnung haben sowie den einen oder anderen der praktisch schon einige tests absolviert hat. für das wofür sie sich entschieden haben gibt es in ihren augen gute gründe….…
es genügt wenn man mit einen DIESIM testet. ob nun CPUreal angelehnt oder via leistungsdichte orientiert spielt keine rolle um aussagekräftige ergebnisse für einen kühler zu bekommen.
man muss aber damit rechnen, das wenn ein Core getauscht wird, und man nochmal alle kühler testen würde, das dann die zuvor ermittelten rankings unter umständen nicht mehr reproduzierbar mit den neuen Core sind. was auch tatsächlich so ist, und was joe auch eingeräumt hat.aber wenn man das schon macht, und auch die möglichkeit hat, dann finde ich es besser etwas konkretes was es real auch gibt herzunehmen, anstatt mich anhand der leistungsdichte zu orientieren mit Core abmessungen die es gar nicht gibt.
wie gesagt ist das nicht kriegsentscheident. aber es so dastehen zu lassen und zu sagen es geht uns nix an. wir haben ne leistungsdichte und damit hat sichs. besagt nur aus, “ egal was intel oder amd hat, wir liegen inne mitte und sind glücklich.
auf gut deutsch hast das nur. das ihr jeden, und gar keine als zielgruppe habt. jeden, da ihr euch der leistungsdichte angelehnt habt, aber niemanden, weil es niemanden gibt der seinen kühler auf diese core dimensinen betreibt. wenn man sich etwas existierendes herausgesucht hätte, hätte man zumindest speziell einen sektor vollständig abgedeckt. -
15. Oktober 2010 um 10:10 Uhr #866350
littledevil
TeilnehmerMit wieviel verschiedenen CPU’s müsste man Deiner Meinung nach alle Test aktuell wierholen, um alle glücklich zu machen ❓
-
15. Oktober 2010 um 10:10 Uhr #866348
[LE]Al_bundy
Teilnehmerfrank hat sein teststand alle 2 jahre geupdatet. das ist auch gar nicht so abwägig wie ich vorgeschlagen habe sowie wie jens das auch angesprochen hat. wo ist also das problem…
es muss nunmal nicht unbedingt reichen sich an der leistungsdichte zu orientieren. was mein test aufzeigen wird. DIE größe von 12x16mm und DIE größe von 16x24mm machen einen unterschied. insbesondore wenn auch noch mit unterschiedlich dicken Cores ( 10mm Vs 5mm) gemessen wird. wäre ich jetzt zu hause hätte ich auch auch ne simmi der wärmeverteilung sowie was kommt wann wo an zeigen können… -
15. Oktober 2010 um 11:10 Uhr #866353
ulv
Teilnehmer‚[LE said:
Al_bundy;431236′]
… es genügt wenn man mit einen DIESIM testet. ob nun CPUreal angelehnt oder via leistungsdichte orientiert spielt keine rolle um aussagekräftige ergebnisse für einen kühler zu bekommen.
man muss aber damit rechnen, das wenn ein Core getauscht wird, und man nochmal alle kühler testen würde, das dann die zuvor ermittelten rankings unter umständen nicht mehr reproduzierbar mit den neuen Core sind. was auch tatsächlich so ist, und was joe auch eingeräumt hat.aber wenn man das schon macht, und auch die möglichkeit hat, dann finde ich es besser etwas konkretes was es real auch gibt herzunehmen, anstatt mich anhand der leistungsdichte zu orientieren mit Core abmessungen die es gar nicht gibt.
wie gesagt ist das nicht kriegsentscheident. aber es so dastehen zu lassen und zu sagen es geht uns nix an. wir haben ne leistungsdichte und damit hat sichs. besagt nur aus, “ egal was intel oder amd hat, wir liegen inne mitte und sind glücklich.
auf gut deutsch hast das nur. das ihr jeden, und gar keine als zielgruppe habt. jeden, da ihr euch der leistungsdichte angelehnt habt, aber niemanden, weil es niemanden gibt der seinen kühler auf diese core dimensinen betreibt. wenn man sich etwas existierendes herausgesucht hätte, hätte man zumindest speziell einen sektor vollständig abgedeckt.Ich kann das nur nochmal untersteichen:
Du bist der Meinung, dass man das DIE-Sim an einer realen Fläche eines Cores festmachen soll. <- Das versteh ich gut. Fände ich auch Sinnvoll. :d: Wir sind anderer Meinung und haben wie du selbst schreibst ebenfalls gute Gründe. Das was ich jetzt schreibe soll dich nicht von deiner Meinung abbringen, aber für mich gilt dennoch: - Idealerweise müsste man verschiedene DIE-Sims haben. -> Für uns ist der Aufwand dann aber zumindest im Moment zu groß.
– Auch wenn man ein Original-Die verwendet hat man streng genommen – zugegebenermaßen sehr streng genommen – auch keine Zielgruppe, weil da gibt es noch verschiedene Steppings, verschiedene Last (single, multicore), verschiedene VCore, verschiende Sockelhersteller, verschiedene Mainboards, verschiedene Kühlerbefestigungen (insbesondere auf der Mainboard-Rückseite) und und und nicht zu vergessen nicht alle User verbraten genau 150 Watt. 😉
Uns sind diese Limitationen durchaus klar. Und Dir natürlich auch.Wir haben uns jetzt halt so entschieden und ehrlich gesagt bringen uns wenn überhaupt nur stichhaltige Messungen von dir eventuell davon ab.
Selbst wenn wir die Zeit und auch die unterschiedlichen DIE-SIMs alle hier liegen hätten wage ich mal zu sagen wir würden dennoch lieber noch einen zusätzlichen Durchfluß-Level testen bevor wir das DIE-SIM wechseln würden.
Ich will dich nicht umstimmen, ganz im Gegenteil ich freue mich sogar auf deine Ergebnisse. Insbesondere den Teil, den du mit deinen unterschiedlichen DIEs messen wirst.
-
15. Oktober 2010 um 11:10 Uhr #866317
VJoe2max
Teilnehmer‚[LE said:
Al_bundy;431236′]mal etwas grundsätzliches.mir ist es egal wie bei mk getestet wird. auch gibt es einige leute die theoretische sehr viel ahnung haben sowie den einen oder anderen der praktisch schon einige tests absolviert hat. für das wofür sie sich entschieden haben gibt es in ihren augen gute gründe….Sehr gut :). Dann sind wir da ja auf einer Wellenlänge :d:.Wir haben ebenfalls kein Problem damit wie du und andere testen. Das machte jeder Prüfstandsbetreiber am besten so wie er es für vernünftig erachtet. Wenn klar ist was mit der jeweiligen Methodik bezweckt wird und warum man sich so oder so entschieden hat, kann auch jeder Nutzer die jeweiligen Ergebnisse für sich am nutzbringendsten interpretieren.
‚[LE said:
Al_bundy;431236′]…es genügt wenn man mit einen DIESIM testet. ob nun CPUreal angelehnt oder via leistungsdichte orientiert spielt keine rolle um aussagekräftige ergebnisse für einen kühler zu bekommen.man muss aber damit rechnen, das wenn ein Core getauscht wird, und man nochmal alle kühler testen würde, das dann die zuvor ermittelten rankings unter umständen nicht mehr reproduzierbar mit den neuen Core sind. was auch tatsächlich so ist, und was joe auch eingeräumt hat.Absolut einverstanden ;).
‚[LE said:
Al_bundy;431236′]aber wenn man das schon macht, und auch die möglichkeit hat, dann finde ich es besser etwas konkretes was es real auch gibt herzunehmen, anstatt mich anhand der leistungsdichte zu orientieren mit Core abmessungen die es gar nicht gibt.Diese Ansicht sei dir unbenommen und ich denke es gibt sicher auch eine große Gruppe von Leuten die das ähnlich sehen wie du. Es gibt aber ebenso viele User die andere Prioritäten bei physikalischen Prüfständen setzen. Diese User wollen wir ansprechen.
‚[LE said:
Al_bundy;431236′]wie gesagt ist das nicht kriegsentscheident. aber es so dastehen zu lassen und zu sagen es geht uns nix an. wir haben ne leistungsdichte und damit hat sichs. besagt nur aus, “ egal was intel oder amd hat, wir liegen inne mitte und sind glücklich.auf gut deutsch hast das nur. das ihr jeden, und gar keine als zielgruppe habt. jeden, da ihr euch der leistungsdichte angelehnt habt, aber niemanden, weil es niemanden gibt der seinen kühler auf diese core dimensinen betreibt. wenn man sich etwas existierendes herausgesucht hätte, hätte man zumindest speziell einen sektor vollständig abgedeckt.Da gebe ich dir ebenfalls recht. Es ist absolut nicht ausschlaggebend, sondern es sind lediglich Spielarten die jeweils auf eine bestimmte Zielsetzung hin genutzt werden können. Aber wie gesagt: Auch ein DIE-Sim mit den exakten Abmessungen einer realen CPU ist eben keine reale CPU. Mit diesem Umstand muss man so oder so leben. Man kann damit aber viel besser und vor allem genauer messen als mit jeder realen CPU und hat gegenüber einen realen Setup eine weit bessere Reproduzierbarkeit, wenn der Aufbau stimmt. Das sind mit die Hauptgründe, warum man Ergebnissen physikalischer Prüfstände, was die tatsächlichen Unterschiede zwischen Kühlern angeht, wesentlich mehr vertrauen kann als Hardwaretests jeder Art – ganz unabhängig davon welches DIE-Sim nun verwendet wird. Letztendlich sind die Rankings die man mit Kühlertests egal welcher Machart erhält aber nie zu 100% auf ein System beim Enduser übertragbar. Dennoch zeigt so ein Ranking eben die prinzipiellen Leistungsunterschiede sehr gut auf, und darum geht es uns primär ;). Letztlich zeigt sich das aber natürlich auch auf der Mehrheit aller realen Systeme. Bei extremen CPU-Kern-Größen (kleine wie große) oder Kernen mit besonders hohem Aspektverhältnis wird es immer zu leichten Verschiebungen der Rankings kommen. An der grundsätzlichen Leitungsfähigkeit eines Kühlers ändert das aber wenig. Es wäre im Übrigen auch unklug von den Herstellern, wenn man die Kühler auf ein bestimmtes DIE-Layout hin optimieren würde, wo doch die Produktlebenszyklen von Kühlern in aller Regel die von CPUs bei weitem übersteigen und sich auch immer nur ein sehr kleiner Abnehmerkreis finden würde. Etwas anderes sind Kühlerdesigns, die z.B. durch verschiedene Düsenplatten oder ähnliche Optionen in gewissen Grenzen an verschiedene Kühlbedingungen angepasst werden können….Auf einer Vielzahl von CPUs sollten die Rankings die wir mit der MK-Prüfstation erstellen können demnach sehr gut übertragbar sein. Insbesondere wenn die reale Abgabefläche des CPU-Kerns der DIE-Sim-Fläche und Geometrie recht ähnlich wie ist – was für eine Vielzahl von CPUs zutrifft. So ist zumindest unser Kalkül. Bei der Simulation einer realen CPU kommt es hingegen darauf an, für was sich der Tester entschieden hat, ob die Ergebnisse für ein reales Setup mit anderer CPU einigermaßen brauchbar sind oder eben relativ weit weg von den realen Gegebenheiten.
-
15. Oktober 2010 um 11:10 Uhr #866354
[LE]Al_bundy
Teilnehmeraufgrund des einen unterschiedlich entstehenden hotspots des Cores oberhalb des ihs, in verbindung mit zweier unterschidlich großen DIEflächen ( beispielsweise 12x16mm und 24x16mm)
kann man dann leider nicht mehr sagen.“ An der grundsätzlichen Leitungsfähigkeit eines Kühlers ändert das aber wenig“
insbesondere wie ich oben schon erwähnt habe, was du ja ebenfalls einräumst
„Bei extremen CPU-Kern-Größen (kleine wie große) oder Kerne mit besonders hohem Aspektverhältnis wird es immer zu leichten Verschiebungen der Rankings kommen.“
das steht in direkten zusammenhang und somit ist das ein wiederspruch. aktuelles beispiel Phobya cpu kühler. das es diese differenz gibt ist durch tests also faktisch belegt. auch wenn diese tests auf cpu durchgeführt wurden.
€dit:
auf unterschiedlichen DIEsims zutesten istnachvollziehbar zuviel arbeit und wird wohl auch niemand tun sofern er dafür nicht dementsprechend bezahlt wird. das ist einfach zuviel aufwand der auch nur einen extrem minimalen nutzen aufweist. hinzu macht das wie erwähnt auch nur sinn bei extremos. -
15. Oktober 2010 um 12:10 Uhr #866358
littledevil
TeilnehmerUnd wer garantiert, das die Temperatursensoren der einzelnen CPU’s aussagekräftige werte liefern?
Bei der Verwendung verschiedener Die-Sims müsste man also auch noch mit mehreren Sensoren für die einzelnen Kernbereiche arbeiten.
-
15. Oktober 2010 um 13:10 Uhr #866360
[LE]Al_bundy
Teilnehmerlol
niemand. es sind annäherungswerte. genau wie simulationen nur annäherungswerte sind. aber, beides wird sich desöfteren mit werten eines teststandes decken. somit können diese als vergleiche hergenommen werden, auch wenn diese nicht wirklich soviel gewicht haben wie werte eines teststandes. -
15. Oktober 2010 um 13:10 Uhr #866361
littledevil
TeilnehmerDiese Aussage hat dann wohl keinen Wert:
aktuelles beispiel Phobya cpu kühler. das es diese differenz gibt ist durch tests also faktisch belegt.
-
15. Oktober 2010 um 13:10 Uhr #866363
[LE]Al_bundy
Teilnehmerdoch^^
-
15. Oktober 2010 um 14:10 Uhr #866371
VJoe2max
Teilnehmer@Marc: Hast ne PN
‚[LE said:
Al_bundy;431240′]
“ An der grundsätzlichen Leitungsfähigkeit eines Kühlers ändert das aber wenig“insbesondere wie ich oben schon erwähnt habe, was du ja ebenfalls einräumst
„Bei extremen CPU-Kern-Größen (kleine wie große) oder Kerne mit besonders hohem Aspektverhältnis wird es immer zu leichten Verschiebungen der Rankings kommen.“
das steht in direkten zusammenhang und somit ist das ein wiederspruch. aktuelles beispiel Phobya cpu kühler. das es diese differenz gibt ist durch tests also faktisch belegt. auch wenn diese tests auf cpu durchgeführt wurden.
Da ist kein Widerspruch ;). Die generelle/grundsätzliche/durchschnittliche Leistungsfähigkeit eines Kühlers im Vergleich zu anderen Kühlern bestimmt sich nach seiner durchschnittlichen Kühlleistung auf allen in Frage kommenden CPUs im Vergleich zu anderen Kühlern.
Da das nicht gemessen werden kann, messen wir auf einer durchschnittlichen DIE-Fläche und erhalten so ein Ranking, welches diese Leistungsfähigkeit von Kühlern unterschiedlicher Bauart hoffentlich gut zeigt.Dass auf einer CPU mit einem DIE, dessen Fläche und Form stark vom Durchschnitt abweicht, ein Kühler der im Ranking knapp hinter einem anderen liegt, u.U. ein Quäntchen besser auf dieser CPU performt ist möglich.
Dass aber ein Kühler der im Ranking fernab von gut und Böse liegt, auf einem anderen DIE-Sim oder auch einer andern realen CPU plötzlich die Leistungsspitze übernimmt ist so gut wie ausgeschlossen. So große Unterschiede gibt es zwischen den DIEs nun auch wieder nicht und erst recht keine so speziell angepassten Kühler.
Das der Phobya-Kühler auf bestimmten CPUs besser kühlt als auf anderen ist ja eine schöne Praxiserfahrung, die man mit verschiedenen DIE-Sims auch auf einem Prüfstand vllt. nachstellen kann, aber an seiner durchschnittlichen Leitungsfähigkeit ändert das dennoch nichts ;).
-
15. Oktober 2010 um 14:10 Uhr #866376
Neptun
ModeratorVJoe2max;431257 said:
@Marc: Hast ne PN
.kein kummeln hinter der Bühne .. ich will auch wissen, was in der PN stand 😉
-
15. Oktober 2010 um 14:10 Uhr #866372
[LE]Al_bundy
Teilnehmerdann sollte man das auch schreiben was womöglich vergessen wurde.
wenn cpu und brett keine aussagekraft hätten was defakto nicht der fall ist, würden diese rankings deutlich anders aussehen als rankings mit kühlertestständen. was nicht der fall ist. -
15. Oktober 2010 um 23:10 Uhr #866440
orw.Anonymous
TeilnehmerNeptun;431262 said:
VJoe2max;431257 said:
@Marc: Hast ne PN
.kein kummeln hinter der Bühne .. ich will auch wissen, was in der PN stand 😉
Ich hingegen nicht.
Gut, mit diesem Dummfug nicht mehr zu tun haben zu müssen. Der vermeintlich unerklärliche verfrühte Abgang eines Ehemaligen aus dem Bereich Hannover macht inzwischen Sinn.Da probiert das Trampeltier doch lieber den 5. Anflug auf Salzburg, ohne Absturz. 🙂
Wünsche euch das Beste ❗
-
18. Oktober 2010 um 14:10 Uhr #866756
[LE]Al_bundy
TeilnehmerAnbei die Simmis…
Alle Teile haben Werkstoffe zugewiesen bekommen. Schichtdicke der WLP sowie die Schichtdicke der Lötschicht habe ich bei 3/100mm belassen. die isolierung nach außenhin beträgt 11.5mm
Alle Simmis basieren auf den selben Setup. Einzig der Core wurde gegen einen dünneren, bzw einen mit anderer DIEFläche getauscht. Darüber hinaus gibt es eine Simmi ohne Isolierung.
Man kann erkennen das es durchaus Unterschiede gibt wie groß die DIEfläche ist. Hingegen eines dünneren Cores gibt es kaum Unterschiede, wobei man erwähnen muss das das meiste nur in den ersten 1-2mm passiert (am IHS). Daraufhin sind bei einen 4.8mm und 9.8mm Core kaum Unterschiede Sichtbar, hingegen einer CPU und den hier verwendeten Cores jedoch schon.
Jeder kann sich jetzt sein eigenes Bild machen und die Simmibilder deuten.
Um es deutlicher erkennbar zu machen pro Simmi 2 Temperaturbereiche.Hier mal die Bilder
http://www.liquid-extasy.de/files/auswertung/diesim/diesim.pngTemperaturbereich 298-308K
http://www.liquid-extasy.de/files/auswertung/298_308/9.8vs4.8.jpg
http://www.liquid-extasy.de/files/auswertung/298_308/24x16_non_iso_vs_iso.jpgTemperaturbereich 299-304K
http://www.liquid-extasy.de/files/auswertung/299_304/9.8vs4.8_2.jpg
http://www.liquid-extasy.de/files/auswertung/299_304/24x16_non_iso_vs_iso_2.jpgselbiges ergebnis wird in den praxistests auch rauskommen die ich später dann noch machen werde. somit sind einige thesen wiederlegt und es können neue schlussfolgerungen entstehen.
-
18. Oktober 2010 um 16:10 Uhr #866764
VJoe2max
Teilnehmer@Jürgen: Viel Spaß in den virtuellen Lüften und danke für die guten Wünsche ;). Was deinen Abgang angeht, bewertest du den Überraschungseffekt und die Wahl des Zeitpunkts glaub ich etwas über ;). @Marc: Schön, das du dir die Mühe mit den Simulationen gemacht hast! Die Bilder zeigen eigentlich recht gut alles was ich oben schon gesagt habe. Nur beim Einfluss der Isolation ist der Ansatz imho noch nicht so ganz ausgereift. Da müsste mehr zu sehen sein…Bei unterschiedlicher DIE-Fläche ändert sich selbstverständlich die Leistungsdichte und damit die Temperaturverteilung – das war nicht anders zu erwarten und wird schön verdeutlicht (wenn auch an etwas übertriebenen Beispielen, wenn die Flächenangaben unter den Bildern stimmen). Dass unterschiedliche Flächen unterschiedliche Leistungsdichten hervorrufen ist aber sowieso unstrittig und trivial. Das zeigt auch schon mal, dass die Simulationen nicht ganz verkehrt sind. Im Übrigen widerspricht das in keiner Weise der Tatsache, dass exakt die gleiche Wärmemenge übertragen wird. Ich glaube du hast da immer noch ein wenig Probleme mit dem Unterschied zwischen Temperaturen (Wirkung) und Energiemengen/Fläche (Ursache). Du stellst hier nur Temperaturen dar und nicht die übertragene Leistung. Diese ist bei sonst gleichen Bedingungen (hinsichtlich Isolation oder eben ohne) völlig unabhängig von der DIE-Fläche. Die übertragene Leistung entspricht unabhängig von der DIE-Fläche und der sich einstellenden Temperaturverteilung immer der eingespeisten elektrischen Leistung minus den Verlusten an die Umgebung, welche man durch Isolation bzw. Vermeidung von Konvektion um das DIE-Sim minimiert. Die Temperaturverteilung zeigt lediglich an an welcher Stelle welche Energiemenge übertragen wird. Über die gesamte Übertagungsfläche ist sie immer identisch, wenn eingespeiste Energie und Abfluss in die Umgebung gleich bleiben ;).Die Unterschiedliche Temperaturverteilung ist btw ja der Grund dafür, dass ein und derselbe Kühler auf unterschiedlichen CPUs unterschiedlich effektiv sein kann. Das kann dann besagte Unterschiede im Ranking ausmachen, wenn unterschiedliche DIE-Flächen simuliert werden.Das Flächenverhältnis in den Beispielen von 192/624mm² ist aber etwas extrem gewählt – oder ist das ein Tippfehler in den Bildern? Gibt es überhaupt ein DIE mit 26x24mm Kantenlänge? Selbst ein Thuban hat „nur“ 346mm² DIE-Fläche. Größere DIEs sind mir eigentlich nur von GPUs bekannt…Lediglich der Einfluss der Isolation kommt mir bei den Bildern etwas gering vor. Welche Wärmeleitfähigkeit hast du für das Isoliermaterial angesetzt und welche Konvektionsbedingungen hast du für den nicht isolierten Fall angesetzt?Was die geringen Unterschiede bei der Temperaturverteilung hinsichtlich den Core-Dicken angeht, ist das auch zu erwarten gewesen. An der Energiebilanz ändert auch das natürlich ebenfalls nichts. Eine größere Core-Dicke homogenisiert eben einfach die Temperatur der DIE-Fläche besser. Allerdings sieht man teilweise auch, dass die Tempsensor-Bohrung das Temperaturfeld sichtbar verzerren kann. Das lässt sich leider kaum vermeiden.Ohne die verwendeten Wärmeleitfähigkeiten, die Info ob hier ein Schnappschuss aus dem Aufheizvorgang oder ein stationärer Zustand vorliegt und wenn es ein stationärer Zustand ist, welche boundary conditions bezüglich Wärmeabfuhr angesetzt wurden ist das alles rein qualitativ. Im Übrigen ist ein Simulation grundsätzlich erst vollständig wenn sie experimentell validiert wurde ;). Dass das alles aber auch schon rein qualitativ so gut hin kommt hätte ich gar nicht gedacht :). Die Bilder bestätigen eigentlich recht gut, dass wir alles richtig gemacht haben im Hinblick auf unsere Zielsetzung :d:
-
18. Oktober 2010 um 17:10 Uhr #866767
[LE]Al_bundy
TeilnehmerSchriftfehler: Anstatt 26×24 meine ich 16×24. Fehlerteufel!
Weitere Angaben und Bilder heute Abend. Dazu noch einiges am Rand. Vieles legst du wohl so aus wie es dir passt bzw. sind nur Mutmaßungen. Das ihr mit eurer Wahl nichts großartig falsch gemacht habt steht außer Frage!
Jedoch einige Aussagen und Ansichten passen halt einfach nicht, auch wenn Diese Aufgrund von Berechnungsgrundlagen anders aussehen mögen. Die Realität ist oft genug anders als im Reagenzglas oder auf dem Papier. -
18. Oktober 2010 um 18:10 Uhr #866778
VJoe2max
TeilnehmerIch lege nur das aus was ich sehe und das stimmt recht gut mit dem überein was ich erwartet hatte 😉 – mal abgesehen vom augenscheinlich etwas geringen Einfluss der Isolierung auf die Temperaturverteilung. Das kann verschiedene Gründen haben. Ohne zusätzlich Angaben ist das nicht zu klären. Dass man ohne zusätzliche Angaben quantiativ nichts daraus ableiten kann hebe ich schon geschrieben. Qualitativ passt es aber sonst wie gesagt recht gut zu dem was auch rein theoretisch zu erwarten war. Der Energierhaltungssatz gilt halt nun mal ohne Ausnahme – da kommst weder du noch deine Simulation drum herum ;). Dass das so ist, muss man auch nicht ausrechnen – das zeigt die Praxis in vielen schönen Beispielen und einfachen Versuchen die jeder aus der Schule kennt. Du verkennst im Übrigen auch, dass wir hier ebenfalls keine Wissenschaft betreiben sondern genau wie du praktisch orientiert arbeiten und uns dabei ebenfalls auf unsere Erfahrungen und unser angesammeltes Wissen stützen. Allerdings versuchen wir zusätzlich diese Erfahrungen und Ergebnisse eben auch anhand den Erkenntnissen aus theoretischen Grundlagen zumindest einigermaßen zu validieren, um so möglichen Fehlern auf die Spur zu kommen und Missinterpretationen zu vermeiden. Es kann z.B. schlicht und einfach nicht passieren, dass Energie beim Transport durch des DIE-Sim verloren geht. Das ist nicht möglich. Ebenso wie eine Wasserkühlung in der Gesamtbilanz immer exakt den Betrag an Wärmeleistung abführt den sie insgesamt aufnimmt, gibt ein DIE-Sim in der Bilanz exakt die Leistung ab die es auch ausgenommen hat. Es geht nicht anders. Alles andere wäre eine Verletzung des 1. Hauptsatzes und damit unmöglich.Wie sich unterschiedliche Leistungsdichten, wie sie sich durch unterschiedlich DIE-Flächen ergeben auf das Temperaturfeld auswirken, ist hingegen lediglich die Folge davon, dass die gleiche Energiemenge durch einen kleineren oder größeren Querschnitt übertragen wird. An der Energiemenge ändert sich dadurch nichts. Dies zeigen deine Simulationen qualtiativ auch schon sehr schön. Würde man eine Farbwertauswertung auf die Bilder anwenden kämen auch quantitativ in jedem Fall die gleichen Werte heraus – wäre es anders widerspräche die Simulation ebenfalls dem 1.Hauptsatz und wäre damit ungültig. Dass dem aber nicht so ist zeigt schon der qualitative Augenschein. Der große Vorteil von Naturgesetzen ist ja, das man sich auf sie verlassen kann, weil sie nicht ohne Weiteres ausgehebelt werden können ;). Die Hauptsätze der Thermodynamik gehören zweifelsohne zu diesen Gesetzmäßigkeiten die innerhalb unserer Lebensumgebung uneingeschränkt Gültigkeit haben. Ergebnisse oder Schlussfolgerungen die ihnen widersprechen sind daher in jedem Fall falsch. Die Frage ist lediglich wo der Denkfehler steckt. Nichts anderes versuche ich dir hier die ganze Zeit bei zu bringen ;). Dein Problem ist ganz offensichtlich, dass du nach wie vor Temperatur mit Energie verwechselst. Die Temperatur ist aber lediglich eine Messgröße der Energie und hat einen örtlichen Bezugspunkt. Eine hohe Temperatur auf eine kleinen Fläche und eine niedriger Temperatur auf einer größeren Fläche zeigen integriert über die jeweiligen Flächen denselben Energieinhalt, wenn die gleiche Energiemenge zugeführt wurde.Deine Aussage, dass bei kleineren DIE-Flachen weniger Energie übertragen wird ist daher schlicht und einfach falsch – das kann nicht passieren solange das Heiz-FET die gleich Energiemenge liefert und nicht erheblich unterschiedlich Enegiemengen an die Umgebung abfließen. Ersteres wird wird über die WPS fest eingestellt und Zweiteres wird durch die Umgebung des DIE-Sims bestimmt. Diese ändert sich jedoch nicht, wenn man die Übertragungsfläche ändert. Es können also keine unterschiedlichen Energiebeträge übertragen werden.
-
18. Oktober 2010 um 19:10 Uhr #866792
thethe
TeilnehmerVJoe2max;431684 said:
Es kann z.B. schlicht und einfach nicht passieren, dass Energie beim Transport durch des DIE-Sim verloren geht. Das ist nicht möglich.
Ebenso wie eine Wasserkühlung in der Gesamtbilanz immer exakt den Betrag an Wärmeleistung abführt den sie insgesamt aufnimmt, gibt ein DIE-Sim in der Bilanz exakt die Leistung ab die es auch ausgenommen hat.Verstehe ich das richtig:
Das DIE-Sim erzeugt eine Wärmeleistung von 150 Watt, die nahezu verlustfrei in den CPU-Kühler und dort in das Wasser übertragen wird, das widerum nahezu verlustfrei die Wärmeleistung zum Radiator transportiert, der sie schließlich an die Luft abgibt. Letzteres ist nur möglich, weil die Wassertemperatur über der Lufttemperatur liegt. Je größer diese Temperaturdifferenz, desto mehr Wärmeleistung wird an die Luft übertragen?
-
18. Oktober 2010 um 19:10 Uhr #866795
psahgks
Teilnehmerthethe;431700 said:
Verstehe ich das richtig:
Nein, leider nicht.
Das DIE-Sim übergibt die vollstaendige Menge der Energie, die es aufgenommen hat, auch weiter. Allerdings nicht nur an den Heatspreader, dann den Kuehler, dann das Wasser.
Sondern an alles, was drum herum ist. z.B. Luft oder Isolationsmaterial. Wenn du deinen Finger dranhaelst, auch an den.
Es geht darum, dass eben genau die „Menge“ Energie weitergegeben wird, die auch aufgenommen wurde. Die Energie kann nicht einfach zwischendurch ( im DIE-SIM) verschwinden.
-
18. Oktober 2010 um 20:10 Uhr #866800
Oma-Hans
Teilnehmerthethe;431700 said:
Verstehe ich das richtig:Ja.
Grüße,
Jens -
18. Oktober 2010 um 20:10 Uhr #866799
thethe
Teilnehmerpsahgks;431702 said:
Das DIE-Sim übergibt die vollstaendige Menge der Energie, die es aufgenommen hat, auch weiter. Allerdings nicht nur an den Heatspreader, dann den Kuehler, dann das Wasser.Sondern an alles, was drum herum ist. z.B. Luft oder Isolationsmaterial. Wenn du deinen Finger dranhaelst, auch an den.
Der Energieerhaltungssatz ist mir völlig klar und ist nicht Gegenstand meiner Frage. Deswegen hatte ich ja auch „nahezu verlustfrei“ geschrieben. Denn es gibt natürlich „Verluste“, z.B. dadurch, daß ein kleiner Teil der Wärmeenergie eben auch durch die POM-Isolation in unerwünschte Richtungen verloren geht.
Aber der Großteil der Energie geht ja wohl in die Bodenplatte des CPU-Kühlers (natürlich geht am Rand des Original-Heatspreaders auch Wärmeenergie direkt an die Luft über).
-
18. Oktober 2010 um 21:10 Uhr #866805
thethe
TeilnehmerMir geht es nämlich um einen anderen Aspekt.Die „Verluste“ des Kühlsystems treten an verschiedenen Stellen auf:1) Vom Rand des Heatspreaders, der nicht mehr durch die Bodenplatte des CPU-Kühlers bedeckt ist, direkt in die Luft. Das kann nur ein ganz kleiner Teil der Wärmeenergie sein, da die Fläche insgesamt sehr klein ist (wenngleich dort das Temperaturgefälle zur Luft am höchsten ist).2) Von den Außenseiten des CPU-Kühlers direkt in die Luft, wobei die Oberfläche zwar relativ groß ist, aber auch durch das Wasser sehr kühl.3) Vom Wasser durch die Schlauchwände und Tüllen in die Luft. Das dürfte wohl der kleinste Teil sein (wobei durch die Verlustleistung der Pumpe auch ein paar Watt in das System eingespeist werden).Nun kommt es zu meinem Denkproblem: All diese Verluste sind mehr oder weniger konstant. Dann müßte doch nach entsprechendem Einpendeln des Systems unabhängig vom CPU-Kühler immer genau die gleiche Menge, nämlich nahezu 150 Watt, Wärmeenergie am Radiator abgegeben werden. Und das müßte immer zum gleichen Temperaturgefälle Wasser-Luft führen. Aber das ist nicht so. Warum nicht?
-
18. Oktober 2010 um 21:10 Uhr #866807
Oma-Hans
Teilnehmerthethe;431713 said:
Und das müßte immer zum gleichen Temperaturgefälle Wasser-Luft führen. Aber das ist nicht so. Warum nicht?Dein „Denkfehler“ liegt ganz am Anfang. Du gehst davon aus, dass die Kühler die komplette Wärmeleistung des DIE-Sim abführen. Tun sie aber nicht, sonst hätten sie ja alle die gleiche „Leistung“. Je geringer die „Leistung“ (vielmehr der Wirkungsgrad) des Kühlers, desto weniger Wärmeenergie gibt er vom DIE-Sim ans Wasser über und umso wärmer wird der DIE-Sim (da ja die restliche Leistung/Energie im DIE-Sim in Form einer Temperaturerhöhung verbraten wird)Grüße, Jens
-
18. Oktober 2010 um 21:10 Uhr #866813
thethe
TeilnehmerOma-Hans;431715 said:
Je geringer die „Leistung“ (vielmehr der Wirkungsgrad) des Kühlers, desto weniger Wärmeenergie gibt er vom DIE-Sim ans Wasser über und umso wärmer wird der DIE-Sim (da ja die restliche Leistung/Energie im DIE-Sim in Form einer Temperaturerhöhung verbraten wird)Danke! Das ist genau der entscheidende Punkt: Ein guter CPU-Kühler gibt möglichst viel Wärmeenergie ans Wasser ab. Aber wo landet bei einem CPU-Kühler mit niedrigem Wirkungsgrad die Wärmeenergie im Sinne des Energieerhaltungssatzes?
-
18. Oktober 2010 um 22:10 Uhr #866820
VJoe2max
TeilnehmerDie Energiebilanz muss in jedem Fall aufgehen – wenn 150W rein gehen, gehen in der Bilanz auch 150W raus und zwar ständig. Das ist der Part mit der Energieerhaltung der Marc offenbar weiterhin Schwierigkeiten macht. Der Wärmeverlust über die Seitenflächen des IHS oder die Isolierung usw. ist nahezu konstant und nur indirekt durch die Kühlleistung des Kühlers bestimmt. Das Problem was hier ganz offensichtlich besteht ist das Verständnis bezüglich des Begriffs der Energie bzw. der Leistung (also Energie/Zeit)!@thethe:Die Frage nach dem Temperaturgefälle bzw. der lokalen Temperatur ist eine andere, die aber direkt mit der übertragenen Energie zu tun hat. Machen wir zur Veranschaulichung mal ein kleines Gedankenexperiment: Nehmen wir also mal zwei verschiedene Luftkühler statt der kompletten Wakü mit unterschiedlichen Wasserkühlern her und setzen diese auf das DIE-Sim. Beide Kühler werden mit dem gleichen Lüfter angeströmt und sind gleich schwer und gleich groß. Einer hat aber nur halb so viele Lamellen. Das entspricht vereinfacht also dem effizienten und dem weniger effizienten Wasserkühler, nur muss man nicht noch den ganzen Rattenschwanz mit Radiator usw. beachten. Nun machen wir also mit diesen beiden Luftkühlen jeweils einen Testlauf und führen 150W elektrische Leistung zu (die Verluste an die Umgebung nehmen wir der Einfachheit halber als Null an – also eine adiabatische Isolierung). Gemäß dem 1. Hauptsatz muss jeder der beiden Kühler also ständig die 150W abführen. Wie schaffen das die beiden unterschiedlichen Kühler also? Natürlich über unterschiedliche Temperaturdifferenzen – es gibt auch keine andere Variable. Der Kühler der nur halb so viele Lamellen hat wird sich stärker aufheizen bis zum stationären Zustand, als der Kühler mit der doppelten Lamellenzahl, dem mehr Fläche zum Wärmetausch zur Verfügung steht. Im Umkehrschluss wird unter dem Kühler mit den wenigen Lamellen natürlich auch das DIE-Sim wärmer als beim besseren Kühler. Einen Alu-Platte ohne Kühlrippen würde im Übrigen noch deutlich wärmer aber auch sie würde letztlich zu jeder Zeit 150W an die Umgebungsluft abgeben. Allerdings würde das DIE-Sim in diesem Fall vermutlich so heiß, dass das Heiz-FET (oder im realen Fall die CPU) das Zeitliche segnen würde ;). Dies beschriebt schon mal den Einfluss des Wärmewiderstands. In einem zweiten Gedankenexperiment beleuchten wir nun noch am einfachen Luftkühler-Beispiel welchen Einfluss der Wärmeübergangskoeffizient bei einem Kühler hat. Dazu nehmen wir einen beliebigen der beiden Kühler aus dem voran gegangen Experiment und betreiben ihn einmal bei einer hohen und einmal bei einer niedrigen Lüfterdrehzahl. Bei niedriger Lüfterdrehzahl wird sich nun eine, im Vergleich zu hohen Lüfterdrehzahl, höhere DIE-Sim Temperatur einstellen. Nach wie vor überträgt der Kühler zu jedem Zeitpunkt und bei jeder Lüfterdrehzahl die komplette eingespeiste Wärmeleistung. Da der Wärmewiderstand des Kühlers diesmal gleich bleibt ist der Temperaturunterschied des DIE-Sims nur vom Wärmeübergangskoeffizienten abhängig, der mit steigender Strömungsgeschwindigkeit der Kühlluft verbessert wird. Anhand dieser beiden, hoffentlich etwas einfacher vorstellbaren Beispiele, bestimmt sich die Kühlleistung eines Kühlers also im Wesentlichen dadurch wie hoch sein Wärmewiderstand und wie hoch der Wärmeübergangskoeffizient zum Kühlmedium ist. Man könnte auch sagen die Kühlleistung bestimmt sich dadurch wie wenig Temperaturdifferenz nötig ist, um die gegebene Wärmeleistung an die Luft zu befördern. Nach dem gleichen Prinzip funktioniert das auch bei verschiedenen Wasserkühlern. Jedoch sind hier nach dem Wärmeübergang vom Kühler zum Wasser noch weitere Wärmeübergänge vom Wasser zum Radiator und von dessen Rohren und Lamellen zur Luft nötig. Der hohen Wärmekapazität des Wassers und den vergleichsweise geringen Wärmeleitstrecken ist es zu verdanken, dass eine Wasserkühlung bei gleicher Radiatorfläche wie der Lamellenfläche eines Luftkühlers in etwa gleiche oder etwas bessere Temperaturen erreichen kann. Durch den Umstand, dass die Radiatorfläche an belüftungstechnisch besserer Stelle nahezu beliebig erhöht werden kann, ohne im Gegensatz zum Luftkühler Rücksicht auf die Wärmeleitstrecken nehmen zu müssen, können mit einer Wakü niedrigere Temperaturen als mit einem Luftkühler erreicht werden. Hoffe das war jetzt anschaulich genug. Letztendlich geht es darum zwischen Feldgrößen und wie Temperaturen die sich aus dem thermodynamischen Gleichgewicht ergeben und dem Energiefluss zu unterscheiden. Die Energie die durchgeschleust wird ist immer die Gleiche. Wie heiß aber das DIE-Sim bzw. die CPU wird, bestimmt ich sich dadurch wie effektiv Kühler bzw. das ganze Kühlsystem den Wärmetausch bis zur Luft bewerkstelligen können. Ausgedrückt mit quantisierter Energie könnte man auch sagen, dass sich die DIE-Sim/CPU Temperatur dadurch bestimmt, wie schnell eine bestimmtes Quantum Wärmeenergie von der Wärmequelle zum Abgabeort gelangt. Diese Beschreibung habe ich jedoch absichtlich nicht verwendet, da sie die saubere Unterscheidung zwischen Energie/Ort (Ursache) und Temperatur (Wirkung) erfordert, was Vielen offenbar sehr schwer fällt. Ansonsten kommt man leicht auf solche verqueren Ideen wie Marc, dass die übertragene Energiemenge sich z.B. mit der Leistungsdichte auf der DIE-Fläche ändert. Wenn man sich allein das Wort „Leistungsdichte“ ansieht ist das zwar schon abwegig, aber das scheint für viele trotzdem ein Buch mit sieben Siegeln zu sein …Was wir bei den Experimenten außer acht gelassen haben ist der Wärmeübergang vom DIE-Sim zum Kühler. Bei einer realen CPU ist dieser Übergang bekanntermaßen eine Einflussgröße die relevant ist. Im Falle eines vernünftig aufgebauten physikalischen Prüfstands ist sie im Rahmen der Möglichkeiten nahezu eine Konstante, da konstruktiv und durch das Wärmeleitmedium (Öl) für eine sehr gute Reproduzierbarkeit gesorgt wird.
psahgks;431724 said:
Sie wird nicht ans Wasser übertragen, bleibt also u.A. im Kuehler, bzw. im DIE (-SIM), das im schlimmsten Fall zu Qualmen anfaengt.. 😉Sorry, dass ich dich da auch ein wenig korrigieren muss ;). Ein hoher Energieinhalt macht sich im DIE-Sim durch ein höhere Temperatur bemerkbar. Das ist soweit richtig. Dass jedoch Energie nicht ans Wasser übertragen würde stimmt spätestens bei erreichen des stationären Zustands nicht mehr. Und ausschließlich in diesem kann man die Kühlleistung des Kühlers messen. Zu jedem Zeitpunkt wird also die gleiche Energiemenge ans Wasser übertragen, die das FET einspeist – lediglich abzüglich der nahezu konstanten Verluste an die Umgebung auf dem Weg dort hin.Das diese nicht völlig konstant sind, ist lediglich dem Umstand geschuldet, dass mit einem heißeren DIE-Sim auch die Temperaturdifferenz zur Umgebung höher wird und daher die Triebkraft zur Wärmeübertragung auch zur Umgebung etwas steigt. In gleichem Maße steigt sie zwar auch in Richtung Kühler, aber dieser ist für die höhere Temperatur mit seiner Kühlleistung auch direkt verantwortlich, da das Kühlsystem ja den Gesamt-Wärmewiderstand darstellt, der die DIE-Sim Temperatur direkt bestimmt. Bei guter Isolierung kann sich der Wärmeabfluss an die Umgebung aber nicht in nennenswertem Maße erhöhen (insbesondere nicht in dem kleinen Temperaturspektrum das verschiedene Wasserkühler aufspannen).
-
18. Oktober 2010 um 22:10 Uhr #866816
psahgks
TeilnehmerSie wird nicht ans Wasser übertragen, bleibt also u.A. im Kuehler, bzw. im DIE (-SIM), das im schlimmsten Fall zu Qualmen anfaengt.. 😉
-
18. Oktober 2010 um 22:10 Uhr #866824
[LE]Al_bundy
Teilnehmerhoffe das dein post editiert wird!
-
18. Oktober 2010 um 22:10 Uhr #866818
[LE]Al_bundy
TeilnehmerGenau das Thema meine ich nähmlich. Mit den „Verlust“ den ich geschrieben habe ist gemeint das Wärmeenergie nach außen an das POM und an die Luft abgegeben wird und eben nicht vollständig oben oberhalb des IHS ankommt. Wobei ich das nur auf den kompletten DIESim beschränken möchte.
Und um so länger der Weg von der Quelle zum Ort wo der eigentliche Wärmeaustausch stattfinden soll, welcher zur Kühlung gedacht ist, desto mehr Möglichkeiten hat die Energie sich woanders hinzuverschieben (sofern Spielraum da ist, der immer da ist).
Mit geht etwas „verloren“ meine ich das von 150W, keine 150W ankommen, sondern ein Teil an die Umgebung (Luft/Pom) abgegeben wird. Wieviel das ist weiß ich nicht…
Und dieser „Verlust“, bzw. könnte auch Umverteilung der Energie schreiben, an Energie fehlt eben oben am IHS im Gegensatz zu einer CPU.
Das diese Geschichte nur marginal ausfällt hätte ich so auch nicht erwartet. Aber es ist immerhin sichtbar! (Siehe folgende Auswertung)
http://www.liquid-extasy.de/files/Auswertung/auswertung.jpgDiesimfläche 12x16mm …
Im unteren Teil kann man es eigentlich nur erkennen. Das ist aber wie oben schon geschrieben nur minimal. Ergo ist festzuhalten das ich mich diesbzgl. verplant habe, da ich behauptet habe das die Geschichte mit einer CPU besser funzt als mit einen Diesim. Festzuhalten ist aber auch das Joe sich verplant hat da er das Gegenteil behauptet hat. Somit haben wir uns beide verplant. Hoffe das das nun geklärt ist.
Entgültiger Aufschluss kann und wird auch der Praxistest anhand von Aufheizzeit eines Mediums von Temp A bis Temp B zeigen.
Dazu später mehr wenn der Teststand wieder Einsatzfähig ist. Bin mal gespannt wieviel Watts noch ankommen werden die man hineinsteckt. Gerade hinsichtlich DIESIM und CPU. Sollte ja annähernd identisch sein…Weiterhin ist festzuhalten.
Anhand der obigen Screens ist deutlich erkennbar das es wichtig ist, welche DIESimkontaktfläche vorhanden ist. Die Änderungen sind mehr als deutlich. Das die Leistungsdichte sich nicht nennenswert ändert ist korrekt. Es wurde auch nie etwas anderes behauptet. Das die Leistungsdichte in Verbindung mit der DIEfläche eine wesentliche Rolle spielt wurde von mir jedoch behauptet. Und das das nicht zu ignorieren ist werde ich später noch etwas genauer erläutern.
Behauptet wurde jedoch das kein Hersteller anhand von DIEflächen Kühler entwickelt da das Phänomen nur eine Binsenweißheit darstellen solle.
Beides ist Blödsinn.
Das Kühler sehr wohl anhand von DIEflächen entwickelt werden weiß ich aus erster Hand und natürlich auch aus eigenen Erfahrungen. Auch Anfi-Tec entwickelt danach 😉 Viele kennen das legendere Projekt. Das Murksprojekt sponsored by Alphacool und supportet by Tommy the Old.
Dieses Projekt ist wohl einer der aufwendigsten Kühlerprojekte überhaupt gewesen. Über 100 Prototypen wurden von Tommy entwickelt, von Dietmar gefertigt und von Frank getestet. Dieser Aufwand für eine Binsenweisheit? …:x
Nach einiger Zeit wurde eine sehr effektive Basis gefunden die heute noch bei Alphacoolprodukten feste Bestandteile sind. Auf der einen oder anderen Basis wurden sogar Patente erteilt. Ziel war es das maximum an Kühlleistung herauszuquetschen auf einer real existierenden Plattform (Athlon XP – 192mm² DIEfläche soweit ich weiß [16x12mm])
Der Watercoolplanet Teststand wurde dem Athlon XP nachempfunden 😉
Es ist eine Reale das bei anderen DIEflächen eine ganz andere Düsengeometrie entstanden wäre! Siehe Nexxxos XP Highflow. Warum wurde überhaupt der Highflow erschaffen?!
Weil ab 2005 der Athlon 64 mit IHS auf den Markt kam und dieser Prozessor eine ganz andere Umgebung schaffte. Plötzlich muss ein Kühler nicht mehr auf einen kleinen Punkt kühlen können wie das der Nexxxos Xp Rev.2 macht, sondern es muss eine viel größere Fläche abgedeckt werden. Was die Düsenplatte des Highflow auch tut. Positiver Nebeneffekt ist auch mehr Durchfluss.Jetzt mal eine durchaus skurile Behauptung.
Ich behaupte das ein Nexxxos XP Rev.2 der 6Jahre alt ist, besser/nahezu gleich gut kühlt als das derzeitige Topmodell von Ek Waterblocks der momentan der beste Kühler am Markt ist. Das ist darauf zurückzuführen das der Supreme auf einen kleinen Punkt nicht so gut kühlen kann wie der Nexxxos XP Rev.2. Der EK Supreme spielt seine Performance erst auf Plattformen mit IHS aus. Dort kann die ganze Kühlstruktur effektiv genutzt werden da er auf eine Fläche von 28x28mm kühlen soll (Kontaktfläche Bodenunterseite Kühler zu IHS Oberseite). Nicht auf einer Fläche von 12x16mm wie es der Nexxxos tun soll.
Und jetzt tritt das Worstcase tatsächlich ein! Der Ek bricht enorm ein, und der Nexxxos rockt. Es ist durchaus denkbar das dieses Phänomen eintreffen kann. Es kommt halt auf die Plattform drauf an. Und plötzlich hat man diese krasse Verschiebung die ja laut deiner Aussage nicht eintreffen kann.
Fairerweise muss ich euch eingestehen das es bei euren 16x16mm nicht eintreffen wird, da absehbar ist das IHS auch in den kommenden Jahren zum Alltag gehören. Im Kern jedoch gings halt darum das es eintreten kann. Und das habe ich somit detailliert beschrieben.
Dabei ist festzuhalten das es sehr wohl entscheident ist welche DIEfläche man wählt und das es sehr wohl zur mehr oder weniger deutlichen verschiebungen kommen kann, und nicht nur Verschiebungen auftreten können im Ranking die ein oder zwei Platzierungen ausmachen…Weiterhin kann man daraus schlussfolgern, das wenn man die Möglichkeit hat, sich an praxisnahen DIEflächen halten zukönnen, das man das der Zielgruppe (unabhängig davon wie die Zielgruppe auch aussehen mag) auch bietet. Denn es entstehen dadurch keine Nachteile. Im Gegenteil. Man hat den Vorteil das man eine ganz spezielle, mag sie noch so klein sein, Gruppe mit „Vergleichbaren“ Daten versorgen kann, und eben alle anderen nur annähernd… .
Man kann es nicht gutheißen wenn vorsätzlich Rankingverschiebungen in Kauf genommen werden, auch wenn Diese nur selten auftreten und auch nur Schwankungen von 1-2 Plätzen beinhalten. Denn das kann eben sehr wohl passieren und kann umgangen werden. Auch mit eurer Leistungsdichte in Verbindung der DIEFläche. Habe ich ja oben schon beschrieben warum wieso wesehalb und mit Bildern belegt… Und das ist nicht akzeptierbar in meinen Augen, da das ja auch bewusst in Kauf genommen wird.Angaben zu den Simmis:
welche infos willst du? -
19. Oktober 2010 um 0:10 Uhr #866829
VJoe2max
TeilnehmerEs gibt keinen Grund ihn zu editieren da er genau das beschreibt was du nicht zu verstehen scheinst – lediglich die Tippfehler muss ich in der Tat bereinigen 😀
‚[LE said:
Al_bundy;431726′]Genau das Thema meine ich nähmlich. Mit den „Verlust“ den ich geschrieben habe ist gemeint das Wärmeenergie nach außen an das POM und an die Luft abgegeben wird und eben nicht vollständig oben oberhalb des IHS ankommt. Wobei ich das nur auf den kompletten DIESim beschränken möchte.Darüber dass auch mit Isolierung noch ein minimaler Anteil der eingespeisten Energie an dir Umgebung abfließt sind wir uns einig. So weit waren wir aber schon vor einigen Postings ;). Jedoch zeigt die Praxiserfahrung, dass dieser Anteil verglichen mit der eingespeisten Leistung äußerst gering ist.
‚[LE said:
Al_bundy;431726′]Und um so länger der Weg von der Quelle zum Ort wo der eigentliche Wärmeaustausch stattfinden soll, welcher zur Kühlung gedacht ist, desto mehr Möglichkeiten hat die Energie sich woanders hinzuverschieben (sofern Spielraum da ist, der immer da ist).Wärme fließt grundsätzlich zum Ort niedrigerer Temperatur. Durch eine Isolierung versperrt man jedoch alle Richtungen in die man die Wärme nicht fließen lassen will. Je geringer die Wärmeleitfähigkeit des Isoliermaterials ist und je dicker es ist, desto weniger Energie kann in diese Richtungen abfließen. In der Richtung in der eine Wärmesenke, sprich ein Kühler, angeboten wird fließt die Wärme hingegen hervorragend. Bei einer guten Isolierung ist es deshalb auch wenig relevant wie weit die Wärmequelle von der Wärmesenke entfernt ist. Es verlängert sich dadurch lediglich die Zeit bis sich eine stationäres Temperaturfeld eingestellt hat (Aufgrund der Wärmekapazität).
‚[LE said:
Al_bundy;431726′]Mit geht etwas „verloren“ meine ich das von 150W, keine 150W ankommen, sondern ein Teil an die Umgebung (Luft/Pom) abgegeben wird. Wieviel das ist weiß ich nicht…Soweit waren wir schon auf der vorigen Seite ;). Dem ist so. Der Anteil ist aber nicht groß, wie die Temperaturen in der Umgebung eines isolierten DIE-Sims ganz praxisnah zeigen ;).
‚[LE said:
Al_bundy;431726′]Und dieser „Verlust“, bzw. könnte auch Umverteilung der Energie schreiben, an Energie fehlt eben oben am IHS im Gegensatz zu einer CPU.Das diese Geschichte nur marginal ausfällt hätte ich so auch nicht erwartet. Aber es ist immerhin sichtbar! (Siehe folgende Auswertung)http://www.liquid-extasy.de/files/Auswertung/auswertung.jpgDass der Unterschied in deiner Simulation so gering ausfällt, dürfte andere Ursachen haben, aber um das zu erörtern müsstest du erst mal die boundary-conditions zeigen, die du angewendet hast. Im Übrigen geht der Effekt, wenn ich das richtig sehe in die falsche Richtung. Ich hab auch ein Vermutung wieso, aber das lässt sich wie gesagt erst klären wenn man weiß was du angesetzt hast…
‚[LE said:
Al_bundy;431726′]Im unteren Teil kann man es eigentlich nur erkennen. Das ist aber wie oben schon geschrieben nur minimal. Ergo ist festzuhalten das ich mich diesbzgl. verplant habe, da ich behauptet habe das die Geschichte mit einer CPU besser funzt als mit einen Diesim. Festzuhalten ist aber auch das Joe sich verplant hat da er das Gegenteil behauptet hat. Somit haben wir uns beide verplant. Hoffe das das nun geklärt ist.Dass ein DIE-Sim die Wärme besser leitet als eine CPU ist der Fall (schon allein aufgrund der Wärmeleitfähigkeit der Werkstoffe). Das gilt auch weiterhin, hat aber keinen Einfluss auf die Temperaturverteilung. Relevant für die Messungen ist es sowieso nicht nicht. Im stationären Zustand ist es völlig egal wie gut des DIE-Sim oder eine CPU die Wärme leiten. Bei der Diskussion ging es lediglich um deine Behauptung, dass die DIE-Sim Dicke großen Einfluss auf deine postulierten „Energieverluste“ hätte. Da sie weder großen Einfluss die Temperaturverteilung hat (und wenn dann scheinbar eher positiven Effekt bei größere Dicke), noch „Verluste“ herbei führt kann man das Thema in der Tat ad Acta legen ;). Du hast deine Behauptungen mit viel Aufwand widerlegt – und mehr neue Fragen nach deinem Ansatz bei der Simulation aufgeworfen.
‚[LE said:
Al_bundy;431726′]Entgültiger Aufschluss kann und wird auch der Praxistest anhand von Aufheizzeit eines Mediums von Temp A bis Temp B zeigen. Dazu später mehr wenn der Teststand wieder Einsatzfähig ist. Bin mal gespannt wieviel Watts noch ankommen werden die man hineinsteckt. Gerade hinsichtlich DIESIM und CPU. Sollte ja annähernd identisch sein…Die Idee ist gut :d:. Achte aber auf sehr gute Isolierung des Gefässes. Ansonsten wird das nichts ;). Wenn man es wirklich genau wissen möchte, müsste man sich ein kalibriertes Kalorimeter ausleihen.
‚[LE said:
Al_bundy;431726′]Anhand der obigen Screens ist deutlich erkennbar das es wichtig ist, welche DIESimkontaktfläche vorhanden ist. Die Änderungen sind mehr als deutlich. Das die Leistungsdichte sich nicht nennenswert ändert ist korrekt. Es wurde auch nie etwas anderes behauptet.Doch – und zwar das genaue Gegenteil! Die Leistungsdichte ist exakt, das was sich hier krass ändert. Wer lesen kann ist klar im Vorteil 😉
‚[LE said:
Al_bundy;431726′]Das die Leistungsdichte in Verbindung mit der DIEfläche eine wesentliche Rolle spielt wurde von mir jedoch behauptet. Und das das nicht zu ignorieren ist werde ich später noch etwas genauer erläutern.Was bitte soll die Leistungsdichte in Verbindung mit der DIE-Fläche sein? Die Leistungsdichte bestimmt sich aus der DIE-Fläche und der übertragenen Leistung ;). Die Leistungsdichte spielt eine Rolle für die Temperatur – nicht aber für die Energie die übertragen wird. Das ist doch die Fragestellung um die wir uns die ganz Zeit drehen – ob Energie verloren gehen kann oder nicht. Das kann sie nicht. Man kann sie aber anders verteilen. Die macht sich bei unterschiedlicher DIE-Fläche in einer unterschiedlichen Temperaturverteilung bemerkbar – und nichts anderes siehst du in deinen Simulationsbildern ;). Das scheint aber nicht nur für dich sehr schwer zu begreifen zu sein. Ich gebe auch zu, dass das nicht ganz einfach zu verstehen ist, aber es ist nun mal Tatsache.
‚[LE said:
Al_bundy;431726′]Behauptet wurde jedoch das kein Hersteller anhand von DIEflächen Kühler entwickelt da das Phänomen nur eine Binsenweißheit darstellen solle.Ich bitte darum richtig zu zitieren: Es ist eine Binsenweisheit, dass unterschiedliche DIE-Flächen einen Einfluss auf das Ranking in Kühlertests haben. Das war meine Aussage! – nicht, dass die Kühlerhersteller ihre Kühler nicht in Bezug auf bestimmte DIE-Flächen anpassen. Das tun sie in begrenztem Maße – jedoch nicht zielgerichtet auf spezielle Kerne sondern allenfalls auch das Aspektverhältnis oder die Fläche verschiedener Kerne.
‚[LE said:
Al_bundy;431726′]Das Kühler sehr wohl anhand von DIEflächen entwickelt werden weiß ich aus erster Hand und natürlich auch aus eigenen Erfahrungen. Auch Anfi-Tec entwickelt danach 😉 Viele kennen das legendere Projekt. Das Murksprojekt sponsored by Alphacool und supportet by Tommy the Old.Dieses Projekt ist wohl einer der aufwendigsten Kühlerprojekte überhaupt gewesen. Über 100 Prototypen wurden von Tommy entwickelt, von Dietmar gefertigt und von Frank getestet. Dieser Aufwand für eine Binsenweisheit? …:xDas waren noch Zeiten :D. Insbesondere der letzte der Murks-Kühler performte hervorragend auf dem Prüfstand und war dementsprechend auch in der Realität nicht von schlechten Eltern. Die Entwicklung die dabei im Mittelpunkt stand war jedoch bei Lichte betrachtet nicht die Anpassung auf einen spezielle DIE-Fläche sondern die Entwicklung einer sehr leistungsfähigen Kühlstruktur und eines effektiven Düsenlayouts. Dass man sich dabei an den üblichen DIE-Größen orientierte was Pinfeld und Düsenfeldgrößen anging ist selbstverständlich. Deshalb war der Kühler aber noch lange kein Kühler der nur auf eine spezielle CPU zugeschnitten war sondern auf fast allen damaligen CPUs exzellente Werte erreicht hätte, wie man ja später am NexXxos XP eindrucksvoll feststellen konnte….
‚[LE said:
Al_bundy;431726′]Nach einiger Zeit wurde eine sehr effektive Basis gefunden die heute noch bei Alphacoolprodukten feste Bestandteile sind. Auf der einen oder anderen Basis wurden sogar Patente erteilt. Ziel war es das maximum an Kühlleistung herauszuquetschen auf einer real existierenden Plattform (Athlon XP – 192mm² DIEfläche soweit ich weiß [16x12mm])Der Watercoolplanet Teststand wurde dem Athlon XP nachempfunden 😉16x12mm entspricht vllt. den Throughbreds. Andere AthlonXP hatten deutlich andere DIE-Größen – soviel dazu. Aber du hast recht – der Kühler war nicht ganz uneigennützig anhand der Prüfstandergebnisse weiterentwickelt worden und daher auch in gewisser Weise daran angepasst. Dennoch perfomte dieses Kühldesign genauso hervorragend auf anderen DIEs mit größeren oder anders geformten DIE-Flächen. Was die eigentliche Entwicklung war, stellt jedoch genau das dar was in den Patenten festgehalten ist und das ist keineswegs in erster Linie eine Anpassung auf eine DIE-Fläche, sondern es ist die bekannte Düsenplatte mit den Rückführkanälen und einer Kühlerbodenstruktur mit flachen und fein strukturierten Pins mit schmalen Kanälen. Das ist die eigentliche erfinderische Leistung, welche die Patente schützen und die den Kühlern zu den guten Leistungen verhilft. Wenn man da jetzt zu den Weiterentwicklungen schweifen würde, könnte man aber noch stundenfüllende Diskussionen führen. Da das aber alles auch schon in diversen Foren geschehen ist, kann man das auch einfach nachlesen ;).
‚[LE said:
Al_bundy;431726′]Es ist eine Reale das bei anderen DIEflächen eine ganz andere Düsengeometrie entstanden wäre! Siehe Nexxxos XP Highflow. Warum wurde überhaupt der Highflow erschaffen?!Weil ab 2005 der Athlon 64 mit IHS auf den Markt kam und dieser Prozessor eine ganz andere Umgebung schaffte. Plötzlich muss ein Kühler nicht mehr auf einen kleinen Punkt kühlen können wie das der Nexxxos Xp Rev.2 macht, sondern es muss eine viel größere Fläche abgedeckt werden. Was die Düsenplatte des Highflow auch tut. Positiver Nebeneffekt ist auch mehr Durchfluss.Der positive Nebeneffekt wie du ihn nennst war zu diesem Zeitpunkt das Hauptverkaufsargument für Kühler ;). Das war der Anfang des HighFlow-Wahns. Wie viele Tests zeigten, perfomte der NexXxos XP Highflow auch auf CPUs mit IHS nicht messbar besser als der alte NexXxos XP. Der Grund dafür war die, durch die Vergrößerung des Düsenquerschnitte, verloren gegangene Strömungsbeschleunigung. Kompensiert wurde das von den HighFlow-Jüngern durch den Einsatz der damals aufkommenden HighFlow-Pumpen. Der Kühler selbst trug dazu nicht viel bei sondern dümpelte mit normalen Pumpen eher auf recht erbärmlichem Niveau. Er profitierte ausgehend von dieser geringeren Grundleistung lediglich etwas besser von höherem Durchfluss, um wieder in etwa auf Augenhöhe mit dem Vorgänger auf allen damals üblichen CPUs mit IHS mithalten zu können.Dass er auf dem Prüfstrand versagte lag aber in der Tat an der kleinen DIE-Sim Fläche, da diese eine vergleichsweise zu hohe Leistungsdichte für den Kühler hatte. Dennoch war die Entwicklung unter den damaligen Bedingungen natürlich verständlich und ja auch nicht ganz erfolglos. Man hat inzwischen aber noch einiges dazu gelernt.
‚[LE said:
Al_bundy;431726′]Jetzt mal eine durchaus skurile Behauptung.Ich behaupte das ein Nexxxos XP Rev.2 der 6Jahre alt ist, besser/nahezu gleich gut kühlt als das derzeitige Topmodell von Ek Waterblocks der momentan der beste Kühler am Markt ist. Das ist darauf zurückzuführen das der Supreme auf einen kleinen Punkt nicht so gut kühlen kann wie der Nexxxos XP Rev.2. Der EK Supreme spielt seine Performance erst auf Plattformen mit IHS aus. Dort kann die ganze Kühlstruktur effektiv genutzt werden da er auf eine Fläche von 28x28mm kühlen soll (Kontaktfläche Bodenunterseite Kühler zu IHS Oberseite). Nicht auf einer Fläche von 12x16mm wie es der Nexxxos tun soll.Und jetzt tritt das Worstcase tatsächlich ein! Der Ek bricht enorm ein, und der Nexxxos rockt. Es ist durchaus denkbar das dieses Phänomen eintreffen kann. Es kommt halt auf die Plattform drauf an. Und plötzlich hat man diese krasse Verschiebung die ja laut deiner Aussage nicht eintreffen kann.Das ist nicht so skurril – damit ist auch schon rein theoretisch absolut zu rechnen. Da bin ich also ganz bei dir – das ist so. Daran habe ich nicht die geringsten Zweifel, dann das liegt in der Natur der Sache. Nichts desto trotz wird der Supreme HF aber auch auf dem kleinen DIE noch eine ganz passable Figur machen, obwohl er darauf zunächst als alles andere die Idealbesetzung erscheint. Deshalb ja btw auch unser Ansatz ein DIE-Sim mittlerer Größe zu verwenden, um möglichst gut den Durchschnitt abzubilden, aber eben für jeden Kühler grundsätzlich die gleichen Bedingung zu nutzen – unabhängig davon auf was er besonders gut kühlt oder nicht. Für die Bewertung der grundlegenden Kühltechnik ist das in aller Regel schließlich nicht der ausschlaggebende Punkt.
‚[LE said:
Al_bundy;431726′]Fairerweise muss ich euch eingestehen das es bei euren 16x16mm nicht eintreffen wird, da absehbar ist das IHS auch in den kommenden Jahren zum Alltag gehören. Im Kern jedoch gings halt darum das es eintreten kann. Und das habe ich somit detailliert beschrieben.Dabei ist festzuhalten das es sehr wohl entscheident ist welche DIEfläche man wählt und das es sehr wohl zur mehr oder weniger deutlichen verschiebungen kommen kann, und nicht nur Verschiebungen auftreten können im Ranking die ein oder zwei Platzierungen ausmachen…Dass die DIE-Fläche einen Einfluss auf die Effektivität verschiedener Kühler hat, hat hier nie jemand bestritten. Das ist exakt der Grund warum das Testen mit unterschiedlichen DIE-Größen keinen Sinn hat und warum auch die Festlegung auf einen bestimmten Kern mittlere Größe nicht sinnvoll ist. Das Ganze soll schließlich so unbeeinflussbar wie möglich ablaufen, um tatsächlich den Ursachen für bessere oder schlechtere Kühlleistung bei verschiedenen Kühlern auf den Grund zu kommen.
‚[LE said:
Al_bundy;431726′]Weiterhin kann man daraus schlussfolgern, das wenn man die Möglichkeit hat, sich an praxisnahen DIEflächen halten zukönnen, das man das der Zielgruppe (unabhängig davon wie die Zielgruppe auch aussehen mag) auch bietet. Denn es entstehen dadurch keine Nachteile. Im Gegenteil. Man hat den Vorteil das man eine ganz spezielle, mag sie noch so klein sein, Gruppe mit „Vergleichbaren“ Daten versorgen kann, und eben alle anderen nur annähernd… .Dabei vergisst du, dass es sich um einen Prüfstand handelt. Das sind keine vergleichbaren Daten sondern lediglich die Ergebnisse eines Prüfstands der auf der gleichen DIE-Fläche wie ein bestimmter CPU-Kern basiert. Damit kann man nicht her gehen und das Delta T auf eine reales Setup übertragen. Das geht mit Prüfstand-Ergebnissen genauso wenig, wie mit denen aus Hardware-Tests. Dafür sind die Unwägbarkeiten einfach zu groß und die einzelnen Exemplare der CPUs zu unterschiedleich, auch wenn es sich um dasselbe Modell handelt. Das ist also Unsinn. Man kann lediglich das Ranking ansehen und dieses auf die betroffene CPU anwenden. Das ist aber nicht unser primäres Ziel – zumal es es eben nur eine sehr kleine Zielgruppe anspricht und Kühler bevorzugt die sich auf einem bestimmten Kern besonders wohl fühlen. Auch bei einem Durchschnitts-DIE wird die Vorhersage des Rankings freilich schlechter je weiter eine CPU von den Testbedingungen entfernt ist. Man muss sich jedoch nicht den Vorwurf gefallen lassen bestimmte Kühler zu bevorzugen ;). Im Übrigen muss ich sagen: Wer seinen CPU Kühler nach den Ergebnissen eines einzelnen Prüfstands auswählt – egal wie gut dieser aufgebaut ist und wie präzise damit gemessen werden kann, ist auf der Jagd nach dem Optimum schlecht beraten. Aber das galt schon immer ;).
‚[LE said:
Al_bundy;431726′]Man kann es nicht gutheißen wenn vorsätzlich Rankingverschiebungen in Kauf genommen werden, auch wenn Diese nur selten auftreten und auch nur Schwankungen von 1-2 Plätzen beinhalten. Denn das kann eben sehr wohl passieren und kann umgangen werden. Auch mit eurer Leistungsdichte in Verbindung der DIEFläche. Habe ich ja oben schon beschrieben warum wieso wesehalb und mit Bildern belegt… Und das ist nicht akzeptierbar in meinen Augen, da das ja auch bewusst in Kauf genommen wird.Das spricht jetzt ausschließlich gegen deine Methode nicht gegen unsere ;). Bei uns gibt es keine Rankingverschiebungen da es nur ein DIE-Sim gibt, welches über lange Zeit genutzt wird. Es ist nicht die Intention, dass das Testranking die Kühlleistung auf irgendeiner willkürlich gewählten CPU abbildet. Wir wollen ein Ranking der durchschnittlichen Kühlleistung erreichen, bei dem die Kühltechnik im Vordergrund steht – nicht irgendein bestimmtes DIE.. Als postiver Nebenfeffekt davon sind die Ergebnisse für alle realen Kerne die unserer durchschnittlichen DIE-Fläche ähnlich sind (und das sind derzeit einige) ähnlich aussagekräftig wie die Ergebnisse für irgendeinen speziellen Kern. Davon können einfach mehr Leute profitieren.
-
19. Oktober 2010 um 10:10 Uhr #866857
[LE]Al_bundy
TeilnehmerSo, da mir Opera abgekackt is darf ich jetzt nochma alles neu schreiben, daher nur die kurzausführung.
:(:(:(
Natürlich muss sich die Leistungsdichte bei Änderung der DIEfläche verändern da sich die Energie auf die gegebene DIEfläche verteilt.
Das hättest du aber nicht auf ein 2 Klopapierrollen ausführen müssen.
Ich hoffe du verzeist mir das ich mich nicht Ordnungsgemäß ausdrücken konnte was ich eigentlich gemeint hatte. Es war immer spät und mit einen gripalen Infekt ist man nicht so Konzentrationsfähig!Weiterhin kannst du niemanden erzählen das wenn du 150W elektrische Leistung hinten reinschiebst das 150W Wärmemenge vorne rauskommen.
Du verscuhst wehemend Tagelang mir klar zu machen das die „Verluste“ gering sind. Unter geringe „Verluste“ verstehe ich 3% oder weniger.
Diese 3% werden deutlich überschritten. Und beachte das das Wort Verluste in Anführungszeichen gesetzt ist. Es gibt für dieses Wort sicherlich einen physikalisch passenden Begriff.Anbetracht der Tatsache das von 150W elektrischer Leistung nur ein kleinerer Teil an Wärmeenergie am IHS ankommt, sind die von euch gewählten 150W im übertragenden Sinne nicht deutlich mehr als das was eine CPU an Wärmemenge oberhalb des IHS abgibt. Somit sind die von euch gewählten 150W nicht oversized wie du erwähnt hattest sondern ungefähr das was eine CPU overclocked am IHS abgibt. Da möchte ich mich jetzt nicht um 10Watt mehr oder weniger streiten.
Die Skalierung bei 120W sowie auch bei 150W fällt im wesentlichen zu eng aus egal ob man da jetzt 10W drauf rechnet oder abzieht. Was meine Auswertungen, die Auswertungen der CPU Plattformentester bestätigt. Anhand eures Teststandes werdet ihr ähnliche Ergebnisse erhalten. -> Alle Topkühler befinden sich innerhalb eines K.Um Performancesprünge von Kühler zu Kühler und von Änderung zu Änderung sichtbarer zu machen ist es angebracht mehr Leistung reinzuschieben. Wie erwähnt sind 150W schon das nötige minimum.
Und wenn ich das richtig verstanden habe wollt ihr der Community Leistungssprünge und Leistungseinbrüche sichtbar machen. Das geht mit 150W elektrischer Leistung, deutlicher wird es jedoch bei 200W und mehr!
Frank hätte das bei einen rebuild des Teststandes gemacht. Und das nicht ohne Grund. Er hätte es gemacht um eben die Änderungen sichtbarter zu machen und um das Feld weiter auseinander rücken zu lassen. Auch hier würden keine Nachteile entstehen. Aber das will man ja nicht… Ebenso wenig wie die Anpassung der DIEfläche…
Aber das is euer Bier. -
19. Oktober 2010 um 10:10 Uhr #866852
thethe
Teilnehmerpsahgks;431724 said:
Sie wird nicht ans Wasser übertragen, bleibt also u.A. im Kuehler, bzw. im DIE (-SIM), das im schlimmsten Fall zu Qualmen anfaengt.. 😉Wenn wir die Wärmeverluste nach unten und zur Seite wegen der guten POM-Isolation vernachlässigen, dann wird die Wärmeleistung immer zum größten Teil ans Wasser abgegeben, aber zu einem kleinen Teil eben direkt vor Ort an die umgebende Luft:1) vom Rand des Heatspreaders, der nicht mehr vom Kühler bedeckt ist, und2) von der Oberfläche des Kühlers.Ein Kühler mit schlechtem Wirkungsgrad hat also ein wärmeres Gehäuse als ein guter, wobei auch die über den Heatspreader überstehende Bodenplatte Wärme an die Luft abgibt. Wenn das Gehäuse allerdings ebenfalls gut isoliert ist (z.B. POM-Gehäusedeckel), dann wirkt effektiv nur noch Fall 1).Nehmen wir an, hier würde auch noch perfekt isoliert werden, dann geht tatsächlich wieder die gesamte Energie ins Wasser. Wodurch entsteht aber dann das Temperaturgefälle zwischen Heatspreader und Wasser?
VJoe2max;431728 said:
Der Kühler der nur halb so viele Lamellen hat wird sich stärker aufheizen bis zum stationären Zustand, als der Kühler mit der doppelten Lamellenzahl, dem mehr Fläche zum Wärmetausch zur Verfügung steht. Im Umkehrschluss wird unter dem Kühler mit den wenigen Lamellen natürlich auch das DIE-Sim wärmer als beim besseren Kühler.Du meinst hier wohl den Wärmedurchgangswiderstand RT in (K·m²)/W, der der Kehrwert des Wärmedurchgangskoeffizienten (auch gut bekannt als U-Wert) ist?Laut Wikipedia wird er bestimmt durch die1) Wärmeleitfähigkeit und Dicke des Materials2) ferner durch Wärmestrahlung und Konvektion an den Oberflächen des Materials.Du kannst ja mit Deiner Formulierung nicht nur auf die Wärmeleitfähigkeit allein zielen wollen, denn sie ist ja eine Materialkonstante, die bei z.B. reinem Kuper 401 W/(m·K) beträgt und von reinem Silber nur noch leicht übertroffen wird (429 W/(m·K).
VJoe2max;431728 said:
Da der Wärmewiderstand des Kühlers diesmal gleich bleibt ist der Temperaturunterschied des DIE-Sims nur vom Wärmeübergangskoeffizienten abhängig, der mit steigender Strömungsgeschwindigkeit der Kühlluft verbessert wird.Der Lüfter erhöht die Konvektion an den Oberflächen des Materials und verringert damit letztendlich den Wärmedurchgangswiderstand.Mir ist nicht ganz klar geworden, welche zwei Dinge Du hier zu trennen versuchst?
VJoe2max;431728 said:
die Kühlleistung bestimmt sich dadurch wie wenig Temperaturdifferenz nötig ist um die gegebene Wärmeleistung an die Luft zu befördern.Es bleibt dabei: Um die Kühleistung bei einem CPU-Kühler zu maximieren, sind drei Dinge zu optimieren:1) der Übergang vom Heatspreader zum Kühlerboden,2) Material und Dicke des Bodens und3) der Übergang vom Boden zum Wasser.
-
19. Oktober 2010 um 12:10 Uhr #866868
[LE]Al_bundy
Teilnehmer1 ist nicht zu vernachlässigen -> mit Absicht konisch ausgeführte Bodenunterseiten durch konstruelle Anderungen. -> Ek Waterblocks, Watercool, 5/100mm hoher Sockel als Stützpunkt am Deckel der den Boden bei Montage konisch herkommen lässt.
Ek Supreme LT und Aquacomputer Kryos und XSPC Rasa machen das mit Dichtungen.
Grund dafür ist das sich die Bodenunterseite dem IHS besser anpassen kann um einen besseren Kontakt zubekommen. Der Yellowstone Spirit hat das auch, jedoch sind es 1/10mm. Nebendem polierten Boden und der Gravur auf der Halterung die einzige Veränderung des Spirit zum Non Spirit.
Das sind erhebliche Tatsachen die das Ranking eines Kühlers Maßgeblich beeinflussen. Ek Waterblocks hatte mit den Supreme dieses Phänomen hervorgerufen und weitere Hersteller haben diese neue Erkenntnis in Folgeprodukte angewand. Das ist ein müheloses feintuning was nichts kostet. -
19. Oktober 2010 um 12:10 Uhr #866865
VJoe2max
TeilnehmerErst mal zu thethes Beitrag:
thethe;431761 said:
Du meinst hier wohl den Wärmedurchgangswiderstand RT in (K·m²)/W, der der Kehrwert des Wärmedurchgangskoeffizienten (auch gut bekannt als U-Wert) ist?Laut Wikipedia wird er bestimmt durch die1) Wärmeleitfähigkeit und Dicke des Materials2) ferner durch Wärmestrahlung und Konvektion an den Oberflächen des Materials.Du kannst ja mit Deiner Formulierung nicht nur auf die Wärmeleitfähigkeit allein zielen wollen, denn sie ist ja eine Materialkonstante, die bei z.B. reinem Kuper 401 W/(m·K) beträgt und von reinem Silber nur noch leicht übertroffen wird (429 W/(m·K).Guter Einwand – ich hätte mich hier exakter ausdrücken sollen ;). Gemeint war selbstverständlich Rth – also der „absolute Wärmewiderstand“ in K/W, welcher zur Dimensionierung von Kühlkörpern genutzt wird. Er charakterisiert, vereinfacht gesagt, den Widerstand den ein Kühlkörper bestimmter Geometrie und definierten Werkstoffs der Wärmeübertragung zu seiner Oberfläche entgegen setzt ;). Er ergibt sich aus:Rth= DeltaT/QpunktWobei:Rth = absoluter Wärmewiederstand in K/WDeltaT = Temperaurdifferenz in KQpunkt = eingespeister Wärmestrom in W (Verlustleistung des zu kühlenden Objekts)
thethe;431761 said:
Der Lüfter erhöht die Konvektion an den Oberflächen des Materials und verringert damit letztendlich den Wärmedurchgangswiderstand.Wenn du mit Wärmedurchgangswiderstand den absoluten Wärmewiderstand es Kühlkörpers meinst – nein, der wird dadurch nicht beeinflusst. Ich denke aber du meinst den Kehrwert des Wärmedurchgangskoeffizienten bzw. des U-Werts, den ich eigentlich noch als k-Wert kenne. Sorry noch mal dass ich das nicht deutlicher gemacht habe.Der Wärmeübergangskoeffizient vom Kühlkörper an die Luft wird jedoch sehr wohl beeinflusst – um den ging es ;).
thethe;431761 said:
Mir ist nicht ganz klar geworden, welche zwei Dinge Du hier zu trennen versuchst?Ich trenne das was der Wäremduchgangskoeffizient zusammenfasst, mit dem du offenbar vertraut bist ;). Also den Widerstand den ein Kühlkörper bestimmter Geometrie und bestimmten Werkstoffs der Wärmeübertragung bis zur Oberfläche entgegensetzt setzt und den Wärmeübergang (gekennzeichnet durch den Wärmeübergangskoeffizienten) an dieser Oberfläche der sich durch die Strömungsbedingungen des Mediums bestimmt. Da dir der Wärmedurchgangskoeffizient offenbar ein Begriff ist, hätte man natürlich auf die Trennung verzichten können. Da ich das nicht wissen konnte, habe ich es lieber aufgedröselt – ist aus meiner Sicht auch anschaulicher die Wärmeübertragung und den Wärmeübergang getrennt zu betrachten. So kann man sich auch Schritt für Schritt durch eine kompliziertere Wärmeübertragungskette hangeln ohne bei jedem Schritt viele Variablen zu haben ;).
thethe;431761 said:
VJoe2max;431728 said:
die Kühlleistung bestimmt sich dadurch wie wenig Temperaturdifferenz nötig ist um die gegebene Wärmeleistung an die Luft zu befördern.Es bleibt dabei: Um die Kühleistung bei einem CPU-Kühler zu maximieren, sind drei Dinge zu optimieren:1) der Übergang vom Heatspreader zum Kühlerboden,2) Material und Dicke des Bodens und3) der Übergang vom Boden zum Wasser.
An deinen Punkten ist nichts auszusetzen – das ist ohne Wenn und Aber der Fall. Deine Frage war jedoch, wie es dazu kommt, dass unterschiedliche Kühler zu unterschiedlichen Temperaturdifferenzen führen obwohl der gleiche Wärmestrom übertragen wird ;).Das liegt, wie das Gedankenexperiment verdeutlichen sollte, eben daran wie gut der Kühler die Wärme überträgt (Rth) und wie gut er sie an das Medium abgeben kann (Alpha). -> ganz entsprechend Punkt 2 und 3 deiner Aufzählung. Lediglich Punkt 1 kann auf einem Prüfstand vernachlässigt werden, da der Wärmeübergang konstruktiv und durch das niedrig viskose Wärmeleitmedium (technisch) konstant gehalten wird. Streng physikalisch betrachtete minimale Unterschiede lassen sich dort natürlich auch nicht vermeiden. Kein Vergleich aber zu den Differenzen die sich auf beliebigen Heatspreadern und Wärmeleitpaste dazwischen ergeben ;).
-
19. Oktober 2010 um 13:10 Uhr #866873
VJoe2max
Teilnehmer‚[LE said:
Al_bundy;431766′]So, da mir Opera abgekackt is darf ich jetzt nochma alles neu schreiben, daher nur die kurzausführung.Oh ja – so was ist echt nervig! Ist mir vorhin auch passiert. Allerdings ist der ganze Rechner abgeschmiert. Fürchte der DCDC-Wandler macht´s nicht mehr lang….
‚[LE said:
Al_bundy;431766′]Natürlich muss sich die Leistungsdichte bei Änderung der DIEfläche verändern da sich die Energie auf die gegebene DIEfläche verteilt.Das hättest du aber nicht auf ein 2 Klopapierrollen ausführen müssen.Ich hoffe du verzeist mir das ich mich nicht Ordnungsgemäß ausdrücken konnte was ich eigentlich gemeint hatte. Es war immer spät und mit einen gripalen Infekt ist man nicht so Konzentrationsfähig!Gut, es sie dir verziehen 😉 – auch wenn du glatt das Gegenteil behauptet hast :D. Das müsste einem sogar mit ner bösen Erköältung eigentlich noch auffallen ;). Ich zweifle aber ganz ehrlich ein wenig daran, dass du ohne die Klorollen-Erklärung begriffen hättest was gemeint ist, denn das war nicht das erste mal, dass du die Leistungsdichte nicht richtig interpretiert hattest – siehe Threadverlauf ;).
‚[LE said:
Al_bundy;431766′]Weiterhin kannst du niemanden erzählen das wenn du 150W elektrische Leistung hinten reinschiebst das 150W Wärmemenge vorne rauskommen.Du verscuhst wehemend Tagelang mir klar zu machen das die „Verluste“ gering sind. Unter geringe „Verluste“ verstehe ich 3% oder weniger.Diese 3% werden deutlich überschritten. Und beachte das das Wort Verluste in Anführungszeichen gesetzt ist. Es gibt für dieses Wort sicherlich einen physikalisch passenden Begriff.Dass exakt 150W im Kühler landen habe ich nicht behauptet (lediglich im Gedankenexperienmt oben war das eine Annahme zur Vereinfachung). Dass ein gewisser Wärmeanteil an die Umgebung abstrahlt habe ich, inzwischen weiß Gott wie oft, bestätigt. Wöüber wir uns scheinbar immer noch nicht einig sind ist die Frage wie hoch dieser Anteil ist. Rein aus praktischer Sicht erscheint der Anteil eher kleiner zu sein als der den eine CPU an die Umgebung abgibt. Ob es nun 3% (4,5W) sind oder lass es meinetwegen 10% (15W) sein ist nicht der ausschlaggebende Punkt – solange der Anteil gleich bleibt. Letzteres hattest du massiv angezweifelt, weil du Schwierigkeiten damit hattest, dass der Wärmestrom unabhängig von der DIE-Größe ~konstant ist.
‚[LE said:
Al_bundy;431766′]Anbetracht der Tatsache das von 150W elektrischer Leistung nur ein kleinerer Teil an Wärmeenergie am IHS ankommt, sind die von euch gewählten 150W im übertragenden Sinne nicht deutlich mehr als das was eine CPU an Wärmemenge oberhalb des IHS abgibt.Die Wortwahl ist etwas irreführend meinst du nicht ;). Der Anteil der Wärmeengerie die am IHS ankommt ist, wie jede praktische Erfahrung mit einem Prüfstand zeigt, bei weitem der größte Anteil. Konservativ geschätzt mindestens 90% – tendenziell eher deutlich mehr. Da du ja von praktischen Erfahrungen schwärmst, will ich dir auch anhand der Praxis erläutern wie ich zu dieser Einschätzung komme: Würde nur ein kleinerer Teil der Wärmeenergie am IHS ankommen, müsste der Großteil der eingespeisten 150W an die Umgebung abgeleitet werden – zum größten Teil durch unsere Isolierung hindurch.Wer mal eine 150W Lampe (z.B. einen Halogenstrahler dieser Leistung) freiwillig oder unfreiwillig berührt hat, weiß um welche Energiemengen es sich bei 150W ungefähr handelt, wenn sie auf engem Raum abgegeben werden. Auch eine 75W Glühbirne ist noch kein Schmusekissen. Würden also tatsächlich ein großer Anteil der Wärmengergie in die Umgebung abfließen müsste sich diese deutlich erwärmen. Zumindest auf unserem Prüfstand mit dem isolierten DIE-SIm tut sie das jedoch keineswegs. Der Energieanteil der an die Umgebung abfließt muss folglich verhältnismäßig gering sein und der Anteil der das vom Kühler aufgenommen wird entsprechend hoch. Anders wäre btw auch nicht zu erklären wie die Wassertemperatur innerhalb von 20 min um mehrere Grad ansteigen kann obwohl wir ja alles andere als passiv fahren – ich denke über die Wärmekapazität von Wasser sind wir uns alle einig ;).
‚[LE said:
Al_bundy;431766′]Somit sind die von euch gewählten 150W nicht oversized wie du erwähnt hattest sondern ungefähr das was eine CPU overclocked am IHS abgibt. Da möchte ich mich jetzt nicht um 10Watt mehr oder weniger streiten.Da möchte ich mich auch nicht drum streiten. Im Grunde genommen kommt das aber vermutlich hin. Die Leistung dürfte in der tat einer übertakteten CPU der höchsten TDP-Klasse entsprechen. Nichts anderes war beabsichtigt ;).Verglichen mit einer Großzahl von CPUs ist die Leistung dennoch eher etwas zu hoch gegriffen. Immerhin handelt es sich hier um tatsächliche Leistung nicht um TDP-Werte. Dieses Thema möchte ich hier aber nicht auch noch aufrollen, das wurde bereits oft genug diskutiert….Allgemein wäre es btw angebracht sich dem eigentlichen Thema – dem Feedback zu unserem Prüfstand wieder zu nähern ;).Die Fragen die ich hier zu klären versuche haben zwar allesamt damit zu tun und sind zum Teil interessant zum Teil auch amüsant, aber letztendlich geht das etwas über reines Feedback hinaus, sondern geht eher in Richtung Grundsatzdiskussionen zur Wärmeübertragung.
‚[LE said:
Al_bundy;431766′]Die Skalierung bei 120W sowie auch bei 150W fällt im wesentlichen zu eng aus egal ob man da jetzt 10W drauf rechnet oder abzieht. Was meine Auswertungen, die Auswertungen der CPU Plattformentester bestätigt. Anhand eures Teststandes werdet ihr ähnliche Ergebnisse erhalten. -> Alle Topkühler befinden sich innerhalb eines K.Davon ist auszugehen. Das ist sozusagen der Tribut an eine einigermaßen realistische Leistungsbewertung, die sich auch übertragen lässt. In realen Setups liegen die aktuellen Top-Kühler nun mal so eng beieinander. Umso wichtiger war es für uns die Messgenauigkeit so gut wie möglich auszureizen. Neben der Mechanik sehen wir in diesem Punkt auch einen der Hauptvorteile unserer Prüfstation gegenüber anderen Prüfständen. Wir haben dafür viel Zeit und Geld investiert. Letztlich können wir dadurch aber recht genaue Messwerte mit geringen Standardabweichungen angeben und haben eine sehr gute Reproduzierbarkeit. Das ist gerade bei geringen Unterscheiden zwischen Kühleren enorm wichtig. Die Methode das Messwertfeld künstlich mit unrealistischen Verlustleistungen zu spreizen wäre auch bei uns prinzipiell möglich, da unser Heiz-FET, wie gesagt, noch wesentlich mehr hergibt. Wir verzichten aber standardmäßig absichtlich auf diesen Trick, weil wir auch abbilden möchten wie eng es tatsächlich zu geht. Es ist schließlich niemandem geholfen wenn sich jemand z.B. einen Kühler an den Hals reißt, der in einem Test mit unrealistischer Verlustleistung messbar besser abgeschnitten hat als ein anderer Kühler, aber beide Kühler bei realistischer Verlustleistung im Rahmen der Messgenauigkeit gleich auf liegen. Es ist auch nicht ausgeschlossen, dass bestimmte Kühlerdesigns über die Maßen von einer solchen künstlichen Spreizung profitieren, während andere das nicht tun – das sind alles Unwägbarkeiten die wir mit einer realitätsnahen Verlustleistung vermeiden. Es ist im Übrigen, zumindest aus meiner Sicht, nicht Sinn und Zweck eines Prüfstands schöne (um nicht zu sagen geschönte) Diagramme zu erzeugen, bei dem sich ein glasklares Ranking ergibt, welches aber an jeder Realität meilenweit vorbei geht. Schlimm genug, dass man sich bezüglich der DIE-Sim Gestaltung aufgrund der ausufernden Anzahl verschiedener CPU-Kerne auf einen Kompromiss der den Durchschnitt abbildet besinnen muss, um für eine Großzahl realer CPUs ein vernünftiges Bild zu erhalten. Wenn dann auch noch mit unrealistischen Leistungen gespielt wird, könnte man auch gleich Messwerte erfinden oder auf Hardware testen. Wir nutzen stattdessen alle Vorteile eines physikalischen Prüfstand nach bestem Wissen und Gewissen aus, ohne dabei Gefahr zu laufen uns von realen Systemen zu weit zu entfernen, nur um ein schönes Ranking zu erhalten. Ist ein Kühler wirklich deutlich besser als ein anderer sehen wir das bei uns – ist er gleich gut wie ein anderer sehen wir das auch. So einfach ist das im Grunde genommen.
‚[LE said:
Al_bundy;431766′]Um Performancesprünge von Kühler zu Kühler und von Änderung zu Änderung sichtbarer zu machen ist es angebracht mehr Leistung reinzuschieben. Wie erwähnt sind 150W schon das nötige minimum.Und wenn ich das richtig verstanden habe wollt ihr der Community Leistungssprünge und Leistungseinbrüche sichtbar machen. Das geht mit 150W elektrischer Leistung, deutlicher wird es jedoch bei 200W und mehr!Wir wollen Leistungssprünge sichtbar machen die sich auch in der Realität auswirken ;).
‚[LE said:
Al_bundy;431766′]Frank hätte das bei einen rebuild des Teststandes gemacht. Und das nicht ohne Grund. Er hätte es gemacht um eben die Änderungen sichtbarter zu machen und um das Feld weiter auseinander rücken zu lassen. Auch hier würden keine Nachteile entstehen. Aber das will man ja nicht… Ebenso wenig wie die Anpassung der DIEfläche…Aber das is euer Bier.Das siehst du genau richtig! Das ist in der Tat unser Bier ;).
-
19. Oktober 2010 um 13:10 Uhr #866879
[LE]Al_bundy
TeilnehmerDann bitte ich doch mal um eine Messung das wirklich auch 140W an Wärmemenge oben ankommt^^ Meinetwegen auch besser da du das ja eher besser einschätzt.
Dein Problem is das 150W eletrische Leistung die unten eingespeist werden keine 140W geschweige denn 145W oder gar 150W Wärmemenge oben ankommen. 150W Wärmemenge ist nicht gleich 150W Elektrische Leistung in Verbindung dieses Konstruktes.
Du kannst eben nicht in der WPS eingeben wieviel Wärmemenge du einspeist. Du kannst nur einstellen wieviel elektrische Leistung du verbrätst. Das sind 2 paar Stiefel 😉 -
19. Oktober 2010 um 13:10 Uhr #866877
thethe
TeilnehmerVJoe2max;431784 said:
Rein aus praktischer Sicht erscheint der Anteil eher kleiner zu sein als der den eine CPU an die Umgebung abgibt. Ob es nun 3% (4,5W) sind oder lass es meinetwegen 10% (15W) sein ist nicht der ausschlaggebende Punkt – solange der Anteil gleich bleibt.„Eher kleiner“ ist eine sehr vorsichtige Bemerkung. Während ein Teststand wohl wirklich unter 5 Watt „Verlust“ hat, heizt das Die einer heftig übertakteten CPU über den Sockel und das PCB sogar massive Backplates dermaßen auf, daß deren Wärmestrahlung die zwei Zentimeter entfernte Gehäusewand großflächig über 35 Grad warm werden läßt.Von der Verlustleistung einer scharf übertakteten CPU werden deutlich mehr als 15 Watt über Sockel, PCB des Mainboards und Backplate direkt an die umgebende Luft abgegeben.
VJoe2max;431784 said:
Auch eine 75W Glühbirne ist noch kein Schmusekissen.Aber für den Ingenieur schon 😆
VJoe2max;431784 said:
Allgemein wäre es btw angebracht sich dem eigentlichen Thema – dem Feedback zu unserem Prüfstand wieder zu nähernJa, genug geschmunzelt.
VJoe2max;431784 said:
Die Methode das Messwertfeld künstlich mit unrealistischen Verlustleistungen zu spreizen wäre auch bei uns prinzipiell möglich, Da unser Heiz-FET wie gesagt noch wesentlich mehr hergibt, aber wir verzichten standardmäßig absichtlich auf diesen Trick, weil wir auch abbilden möchten wie eng es tatsächlich zu geht.Ganz entscheidender Punkt! Bloß nicht künstlich spreizen, wer das will, kann einfach das Komma um eine Stelle nach rechts versetzen
-
19. Oktober 2010 um 14:10 Uhr #866883
VJoe2max
Teilnehmer‚[LE said:
Al_bundy;431779′]1 ist nicht zu vernachlässigen -> mit Absicht konisch ausgeführte Bodenunterseiten durch konstruelle Anderungen. -> Ek Waterblocks, Watercool, 5/100mm hoher Sockel als Stützpunkt am Deckel der den Boden bei Montage konisch herkommen lässt.Ek Supreme LT und Aquacomputer Kryos und XSPC Rasa machen das mit Dichtungen.Grund dafür ist das sich die Bodenunterseite dem IHS besser anpassen kann um einen besseren Kontakt zubekommen. Der Yellowstone Spirit hat das auch, jedoch sind es 1/10mm. Nebendem polierten Boden und der Gravur auf der Halterung die einzige Veränderung des Spirit zum Non Spirit.Es ist ja schön, dass du uns das alles aufzählst, aber glaubst du ernsthaft das wäre uns nicht bekannt? :roll:Selbst bei einem planen Kühlerboden und einem Planen IHS ist der Wärmeübergang nicht identisch wie auf einem Prüfstand. Das ist keine Neuigkeit. Wenn ein Kühler einen konvexen Boden hat, der sich an die Oberfläche des IHS anpassen soll, so tut er das auf einer CPU genau wie auf einem Prüfstand. Das ist Bestandteil der Kühlerkonstruktion. Der IHS auf dem Prüfstand ist plan. Darauf muss sich der Kühler bewähren. Dass sich ein Kühler auf einem krummen IHS anders schlägt als in Tests mit planer Referenz-CPU bzw einem planen IHS auf einem DIE-Sim ist vielen aus eigener Erfahrung hinreichend bekannt. Du willst doch nicht ernsthaft vorschlagen auch noch krumme IHS mit einem Prüfstand abzubilden – oder? Da würde ich dann eher empfehlen zu raten ;). Konisch bedeutet btw kegelig. Was du meinst ist eine konvexe Oberfläche ;).
‚[LE said:
Al_bundy;431779′]Das sind erhebliche Tatsachen die das Ranking eines Kühlers Maßgeblich beeinflussen. Ek Waterblocks hatte mit den Supreme dieses Phänomen hervorgerufen und weitere Hersteller haben diese neue Erkenntnis in Folgeprodukte angewand. Das ist ein müheloses feintuning was nichts kostet.Das Ranking eines Kühlers beeinflusst das überhaupt nicht. Aller Kühler werden auf einem planen IHS getestet. wenn sie darauf schlecht performen stehen sie selbstverständlich im Ranking schlechter da. Mit Fein-Tuning hat das btw nichts zu tun. Das ist ein Workaround für ungenau gefertigte Heatspreader wie sie leider häufig anzutreffen sind.Für den Prüfstand ist das irrelevant.
‚[LE said:
Al_bundy;431790′]Dann bitte ich doch mal um eine Messung das wirklich auch 140W an Wärmemenge oben ankommt^^ Meinetwegen auch besser da du das ja eher besser einschätzt.Dein Problem is das 150W eletrische Leistung die unten eingespeist werden keine 140W geschweige denn 145W oder gar 150W Wärmemenge oben ankommen. 150W Wärmemenge ist nicht gleich 150W Elektrische Leistung in Verbindung dieses Konstruktes.Du kannst eben nicht in der WPS eingeben wieviel Wärmemenge du einspeist. Du kannst nur einstellen wieviel elektrische Leistung du verbrätst. Das sind 2 paar Stiefel 😉Bitte nicht schon wieder so ein Unsinn! Denk noch mal drüber nach ;).Wir wollen doch nicht schon wieder bei Adam und Eva anfangen – oder?Wo bitte glaubst du, dass die 150W elektrische Leistung bleiben die rein gesteckt werden, wenn sie nicht zu 100% in Wärme umgesetzt würden? Werden sie vllt. in PSI-Strahlen umgewandelt oder leben davon die Heinzelmännchen? :D.Ich denke die Anwendung des 1.Hauptsatzes müsste dir doch nach der ellenlangen Diskussion hier langsam in Fleisch und Blut übergegangen sein. Aber offensichtlich irre ich mich da schon wieder dir.Mach es dir doch nicht so schwer! Ich habe keinen Grund dir einen Bären aufzubinden oder dir Unsinn beizubringen ;). Wenn ich sage, dass jeder Halbleiterbaustein (außer Licht emittierende) 100% der elektrischen Energie die er aufnimmt in Wärme umsetzt, so hat das seinen Grund und ist wissenschaftlich belegt (wobei das lediglich Mittelstufen-Niveau ist und keiner hohen Wissenschaft bedarf). Ich weiß echt langsam nicht mehr warum ich mir mit dir so viel Mühe gebe…Kaum hat man das Gefühl du hast etwas verstanden, kommt der nächste solche Hammer. Ich würde da wirklich etwas vorsichtiger sein. Das ist hier ein öffentliches Forum. Jeder kann lesen was du hier für „Weisheiten“ absonderst.Warum fängst du immer wieder mit solchen Unfug an, bei dem jeder Praktikant in einem technisch angehauchten Berufszweig nur noch Mitleid mit dir haben kann?Edit:
thethe;431793 said:
In Eurer folgenden Abbildunghttp://www.meisterkuehler.de/bilder/original_images/224teststand0138.jpgkann ich den Kupferblock nicht abschätzen. Mir scheinen ca. 12mm Kupfer zwischen dem FET und der Unterseite des Heatspreaders zu liegen.10mm E-Kupfer ;).
thethe;431793 said:
Weiterhin müssen wohl die letzten ca. 3mm auf jene 16x16mm Grundfläche geschliffen sein.Es ist ein 0,8mm hoher Absatz a 16x16mm² freigefräst. Das entspricht in der Höhe einem DIE mit Bonding ;).
thethe;431793 said:
Und wie ist der restliche Raum unter dem Heatspreader aufgefüllt?Luft – like in the real world ;).
-
19. Oktober 2010 um 14:10 Uhr #866882
thethe
TeilnehmerIn Eurer folgenden Abbildung
kann ich den Kupferblock nicht abschätzen. Mir scheinen ca. 12mm Kupfer zwischen dem FET und der Unterseite des Heatspreaders zu liegen.Weiterhin müssen wohl die letzten ca. 3mm auf jene 16x16mm Grundfläche geschliffen sein.Stimmt das so?Und wie ist der restliche Raum unter dem Heatspreader aufgefüllt?
-
19. Oktober 2010 um 15:10 Uhr #866888
Obi Wan
Administrator[SIZE=“4″]und deshalb bitte wieder back to topic :cool:[/SIZE]
VJoe2max;429978 said:
Rubrik: MK-KühlerprüfstationNun ist es endlich ist es soweit: Die Meisterkühler testen nun selbst Wasserkühler!
Nach mehreren Anläufen und viel Aufwand ist aus unserem Meisterkühler Teststand v.1 ist die MK-Kühlerprüfstation geworden, die wir euch in dem folgenden Artikel ausführlich vorstellen wollen.
… ➡ mehr
-
19. Oktober 2010 um 15:10 Uhr #866885
GoZoU
Moderator‚[LE said:
Al_bundy;431790′]150W Wärmemenge ist nicht gleich 150W Elektrische Leistung in Verbindung dieses Konstruktes.Du kannst eben nicht in der WPS eingeben wieviel Wärmemenge du einspeist. Du kannst nur einstellen wieviel elektrische Leistung du verbrätst. Das sind 2 paar Stiefel 😉Auch wenn ich mich bisher zurückgehalten habe, muss ich nun doch mal etwas sagen. Worin soll die elektrische Energie denn gewandelt werden? Bewegungsenergie, Potentielle Energie oder vielleicht doch Wärme?Kreuze Zutreffendes an :D.€dit: Es kann sein, dass ein winziger Anteil Energie über die Kabel verloren geht. Was für eine Art Energie das ist und wie die sich bemerkbar macht, lasse ich jetzt mal offen ;)MfGGoZoU
-
19. Oktober 2010 um 15:10 Uhr #866884
[LE]Al_bundy
TeilnehmerDu hast geschrieben das der Wärmeübergang Boden IHS keine Rolle spielt. Da bin ich anderer Meinung. Wie oben bechrieben. Und deine These das das an Produktionsschwankungen und ungenauigkeiten in der Produktion liegt verwerf mal gleich wieder!
Diese konvexe Geschichte ist pure Absicht um den Wärmeübergang IHS Bodenunterseite zu optimieren. Diese Tatsache hat nichts damit zu tun wie gut oder schlecht der MK Teststand ist oder wie ein Konvexer oder planer Boden auf euren Grill skaliert. Die Entwicklung befasst sich mit Gegebenheiten die auf ner CPU basieren und nicht auf einen Grill der 2 Jahre später vorgestellt wird.
Akzeptier es einfach und fertig.
Ich habe schon so einige Schoten und Binsenweisheiten ausgehebelt.Dritte Reihe erstes Bild. Zentrisch am Einlass, ein runder Sockel mit einer Erhöhung damit der Boden nach Montage konvex ist!
Dritte Bidlerreihe!
Zwar nicht rund, aber vorhanden!
Weiterhin verweise ich auf die Montageanleitung Aquacomputer Kryos, Abschnitt Dichtung am Deckel anbringen, bzw Dichtung wechseln.Mir scheint es wenn es um Kühlerfragen geht, stellst du dich was die Tatsachen und Dokumentationen der Hersteller angeht drüber hinweg! Denkst du ernsthaft die machen Dieses und Jenes weil die Langeweile haben oder weil die es nich besser hinkriegen?
Fragen die von meiner Seite auftauchen werden im Keim erstickt und es wird knallhart mit ellenlangen Texten geantwortet die man in einen kleinen Abschnitt hätte verfassen können. Somit hat man ja fein abgelenkt da man das andere ja schon wieder vergessen hat.
Vieles was du hier behauptest ist schlicht und ergreifend nicht war. Nicht unbedingt was die Physikalische Seite angeht, vieles andere darüber hinaus schon! Es wird mir ja nicht mal annähernd eingeräumt das ich mit meiner Behauptung recht haben könnte!€dit2:
Was denkst du was Tommy mir wohl immer und immer wieder erzählt hat?
Das das A und O am Kühler die Bodenunterseite ist. Der Kühler kann noch so geil sein wenn er die Wärme aufgrund schlechten Kontakt CPU-Boden nicht ordnungsgemäß aufnehmen kann, denn dann ist alles weitere defakto für den PO. Und du willst der Welt erzählen das diese unabdingbare Größe genauso wichtig ist wie ein Playboy Abo für den Papst? -
19. Oktober 2010 um 15:10 Uhr #866886
VJoe2max
Teilnehmer‚[LE said:
Al_bundy;431795′]Du hast geschrieben das der Wärmeübergang Boden IHS keine Rolle spielt. Da bin ich anderer Meinung. Wie oben bechrieben. Und deine These das das an Produktionsschwankungen und ungenauigkeiten in der Produktion liegt verwerf mal gleich wieder!Bitte lies mein Posting noch einmal und überdenke die Antwort. Ich sprach völlig klar und eindeutig von krummen IHS ;).Dass manche Kühlerböden absichtlich konvex sind ist jedem einigermaßen mitlesenden Wakü-Nutzer spätestens seit den ersten D-Tek Kühlern bekannt bei denen das angewandt wurde. Das ändert jedoch nichts daran, dass die IHS ungenau gefertigt werden.
‚[LE said:
Al_bundy;431795′]Diese konvexe Geschichte ist pure Absicht um den Wärmeübergang IHS Bodenunterseite zu optimieren. Diese Tatsache hat nichts damit zu tun wie gut oder schlecht der MK Teststand ist oder wie ein Konvexer oder planer Boden auf euren Grill skaliert. Die Entwicklung befasst sich mit Gegebenheiten die auf ner CPU basieren und nicht auf einen Grill der 2 Jahre später vorgestellt wird.Akzeptier es einfach und fertig…..Dass einige Kühlerböden absichtlich konvex vorgebogen werden ist wie gesagt nicht erst seit heute so. Über den Einfluss dieser Maßnahme lässt sich streiten. Fest steht, dass sie nicht schadet. Der Wärmeübergang wird dadurch jedenfalls auch nicht besser als bei einem planen Kühler auf einem planen IHS (sofern die ReBo nicht zu gering ist).
‚[LE said:
Al_bundy;431795′]Ich habe schon so einige Schoten und Binsenweisheiten ausgehebelt.Oh ja so scheint es mir auch 😀
‚[LE said:
Al_bundy;431795′]€dit2:Was denkst du was Tommy mir wohl immer und immer wieder erzählt hat?Das das A und O am Kühler die Bodenunterseite ist. Der Kühler kann noch so geil sein wenn er die Wärme aufgrund schlechten Kontakt CPU-Boden nicht ordnungsgemäß aufnehmen kann, denn dann ist alles weitere defakto für den PO. Und du willst der Welt erzählen das diese unabdingbare Größe genauso wichtig ist wie ein Playboy Abo für den Papst?Bitte lenke diese Art Weisheiten in andere Kanäle als in diesen Therad. Wie man Kühler baut und auf was es dabei ankommt ist uns allen bewusst. Wir brauchen da weder von dir noch von Tommy irgendeine Nachhilfe ;). Glaubst du wir leben hinterm Mond?
-
19. Oktober 2010 um 16:10 Uhr #866890
thethe
TeilnehmerVJoe2max;431794 said:
thethe;431793 said:
In Eurer folgenden Abbildunghttp://www.meisterkuehler.de/bilder/original_images/224teststand0138.jpgkann ich den Kupferblock nicht abschätzen. Mir scheinen ca. 12mm Kupfer zwischen dem FET und der Unterseite des Heatspreaders zu liegen.10mm E-Kupfer ;).
thethe;431793 said:
Weiterhin müssen wohl die letzten ca. 3mm auf jene 16x16mm Grundfläche geschliffen sein.Es ist ein 0,8mm hoher Absatz a 16x16mm² freigefräst. Das entspricht in der Höhe einem DIE mit Bonding ;).
thethe;431793 said:
Und wie ist der restliche Raum unter dem Heatspreader aufgefüllt?Luft – like in the real world ;).
Danke, das sind wichtige Informationen.Das Die einer CPU sitzt auf einer faserverstärkten Kunststoffplatte, die zwar mit feinen Kupferleitungen durchzogen ist, aber trotzdem eine deutlich schlechtere Wärmeleitfähigkeit und einen niedrigeren Wärmeübergangskoeffizienten an Luft hat als der von Euch verwendete Kupferblock.Was man jetzt nicht mehr ändern kann wäre, den Absatz von 0.8mm so weit zu vergrößern, daß man eine ausgediente Trägerplatte einer CPU mit einer 16x16mm Bohrung draufsetzen kann, so daß der Wärmeeintrag in den Heatspreader, der durch Wärmestrahlung und Konvektion der Luft in dem Hohlraum außerhalb des 16x16mm-Feldes stattfindet, auf das bei einer echten CPU übliche reduziert wird.
-
19. Oktober 2010 um 16:10 Uhr #866889
thethe
Teilnehmer‚[LE said:
Al_bundy;431795′]Dritte Reihe erstes Bild. Zentrisch am Einlass, ein runder Sockel mit einer Erhöhung damit der Boden nach Montage konvex ist!Muß man gar nicht lange suchen, findet man Foto von mir hier im Forum, wo die eher quadratische Erhöhung deutlich zu sehen ist, und zwar im Kapitel 4. Beseitigen einer Durchflußbremse. Die Erhöhung erstreckt sich auch auf den Mittelsteg zwischen den beiden Düsenvorkammern.Aber: Warum zum Teufel eigentlich konvex (was soviel bedeutet wie „nach außen gebeult“)? Die Heatspreader sind meistens nach außen gebeult und eine optimal passende Bodenplatte müßte das Negativ dazu darstellen, also konkav geformt sein?EDIT: OK, das war auch etwas offtopic, sorry.
-
25. Oktober 2010 um 15:10 Uhr #867538
Newbi
Teilnehmeröhm, die Kabelbinder hättet ihr noch abschneiden können, ansonsten wirklich Perfekt.
Freue mich auf die Berichte und hoffe, das meiner auch mal getestet wird, würde mich wirklich sehr interessieren, wie gut meine Entscheidung vor 2 Jahren war.
-
25. Oktober 2010 um 16:10 Uhr #867542
GoZoU
ModeratorWelcher ist denn „deiner“? Da lässt sich später bestimmt was machen, wenn man das Modell kennt und es noch irgendwo zu bekommen ist.
-
24. Februar 2011 um 12:02 Uhr #881255
thethe
TeilnehmerIch habe mal mein (zugegebenermaßen billiges) Stromverbrauchsmeßgerät an meinen übertakteten Rechner angeschlossen, um zu ermitteln, wieviel Strom bei LinX verbraucht wird. Das Ergebnis ist im Bild zu sehen:Oben: Der Rechner ist idle (die Stromsparfunktionen sind aktiviert, die CPU ist auf ca. 2.66GHz heruntergetaktet und mit 1.2v befeuert)Mitte: Der Rechner bereitet einen LinX-Lauf vor (die CPU läuft mit maximalem Takt 4.67GHz und bei 1.42v)Unten: Der LinX-Lauf ist in vollem Gange (die CPU-Temperatur schnellt nach oben, Takt und Spannung sind aber wie beim Vorbereiten des LinX-Laufs).Offenbar verbraucht allein die CPU (mit Spannungswandlern und Northbridge) im LinX-Lauf 220Watt mehr als in der Vorbereitung und die widerum verbraucht 60Watt mehr als der Idle-Zustand.Schätzungsweise verursacht die CPU allein also unter maximaler Last fast 300Watt Abwärme!Zwei Fragen:1) Hat jemand ähnliche Erfahrungen oder kann mir einen Denk- oder Meßfehler zeigen?2) Macht es Sinn, die Verlustleistung der Meisterkühler-Prüfstation vielleicht doch wenigstens auf 200Watt anzuheben, denn das dürften wohl sehr viele auch leicht übertaktete CPUs unter Volllast erreichen?
-
24. Februar 2011 um 12:02 Uhr #881262
VJoe2max
TeilnehmerNimm mal ein Messgerät was besser mit Schaltnetzteilen zurecht kommt ;).Probier´s mal ohne OC und schau wie viel du da kriegst. Wenn das gleich oder mehr als die TDP ist kannst das Messgerät völlig vergessen ;).
-
16. April 2011 um 20:04 Uhr #886719
psahgks
Teilnehmer[SIZE=“4″]Update April 2011 ❗ ❗[/SIZE]:arrow:Da GoZoU beruflich bzw. studierender Weise stark eingespannt ist habe ich den Prüfstand erstmal uebernommen. Im März habe ich den Prüfstand abgeholt und hier untergebracht.
Er hat einen neuen Unterbau bekommen, dadurch ist der Prüfstand nun von allen Seiten gut einsehbar, kann bewegt werden und die Arbeitshoehe ist auch angenehmer als vorher:
In den unteren Etagen haben der Prüfstandrechner samt Bildschirm und das Prüfstand-Zubehoer Platz gefunden.
:arrow:Ich werde noch einen Test mit einem kommerziellen Kühler fahren, danach wird es dann an die Kühler der Teilnehmer der Deutschen Kühlerbaumeisterschaft gehen.
-
15. Mai 2011 um 16:05 Uhr #890590
psahgks
Teilnehmer[SIZE=“4″]Update Mai 2011 ❗ :!:[/SIZE]➡ Um Kühler mit Zentralanpressung auch mit der selbstzentrierenden Halterung testen zu koennen, habe ich eine Bruecke gebaut, die an den Sockel939-Bohrungen befestigt den Kühler zentral anpresst:
Die Schraube hat einen Konus von 45° an der Spitze.
-
15. Mai 2011 um 16:05 Uhr #890597
VJoe2max
TeilnehmerSehr schön! – passt auch optisch gut dazu 🙂
-
15. Mai 2011 um 17:05 Uhr #889089
Obi Wan
AdministratorDanke für das Update 😉
-
15. Mai 2011 um 17:05 Uhr #890607
psahgks
TeilnehmerJa, der von Oma-Hans.
Foto ist in seinem Worklog zu finden. 😉
-
15. Mai 2011 um 17:05 Uhr #890604
Patty
TeilnehmerKlasse :d: Benötigt die eigentlich irgendeiner der DKM Kühler?
-
15. Mai 2011 um 22:05 Uhr #890669
Oma-Hans
TeilnehmerHab eben ein Faible für zentrale Anpressung =)
-
17. Mai 2011 um 17:05 Uhr #890973
psahgks
TeilnehmerFaible oder Faulheit ?
Faulheit, eine Halterung zu bauen ? ;P
-
23. Mai 2011 um 22:05 Uhr #891943
thethe
TeilnehmerOma-Hans;431715 said:
thethe;431713 said:
Und das müßte immer zum gleichen Temperaturgefälle Wasser-Luft führen. Aber das ist nicht so. Warum nicht?Dein „Denkfehler“ liegt ganz am Anfang. Du gehst davon aus, dass die Kühler die komplette Wärmeleistung des DIE-Sim abführen.
Tun sie aber nicht, sonst hätten sie ja alle die gleiche „Leistung“. Je geringer die „Leistung“ (vielmehr der Wirkungsgrad) des Kühlers, desto weniger Wärmeenergie gibt er vom DIE-Sim ans Wasser über und umso wärmer wird der DIE-Sim (da ja die restliche Leistung/Energie im DIE-Sim in Form einer Temperaturerhöhung verbraten wird)
Grüße,
Jensim Rahmen der DKM wurde u.a. gefragt, was DeltaT-Luft-Wasser bedeute.
Und in Verbindung mit der oben zitierten Antwort auf eine alte Frage von mir kommt mir wieder dieses Problem in die Quere, und zwar in den Meßwerten der DKM-Kühler:
Ein weniger performanter Kühler müßte ein höheres FET-Wasser-DeltaT haben (und danach werden hier ja auch die Plätze verteilt). Dann müßte er das Wasser weniger aufheizen und entsprechend ein geringeres Wasser-Luft-DeltaT haben. Das zeigt sich aber bei den Kühler der DKM nicht. Warum nicht?
Hat jemand Lust einen Scatter-Plot FET-Wasser-DeltaT vs. Wasser-Luft-DeltaT zu drucken?
-
24. Mai 2011 um 0:05 Uhr #891968
Sl3dgh4mm3r
TeilnehmerAlso wenn man die Werte betrachtet sellt man fest:DeltaT Wasser/Luft = konstant Mittelwerte Wassertemperatur = konstantIch denke ein schlechter Kühler gibt die Wärme/Energie langsamer an das Wasser ab. Da aber der Test ja über einen längeren Zeitraum verläuft, kann jeder Kühler diesen konstanten Wert erreichen. Daher nehme ich an, dass gute Kühler diesen konstanten Wert schneller erreichen. D.h. es müsste deutliche Unterschiede in der Ableitung geben. Die Frage die sich nun stellt ist wieso diese beiden Werte konstant werden?!Edit: vll. weil konstant Energie durch den HeizFET hinzugefügt wird?Edit 2: Eigentlich gibt doch jeder Kühler gleich viel Energie an das Wasser ab oder? Nur schlechtere Kühler brauchen dafür ein größeres delta FET/Wasser.Edit 3: Das bedeuted ja wiederum das ein guter Kühler sich nur dadurch auszeichnet, dass er bei einem geringeren delta FET/Wasser die gleiche Menge Energie abführen kann, als ein schlechterer Kühler bei einem höheren delta FET/Wasser.Edit 4: Sofern meine Schlussfolgerungen korrekt sind, erschließt sich dann hier nicht eine Analogie zu der Leistung von Radiatoren?
-
24. Mai 2011 um 10:05 Uhr #891986
VJoe2max
Teilnehmer@thethe und @all: Zunächst mal ist Folgendes zu beachten: Der Wärmestrom den ein Kühler auf dem Prüfstand kontinuierlich vom FET ans Wasser überträgt ist im stationären Zustand, wie hier ja schon recht ausführlich diskutiert wurde, immer der Gleiche – nämlich die 150W des FET minus minimale Strahlungs- uns Konvektionsverluste & minimale Wärmeverluste durch die Isolierung. Da liegt Oma-Hans also falsch ;).Würde ein Kühler das nicht leisten käme das System auch nach unendlich langer Zeit nicht in einen stationären Zustand – sprich das HeizFET würde irgendwann wegen zu hoher Temperatur durchbrennen. Eine langsamere oder schnellere Übertragung der Wärme gibt es daher im stationären Zustand nicht. Die Messwerte in diesem Bereich sind zeitunabhängig, weshalb auch nur hier die Messung Sinn hat – das gilt im Übrigen auch für Pseudo-Tests auf Hardware ;). Lediglich das Erreichen des stationären Zustandes kann unterschiedlich lang dauern. Das ist ausschließlich von der Wärmekapazität des Kühlmediums und des Kühlers selbst abhängig, sowie von dessen direkter Wärmeabgabe über Strahlungswärme (sehr geringer Einfluss). Die Unterschiede was die Zeit zum Erreichen des stationären Zustandes angeht sind btw von Kühler zu Kühler äußerst gering. In der Testkonfiguration unseres Prüfstandes beträgt diese Zeit ca. 20min. Von Kühler zu Kühler unterscheidet sich der Zeitraum höchstens um wenige Minuten. Die Kühlleistung beschreibt letztlich die Wirkung des Wärmewiderstands den der Kühler dem Wärmestrom entgegensetzt – anders herum gesagt die Treibkraft die nötig ist, um einen Wärmemenge fester Größe pro Zeiteinheit (das entspricht dem Wärmestrom, also der Heizleistung) durch den Kühler zu übertragen. Die nötige Triebkraft ist die, sich in Abhängigkeit des absoluten Wärmewiderstandes des Kühlers einstellende, Temperaturdifferenz. Diese beschreibt daher, als einzige variable Größe unabhängig von der Luft- bzw. Wassertemperatur, die Kühlleistung des Kühlers. Sie bestimmt letztlich wie kalt oder heiß das FET (bzw. die CPU) im stationären Zustand wird. Hätte man absolut gleichbleibende Lufttemperaturen vor dem Radiator zur Verfügung, könnte man auch die absolute FET-Temperatur als Kenngröße für die Kühlleistung des Kühlers heran ziehen. Das hat aber aus Vergleichbarkeitsgründen, und weil man in der Regel keine präzise Klimakammer zur Verfügung hat, keinen Sinn. Die Differenz DeltaT FET-Wasser ist deshalb die Messgröße die die Kühlleistung des Kühlers, unabhängig von Umgebungs- bzw. Wassertemperatur, beschreibt. Das DeltaT Wasser-Luft hat mit der Kühlleistung des Kühlers als DeltaT FET-Wasser dargestellt, an sich nichts zu tun. Es bleibt im Rahmen der Randbedingungen relativ konstant und beschreibt im Grunde die Radiotorleistung. Da liegst du, wenn man so will, also falsch. Wobei ich dir recht gebe, dass eine gewisse Schwankungsbreite zu beobachten ist – wobei sich diese seit dem Umzug der Prüfstation in konstantere Umgebungsbedingungen auch noch mal verringert hat ;). Da sie aber keinen Einfluss das DeltaT FET-Wasser hat, ist diese Schwankungsbreite für die Kühlleistungsmessung der Kühler relativ irrelevant, sofern sie nicht völlig aus dem Ruder läuft. Für den Messwert DeltaT Wasser-Luft sind letztlich nur der eingespeiste Wärmestrom (der wie gesagt immer gleich ist), die Lüfterdrehzahl, die Radiatorfläche und die geometrischen Umgebungsbedingungen verantwortlich. Nahezu zu vernachlässigend geht auch der Volumenstrom des Wassers ein. Wie hoch das DeltaT Wasser-Luft also ist, hängt nicht vom Kühler ab, der getestet wird. Es beschreibt im Endeffekt die Rückkühlleistung des Radiators. Dass diese Differenz von Test zu Test etwas schwankt ist im Wesentlichen der Tatsache geschuldet, dass besagte Klimakammer nicht zur Verfügung steht und die Lüfter nicht 100%ig mit konstanter Drehzahl zu betreiben sind. Auch der Standort des Prüfstandes an sich und die Abfuhr der erwärmten Luft (Stichwort: Wiederansaugung erwärmter Luft) können diese Differenz leicht beeinflussen. Das DeltaT Wasser-Luft bewegt sich trotzdem immer in ungefähr gleichem Rahmen, weil die dafür verantwortlichen Parameter nicht sehr stark schwanken. Seit dem Umzug des Prüfstands vor der DKM in psahgks Keller ist die Streuung bei dieser Temperaturdifferenz aufgrund der gleichbleibenderen Bedingungen, wie gesagt, noch geringer geworden. Wichtig ist aber in dem Zusammenhang aber vor allem: Auf die Kenngröße die die Kühlleistung des Kühlers im Sinne des DeltaT FET-Wasser beschreibt, hat das DeltaT Wasser-Luft keinen Einfluss! Das wäre nur der Fall wenn man die Absolutwerte der FET-Temperatur zur Leistungseinordnung verwenden würde.@Sl3dgh4mm3r:Wie oben beschrieben, sind die beiden von dir genannten Werte (DeltaT Wasser-Luft und Mittelwert Wassertemp) nicht von der Kühlleistung des Kühlers abhängig. Sondern von der Rückkühlleistung des Radiators bei den gegebenen Randbedingungen und von der Lufttemperatur.Wie viel Wärmewiderstand der Kühler dem Wärmestrom vom FET entgegenstellt, geht in beide Werte nicht ein. Sie sagen daher auch nichts über den jeweils getesteten Kühler aus, sondern werden nur dokumentiert, um festzuhalten bei welchen Randbedingungen der Test stattfand (das ist im Sinne nachvollziehbarer Messungen einfach nötig). Zum Vergleich mit realen Systemen machen die beiden Messgrößen eine Aussage über die Radiatorleistung – und diese bleibt beim Prüfstand notgedrungen etwa gleich – bzw. lediglich leicht abhängig von den Umgebungsbedingungen. Zu deinen Edits:
Sl3dgh4mm3r said:
Edit: vll. weil konstant Energie durch den HeizFET hinzugefügt wird?Ja, der eingespeiste Wärmestrom bleibt immer gleich und ist nahezu unabhängig vom getesteten Kühler (nahezu wegen der minimal unterschiedlichen direkten Wärmeabgabe an der Kühleroberfläche).
Sl3dgh4mm3r said:
Edit 2: Eigentlich gibt doch jeder Kühler gleich viel Energie an das Wasser ab oder? Nur schlechtere Kühler brauchen dafür ein größeres delta FET/Wasser.So ist es ;).
Sl3dgh4mm3r said:
Edit 3: Das bedeuted ja wiederum das ein guter Kühler sich nur dadurch auszeichnet, dass er bei einem geringeren delta FET/Wasser die gleiche Menge Energie abführen kann, als ein schlechterer Kühler bei einem höheren delta FET/Wasser.Exakt! Das bedingt sich btw gegenseitig: Bei einem schlechten Kühler stellt sich automatisch ein größeres DeltaT FET-Wasser ein, während sich beim besseren Kühler automatisch ein geringes einstellt. Man kann die Differenz nicht vorgeben, sie ist direkt vom Kühler abhängig – sonst wären diese Messungen auch witzlos ;).
Sl3dgh4mm3r said:
Edit 4: Sofern meine Schlussfolgerungen korrekt sind, erschließt sich dann hier nicht eine Analogie zu der Leistung von Radiatoren?Sie sind korrekt, und wie du an den verhältnismäßig konstanten Werten von DeltaT Wasser-Luft erkennst nutzen wir immer den gleichen Radiator unter möglichst gleichbleibenden Randbedingungen :D. Würden wir auf dem Prüfstand Radiatoren testen, was im Prinzip möglich wäre (aber aufgrund der Heizleistungen nicht unbedingt sinnvoll), würde der Kühler immer gleich bleiben und damit auch das DeltaT FET-Wasser, während sich das DeltaT Wasser-Luft mit dem jeweils getesteten Radiator verändern würde. Wie man jedoch an den immerhin doch messbaren Schwankungen der radiatorspezifischen Werte mit den Randbedingungen auch bei den Kühlertests sehen kann, sind vernünftige Radiatorentest allgemein noch etwas schwieriger als Kühlertests – zumindest wenn man ähnliche Absolutgenauigkeiten erreichen will. Hier müsste man im Endeffekt dafür sorgen, dass insbesondere der Volumenstrom der Luft absolut konstant bleibt. Dieser geht beim Radiator aufgrund der geringen Wärmekapazität der Luft weitaus mehr ins Ergebnis ein, als der Volumenstrom des Wassers im Kühler oberhalb des laminar-turbulent Übergangs. Wenn man die Ansprüche an die Messgenauigkeit etwas herunter schraubt sind aber auch solche Messungen durchaus praxisnah machbar. Prinzipiell wäre für Radiatortests aber eine wesentlich höhere Heizleistung im Sinne realitätsnaher Betrachtungen sinnvoll, denn in echten Waküs speist die Grafikkarte (oder evtl. sogar mehrere) ja häufig einen erheblich größeren Wärmestrom ein, als eine massiv übertaktete CPU.Für Radiatoren ab 360er Größe wären daher konkret Heizleistungen im Bereich von 300W (was gerade noch mit unserem HeizFET möglich wäre) bis 600W aufwärts anzustreben.
-
24. Mai 2011 um 13:05 Uhr #892004
Oma-Hans
TeilnehmerVJoe2max;458576 said:
Da liegt Oma-Hans also falsch ;).Richtig, Gedankenfehler. Ich revidiere! 😉
Grüße,
Jens -
24. Mai 2011 um 14:05 Uhr #892008
thethe
TeilnehmerGrundsätzlich ist mir das klar. Ich habe aber auf das eben nicht konstante DeltaT Luft-Wasser aufmerksam machen wollen. Und die Ursache hierfür ist meiner Meinung nach durch einen Fehler in der folgenden Annahme zu erklären:
VJoe2max;458576 said:
@thethe und @all: Der Wärmestrom den ein Kühler auf dem Prüfstand kontinuierlich vom FET ans Wasser überträgt ist im stationären Zustand, wie hier ja schon recht ausführlich diskutiert wurde, immer der Gleiche – nämlich die 150W das FET minus minimale Strahlungsverluste & minimale Wärmeverluste durch die Isolierung. […] Wärmeabgabe über Strahlungswärme (sehr geringer Einfluss).Der Fehler in dieser Annahme sind m.M. „minimale Strahlungsverluste“ und ihr „sehr geringer Einfluss“. Denn das klingt so, als wenn diese im Promille-Bereich lägen. Die Wirklichkeit ist m.M.n. anders:Wie Du schon richtig ausgeführt hast, ist die einzige Variable der Kühler. Aber Du übersiehst, daß dann auch zwingend die Variationen des DeltaT Luft-Wasser davon abhängig sind!Ein größeres DeltaT Luft-Wasser bei Kühler A im Vgl. zu Kühler B im stationären Zustand bei sonst gleichbleibenden Variablen bedeutet nunmal, daß mehr Wärmeenergie des FET im Wasser gelandet ist und über den Radiator bei höherem DeltaT Luft-Wasser an die Luft abgegeben wird.Es gibt also immer einen gewissen, m.M. nicht „sehr geringen“ Anteil an Wärmeenergie, der vom Kühller direkt an die umgebende Luft abgeben wird. Jeder Wasserkühler ist immer zu einem mehr oder weniger kleinen Anteil zugleich ein Luftkühler. Das Wasser, das den Kühler durchströmt, ist immer deutlich wärmer als die umgebende Luft. Das Temperaturgefälle ist also vorhanden. Besteht aber die Oberfläche des Kühler zu 90% aus POM (die unten über das Pseudo-DIE überstehende Bodenplatte strahlt immer Wärme an die Umgebung ab), so ist der Luftkühleranteil deutlich geringer als bei einem zu 100% aus Kupfer gefertigten Kühlerblock. Hinzu kommt das unterschiedliche DeltaT FET-Wasser. Ist dieses groß (20K), gibt die überstehende Bodenplatte viel mehr Wärmeenergie an die Luft ab, als etwa bei 10K.Was nun? Die Gesamtleistung eines Kühlers würde bei Eurem Prüfstand, bei dem alles konstant gehalten wird (Radiator, Lüfter und dessen Gewindigkeit, Gesamtwassermenge, Durchflußmenge,…), besser durch DeltaT FET-Luft wiedergegeben werden, als nur durch DeltaT FET-Wasser, da DeltaT FET-Luft auch die zusätzliche Kühlleistung durch die direkte Wärmeabgabe von der Kühleroberfläche an die Luft mitberücksichtigt.Warum ist das relevant? Weil Ihr eine Meßgenauigkeit angebt (z.B. bei Horstelin: „Mittelwert Delta T Wasser-Luft: 7,58 +- 0.04K“). Ich nehme an, das ist die Standardabweichung? Dann ist bereits ein Zehntelkelvin bei einem anderen Kühler statistisch signifikant unterschiedlich (bei ausreichendem N, von dem ich ebenfalls ausgehe).Ein signifikanter Effekt kann eine geringe Effektstärke haben, aber er bleibt signifikant und ist erklärungsbedürftig. Bei Kühlern, die die Wärme schlecht ans Wasser übertragen, geht bei großer Metalloberfläche mehr Energie in die Luft. Das würde durch DeltaT FET-Luft mitberücksichtigt werden.Dies ist mein Versuch einer Erklärung. Zeigen könnte man dies, indem man in erster Näherung die effektiv als Luftkühlung wirkende Oberfläche jedes Kühlers ermittelt, mit dem DetaT FET-Wasser gewichtet und dann mit dem DeltaT Wasser-Luft korreliert. Die Korrelation sollte signifikant werden.Warum gehe ich davon aus? Weil bei meinem eigenen System von der CPU über den DIE-Träger, den CPU-Sockel, das Mainboard und seine Aufbauten, die Backplate, u.s.w. locker 20W wenn nicht sogar 30W direkt an die Luft abgegeben werden. Woher ich das weiß? Weil das 3cm entfernte Metallgehäuse trotz Hinterlüftung allein durch die Strahlungswärme aus dem CPU-Bereich großflächig 10 Grad wärmer als die umgebende Luft wird. Das erreicht keine 10W-Wärmequelle.Bei mir liegen die Verluste durch direkte Wärmeabgabe an die Luft (natürlich nicht nur des Kühlers) eher im Bereich von 10%. Und der Anteil des Kühlers daran dürfte sicher deutlich über 1% liegen.
-
24. Mai 2011 um 17:05 Uhr #892024
VJoe2max
Teilnehmerthethe;458599 said:
Der Fehler in dieser Annahme sind m.M. „minimale Strahlungsverluste“ und ihr „sehr geringer Einfluss“. Denn das klingt so, als wenn diese im Promille-Bereich lägen. Die Wirklichkeit ist m.M.n. anders:Wie groß sie genau sind kann man ohne adiabates Messvolumen nicht messen, aber dass sie nur einen kleinen Bruchteil der Gesamtenergie ausmachen durchaus ;).
thethe;458599 said:
Wie Du schon richtig ausgeführt hast, ist die einzige Variable der Kühler. Aber Du übersiehst, daß dann auch zwingend die Variationen des DeltaT Luft-Wasser davon abhängig sind!Keineswegs! Die Verluste bis zum Kühler unterscheiden sich nicht durch den Kühler. Die „Verluste“ an der Kühleroberfläche selbst, die außerhalb der Auflagefläche direkt an die Luft übergehen, beeinflussen höchstens das DeltaT FET-Wasser und sind ja auch teil der Kühlleistung des Kühlers – wenn auch nur in der geringen Maße beteiligt. Man könnte sich das – sofern man den Effekt als relevant einschätzen würde, wie einen winzigen Bordradiator des Kühler vorstellen ;).Bekanntlich werden Wasserkühler außerhalb der Auflagefläche jedoch kaum wärme als das Wasser (wurde btw auch schon oft genug nachgemessen ;)). Da der Effekt bei unseren Messungen offensichtlich nicht nachweisbar ist, scheint er unterhalb der Messtoleranz zu liegen.
thethe;458599 said:
Ein größeres DeltaT Luft-Wasser bei Kühler A im Vgl. zu Kühler B im stationären Zustand bei sonst gleichbleibenden Variablen bedeutet nunmal, daß mehr Wärmeenergie des FET im Wasser gelandet ist und über den Radiator bei höherem DeltaT Luft-Wasser an die Luft abgegeben wird.Nein, das stimmt einfach nicht. Mit dem DeltaT Wasser-Luft hat das im Rahmen der Messgenauigkeit nichts zu tun. Dessen messbare Schwankungen sind allein auf die Randbedingungen am Radiator zurück zu führen. Du kannst das leicht an den Ergebnissen der bislang getesteten DKM-Kühler ablesen: Übersicht der bisherigen DKM-ErgebnisseWie du leicht siehst hat sich durch die stabilen Randbedingungen in psahgks Werkstatt das DeltaT Wasser-Luft auf ein sehr konstantes Niveau um 7,5K eingependelt – völlig unabhängig davon wie die Kühler performen oder welches Deckelmaterial Verwendung findet ;). Nimm dir z.B. loonys Florentine und meinen Wildwaster +X. Da stimmt das DeltaT Wasser-Luft zufällig auf die Kommastelle überein und die Kühler liegen dennoch gute 9K bei DeltaT FET-Wasser auseinander. Ich denke das zeigt recht eindrucksvoll wie winzig der Anteil an direkt abgegebener Wärme sein muss und das andere Effekte das DeltaT Wasser-Luft wesentlich stärker beeinflussen – und zwar auf der Radiatorseite. Das tut aber der Messung der Kühlleistung keinen Abbruch. Solche kleinen Effekte kann man ohne sehr teures Laborequipment einfach nicht mehr auflösen, und für die Praxis sind sie mit Verlaub gesagt erst recht irrelevantMinimale Schwankungen bei der Luftzirkulation sind auch in psahgks Wertkstatt nicht ganz vermeidbar, aber das ist wie gesagt auch gar nicht so wichtig, weil unser Messwert der Kühlleistung davon unabhängig ist. Wollten wir jegliche Schwankungen auf der Radiatorseite vermeiden, bräuchten wir einen vollklimatisierten Messraum mit Zwangsströmung. An den Messwerten auf der Kühlerseite würde es aber nicht das Geringste ändern. Im Übrigen wäre so manches Labor neidisch auf so stabile Werte ;). Du kannst angesichts dessen also getrost davon ausgehen, dass der Anteil an Strahlungswärme und Verluste durch freie Konvektion am Kühler selbst so gering ist, dass er für unser Equipment nicht mehr auflösbar ist und damit irrelevant für die Messwerte ist. An DIE-Sim und Kühler, haben wir allen erdenklichen Aufwand betrieben haben, um das bestmögliche Reproduzierbarkeit zu erreichen – und das auch ganz gut geschafft. Da wir hier durch die Differenzbildung unabhängig von der absoluten Wassertemperatur sind, gibt es, wie obige Ergebnisse zeigen, keine messbare Rückkopplung von DeltaT Wasser-Luft auf das DeltaT FET-Wasser.
thethe;458599 said:
Es gibt also immer einen gewissen, m.M. nicht „sehr geringen“ Anteil an Wärmeenergie, der vom Kühller direkt an die umgebende Luft abgeben wird. Jeder Wasserkühler ist immer zu einem mehr oder weniger kleinen Anteil zugleich ein Luftkühler. Das Wasser, das den Kühler durchströmt, ist immer deutlich wärmer als die umgebende Luft. Das Temperaturgefälle ist also vorhanden. Besteht aber die Oberfläche des Kühler zu 90% aus POM (die unten über das Pseudo-DIE überstehende Bodenplatte strahlt immer Wärme an die Umgebung ab), so ist der Luftkühleranteil deutlich geringer als bei einem zu 100% aus Kupfer gefertigten Kühlerblock. Hinzu kommt das unterschiedliche DeltaT FET-Wasser. Ist dieses groß (20K), gibt die überstehende Bodenplatte viel mehr Wärmeenergie an die Luft ab, als etwa bei 10K.Du überschätzt das m. M. n. massiv ;). Freie Konvektion und Strahlung setzen bei so geringen Temperaturdifferenzen und Flächen selbst im optimalen Fall nur minimale Energiemengen um. Es ist ja nicht so als ob der Effekt überhaupt nicht vorhanden wäre, deshalb erwähne ich ihn ja auch immer als vernachlässigbaren Einfluss, aber er ist eben wirklich im vernachlässigbaren Bereichen oder zumindest unterhalb der Grundtoleranz unserer Sensorik. Es ist müßig Dinge bewerten zu wollen die man nicht messen kann. Dabei haben WPS-Prüfstände wie unserer im Vergleich zur Hardware-Tester-Fraktion ja bereits HighEnd-Messtechnik am Start ;).
thethe;458599 said:
Was nun? Die Gesamtleistung eines Kühlers würde bei Eurem Prüfstand, bei dem alles konstant gehalten wird (Radiator, Lüfter und dessen Gewindigkeit, Gesamtwassermenge, Durchflußmenge,…), besser durch DeltaT FET-Luft wiedergegeben werden, als nur durch DeltaT FET-Wasser, da DeltaT FET-Luft auch die zusätzliche Kühlleistung durch die direkte Wärmeabgabe von der Kühleroberfläche an die Luft mitberücksichtigt.Nein keineswegs. Delta FET-Luft würde würde auch in einem Vollklimatisierten Raum keine bessere Aussage über die Kühlleistung des Kühlers machen als DeltaT FET-Wasser. Auch dann wäre natürlich DeltaT FET-Wasser nach wie vor das Maß der Dinge wenn´s um die Kühlleistung des Kühlers geht ;).Da es aber keinen Einfluss auf DeltaT FET-Wasser hat, ob wir nun auf der Radiatorseite von Test zu Test leichte Schwankungen bei DeltaT Wasser-Luft haben oder nicht, ist die Fragestellung auch irgendwo unsinnig ;).
thethe;458599 said:
Warum ist das relevant? Weil Ihr eine Meßgenauigkeit angebt (z.B. bei Horstelin: „Mittelwert Delta T Wasser-Luft: 7,58 +- 0.04K“). Ich nehme an, das ist die Standardabweichung? Dann ist bereits ein Zehntelkelvin bei einem anderen Kühler statistisch signifikant unterschiedlich (bei ausreichendem N, von dem ich ebenfalls ausgehe).Das ist die Standardabweichung des arithmetischen Mittels aus allen verwendeten Messwerten aus dem stationären Bereich. Sie gibt Auskunft darüber wie stark das Rauchen bei diesem Messwert ist – also eine Aussage über die Qualität der Messung. Die Grundtoleranz unserer Sensorik können wir deshalb nicht unterschreiten – kann im Übrigen kein Prüfstand ;).
thethe;458599 said:
Ein signifikanter Effekt kann eine geringe Effektstärke haben, aber er bleibt signifikant und ist erklärungsbedürftig. Bei Kühlern, die die Wärme schlecht ans Wasser übertragen, geht bei großer Metalloberfläche mehr Energie in die Luft. Das würde durch DeltaT FET-Luft mitberücksichtigt werden.Es gibt hier aber keinen, im Rahmen der Messgenauigkeit, signifikanten Effekt ;). Sonst würden wir ihn messen können. Der Effekt ist dennoch unbestreitbar vorhanden – wie viele weitere kleine Einflüsse auch. Da diese aber alle unterhalb der Auflösungsgrenze für die Messtechnik liegen, kann man dazu auf Basis der Messergebnisse schlicht keine vernünftige Aussage machen ;). Das sind etwas platt gesprochen Effekte zweiter Ordnung, die schlicht im Rauschen untergehen. Wenn man sich mal vor Augen hält was für einen Aufwand man schon treiben muss muss, um wenigstens die großen Effekte wie eine momentenfreie Anpressung usw. zu realisieren muss man auch einfach sagen, dass die Genauigkeit die wir hier erzielen für praktische Gesichtspunkte sowieso schon ziemlich heftig ist – aber selbstverständlich auch irgendwo Grenzen hat ;). Wir sind nicht die NASA – wobei ich Zweifel hätte, ob die das so viel besser hin kriegen würden :D.
thethe;458599 said:
Dies ist mein Versuch einer Erklärung. Zeigen könnte man dies, indem man in erster Näherung die effektiv als Luftkühlung wirkende Oberfläche jedes Kühlers ermittelt, mit dem DetaT FET-Wasser gewichtet und dann mit dem DeltaT Wasser-Luft korreliert. Die Korrelation sollte signifikant werden.Messdaten haben wir dafür inzwischen genug. Jetzt müsste sich nur jemand breit erklären alle Kühleroberflächen zu vermessen :D. Aber ich kann dir auch schon anhand der Messwerte und der Bilder der Kühler sagen, dass da eine schöne Punktewolke und ein Korrelationskoeffizient heraus kommt, der weit ab jeder Signifikanz liegt – glaub mir ich hab da notgedrungen bisschen Übung ;).
thethe;458599 said:
Warum gehe ich davon aus? Weil bei meinem eigenen System von der CPU über den DIE-Träger, den CPU-Sockel, das Mainboard und seine Aufbauten, die Backplate, u.s.w. locker 20W wenn nicht sogar 30W direkt an die Luft abgegeben werden. Woher ich das weiß? Weil das 3cm entfernte Metallgehäuse trotz Hinterlüftung allein durch die Strahlungswärme aus dem CPU-Bereich großflächig 10 Grad wärmer als die umgebende Luft wird. Das erreicht keine 10W-Wärmequelle.Hast du schon mal einen 1W Widerstand in 3cm von einer Blechwand aufgeheizt? ;)Solche Schätzungen sind äußerst wage. Im Übrigen fließt rückseitig über Sockel und Platine bei echten CPUs natürlich ein kleiner Teil der Wärme ab – das ist auch so gewollt. Ob das aber nun 5W, 10W oder gar 20 W sind, maße ich mir nicht an einzuschätzen. 30W sind es höchst Wahrscheinlich in keinem Fall. So viel verbraucht mein gesamter Hauptrechner im Idle. Und da kann ich bei abgeschalteten Lüftern an vielen Komponenten mittels IR-Thermometer Hotspots weit über 60° messen, die das Gehäuse außen auch locker um 10K erhitzen ;). Was ich damit sagen will: Da kann man sich sehr leicht grob verschätzen ;).Was man jedoch am Prüfstand messen kann, ist die Tatsache, dass aufgrund der Isolierung sehr wenig Wärme in die DIE-Sim Halterung abfließt. Für die Bestimmung der Kühlleistung eines CPU-Kühlers ist das jedoch auch alles nicht weiter relevant. Es geht auf einem Prüfstand darum Kühler mit einer Hitzelast, die sie im schlimmsten Fall, nämlich mit extrem übertakteten CPUs, sehen könnten, zu testen. Die 150W die wir einspeisen sind diesbezüglich imo recht praxisnah gewählt – auch wenn man bedenkt, dass sich bei echten CPUs eben noch ein paar Watt über Sockel und Platine verflüchtigen ;). Dass mit einem physikalischen Prüfstand keine 1:1 Abbildung eines Rechners und damit der exakten Temperaturen zu erreichen ist, wurde bereist ausführlich diskutiert. In Anbetracht dessen dass man im Rechner die CPU-Temperaturen auch nicht messen kann, wäre einem damit auch nicht geholfen. Sehr wohl kann man aber ablesen welcher Kühler tatsächlich besser kühlt als ein anderer, und um nichts anderes geht es ja ;).
thethe;458599 said:
Bei mir liegen die Verluste durch direkte Wärmeabgabe an die Luft (natürlich nicht nur des Kühlers) eher im Bereich von 10%. Und der Anteil des Kühlers daran dürfte sicher deutlich über 1% liegen.Woran macht du das fest? Da ist einfach ins Blaue hinein geschätzt und entbehrt jeder Grundlage. Im Übrigen sind 1% von 100W halt auch nur 1W. Das wäre im Verhältnis einfach verdammt wenig – auch wenn deine Schätzung mit der Realität übereinstimmen würde. Da ist für mich jedenfalls mindestens so schwammig wie die für dich meine Aussagen zur Vernachlässigbarkeit gewisse Effekte (die aber anhand der Messdaten begründbar sind). Solche Theorien kann man mal abseits des Kühlerprüfstandes untersuchen und versuchen zu prüfen, aber für die Messungen ist das wirklich nicht relevant.Das könnte man überschlagsmäßig auch erst mal versuchen zu berechnen was man bei gegebener Temperaturdifferenz und Fläche überhaupt maximal an Strahlungswärme und per Konvektion verlieren könnte ;). Aber ich habe momentan auch noch anderes zu tun. Vielleicht komm ich irgendwann mal dazu.
-
24. Mai 2011 um 18:05 Uhr #892043
thethe
TeilnehmerVJoe2max;458616 said:
glaub mir ich hab da notgedrungen bisschen ÜbungGlaub mir, ich auch. Und auch im Schätzen, das ich nicht wagen würde, wenn ich nicht ausreichend Anhaltspunkte hätte. Wenn ich es rechnen oder messen könnte, würde ich es ja tun. So bleibt nur das möglichst stichhaltige Schätzen. Auf möglichst guter Grundlage Geschätztes sollte man nicht herunterspielen.Um wenigstens mal ein bischen mehr Licht und Fakten zu bringen habe ich kurz dieses Diagramm vorbereitet:
http://www.abload.de/image.php?img=dkm2011zwischenaqup.jpgMan kann hier sehen, daß „DeltaT Wasser-Luft“ sowohl mit „DeltaT FET-Wasser“ wie auch mit dem „Durchfluß“ leicht korreliert ist. Um genau zu sein: Jeder der Faktoren erklärt etwa 10% der aufgetretenen Varianz.Im vierten Diagramm habe ich durch MLR „DeltaT Wasser-Luft“ aus den beiden Faktoren „DeltaT FET-Wasser“ und „Durchfluß“ geschätzt, um zu ermitteln, ob die beiden Faktoren überlappende oder weitgehend getrennte Aspekte von „DeltaT Wasser-Luft“ erklären.Der Korrelationskoeffizient steigt auf einen beachtlichen Wert von 0.5, d.h. 25% der Varianz von „DeltaT Wasser-Luft“ lassen sich durch eine Kombination der beiden Faktoren „DeltaT FET-Wasser“ und „Durchfluss“ erklären. Man kann auch schön die diagonale Anordnung der Meßpunkte in Streuungsdiagramm erkennen.Wie ließt man die Diagramme? „DeltaT FET-Wasser“ hat einen positiven Effekt auf „DeltaT Wasser-Luft“, zunehmender Durchfluß einen negativen.Zwar sind 25% viel, aber man muß den kleinen Datensatz von „nur“ 9 Kühlern berücksichtigen. Ich wiederhole die Rechnung aber gerne, wenn alle Ergebnisse vorliegen, obgleich es dann immer noch „wenige“ Meßpunkte sein werden, aber immerhin.Interessanterweise sind Durchfluß und DeltaT FET-Wasser unkorreliert, haben also nichts miteinander zu tun. Das konnte man erwarten.EDIT1: Ich muß Dir natürlich recht geben, daß das hier spitzfindig ist, da DeltaT Wasser-Luft im MIttel 7.58 Kelvin beträgt und die Abweichungen von diesem Wert maximal +-0.2K. Aber wenn die Standardabweichung eben 0.05K beträgt, dann sind 0.2K kein Rauschen. Soweit zur Statistik. Meine Motivation ist nach wie vor immer das echte Verstehen und hier gibt es etwas zu verstehen, das aus meiner Sicht bisher nicht hinreichend erklärt wurde.EDIT2: Komisch, ich bekomme es nicht hin, daß das Bild eingebettet ist?! Und auch eine Vorschau geht irgendwie nicht …
-
24. Mai 2011 um 20:05 Uhr #892062
ulv
Teilnehmerthethe;458638 said:
EDIT1: Ich muß Dir natürlich recht geben, daß das hier spitzfindig ist, da DeltaT Wasser-Luft im MIttel 7.58 Kelvin beträgt und die Abweichungen von diesem Wert maximal +-0.2K. Aber wenn die Standardabweichung eben 0.05K beträgt, dann sind 0.2K kein Rauschen. Soweit zur Statistik. Meine Motivation ist nach wie vor immer das echte Verstehen und hier gibt es etwas zu verstehen, das aus meiner Sicht bisher nicht hinreichend erklärt wurde.Ich kann dir da nur völlig recht geben. Die 0,05 K stehen in keiner Form für die Messgenauigkeit des Teststandes!
Man verstehe den Wert vielmehr als pure rechnerische Größe, die wir verwenden um zu prüfen ob es während dem Testlauf zu irgendwelchen Unregelmäßigkeiten gekommen ist.Wenn ich auch mal schätzen darf, dann schätze ich die Messgenauigkeit des Messstandes auf +/- 0,5 bis +/- 1 Kelvin. Das ist für den Hobbybereich ohnehin enorm gut.
-
24. Mai 2011 um 22:05 Uhr #892075
VJoe2max
Teilnehmer@thethe: Zunächst mal vielen Dank, dass du dir mit dem Thema so viel Mühe machst :d:Die Plots die du aufgestellt hast ergeben für mich zwar noch keine so klaren Aussagen wie du sie beschreibst, aber vllt. bin ich da auch bisschen verwöhnt ;). Für mich sind alle vier noch astreine Punktewolken, und der Korrelationskoeffizient bei deiner Abschätzung ist bei neun Stichproben von signifikant auch noch bisschen entfernt würde ich mal sagen 😀 – aber immerhin man kann einen gewissen Zusammenhang hinein interpretieren. Von einer schönen diagonalen Anordnung würde ich da auch noch nicht sprechen, aber optisch immerhin ein bisschen weniger Unordnung. Mit der MLR-Methode bin ich ehrlich gesagt nicht so vertraut und kann nicht sagen, ob sie sich gut dafür eignet. Mit Tools die eine ganze Bandbreite von Regressionsmöglichkeiten aus unterschiedlichen abhängigen und unabhängigen Variablen automatisch durchprobieren habe ich jedenfalls sehr schlechte Erfahrungen gemacht – aber ich bin auch kein Statistiker. Bei einem r von 0,5 und neun Stichproben fällt es mir aber dennoch äußerst schwer bereits Zusammenhänge zu deuten. Das mit der MLR-Schätzerei muss ich mir aber mal anlesen. Scheint für einige Fälle ganz zweckdienlich zu sein :). Wäre jedenfalls schön wenn du am Schluss die restlichen drei Kühler auch noch mit rein nehmen könntest. Vllt. sieht man ja doch noch was – auch wenn ich eher vermute, dass die Korrelation aus der Abschätzung gegen DeltaT FET-Wasser nicht besser wird. Die direkten Versuche sind jedenfalls alle drei komplett unkorreliert. Momentan ist das einfach noch zu schwach, um da was Tragfähiges daraus abzuleiten – aber vllt. erhärtet sich die Vermutung zu diesem Zusammenhang ja. Nur habe ich die Befürchtung, dass bei zwei nicht komplett voneinander unabhängigen Variablen und nur einer unabhängigen Variablen der Ansatz für die MLR Schätzung nicht gegeben ist – aber wie gesagt, da kann ich mich irren. DeltaT FET-Wasser und DeltaT Wasser-Luft sind ja über die Wassertemperatur verknüpft. Ein möglicher weiterer unabhängiger Einfluss, z.B. der Entzug von Energie an anderer Stelle, wie du ihn ja vermutest, könnte beide Variablen unterschiedlich stark beeinflussen ;).
thethe said:
Interessanterweise sind Durchfluß und DeltaT FET-Wasser unkorreliert, haben also nichts miteinander zu tun. Das konnte man erwarten.Da wir hier einfach den maximalen Durchfluss messen ist das richtig. Eine unterschiedliche Skalierung von DeltaT FET-Wasser mit dem Durchfluss ist aber möglich – da könnten sich dann u.U. verschiedene Gruppen herauskristallisieren. Bei Kühlern die zwar hohen Durchfluss zulassen aber nur mit geringem Durchfluss betrieben werden, werden die DeltaT FET-Wasser Werte deutlich schneller steigen als bei restriktiveren Kühlern, so dass sich eine Korrelation zwischen DeltaT FET-Wasser und dem Durchfluss ergeben kann. Für die Praxis ist das im bekannt geringem, aber immerhin messbaren, Maße relevant. Das lässt sich aber mit den vorhandenen Datensätzen nicht erschlagen.
thethe said:
EDIT1: Ich muß Dir natürlich recht geben, daß das hier spitzfindig ist, da DeltaT Wasser-Luft im MIttel 7.58 Kelvin beträgt und die Abweichungen von diesem Wert maximal +-0.2K. Aber wenn die Standardabweichung eben 0.05K beträgt, dann sind 0.2K kein Rauschen. Soweit zur Statistik. Meine Motivation ist nach wie vor immer das echte Verstehen und hier gibt es etwas zu verstehen, das aus meiner Sicht bisher nicht hinreichend erklärt wurde.Ich glaube da hast du was missverstanden: Die Standardabweichungen des Mittelwerts basieren auf der Grundgesamtheit der Werte aus dem stationären Bereich aus denen der Mittelwert berechnet wurde, und zeigen daher in der Tat nur das Rauschen eines Messwerts für einen Kühler. Du kannst nicht die Abweichungen von +-0,2K die sich beim Vergleich verschiedener Messungen ergeben mit der Standardabweichung eines Werts einer Einzelmessung vergleichen. Eine Abweichung von +-0,2K von Messung zu Messung ist mit der vorhanden Sensorik bereits eine nahezu perfekte Reproduzierbarkeit. Da können z.B. auch Einflüsse wie minimal schwankende Lüfterdrehzahlen usw. eingehen (100%ige Konstanz vom Messung zu Messung ist da einfach nicht zu erreichen). Mit einem WPS-basierten Prüfstand wie unserem ist sind +-0,2K Reproduzierbarkeit nahe am Optimum. Wobei das keine Standardabweichung ist. Weniger ist aber wirklich kaum drin. Da stecken halt kumuliert alle kleinen unvermeidbaren Fehlereinflüsse drin, die den Wert von Messung zu Messung beeinflussen können. Dass allerdings die unterschiedliche Wärmeabgabe über die Kühleroberfläche in so weit in eine gesenkte Wassertemperatur eingeht, dass sich zwischen verschiedenen Kühlern daraus messbare Unterschiede beim DeltaT Wasser-Luft ergeben, halte ich weiter für äußerst unwahrscheinlich. Im zweiten Digit hinterm Komma vllt. – aber so kleine Einflüsse gehen in der Messgenauigkeit einfach komplett unter – sich also nicht auflösbar. ;).Edit: OK – ulv hat den letzten Absatz jetzt natürlich noch wesentlich prägnanter zusammengefasst 😀 :d:.Ich denke da liegt der Hauptgrund wie du zu deiner Vermutung kommst, dass da mehr drin steckt als es tatsächlich der Fall ist ;).
-
24. Mai 2011 um 23:05 Uhr #892084
thethe
TeilnehmerBin natürlich sehr gespannt auf die Daten der restlichen drei Kühler, so vergrößert sich der Datensatz ja immerhin um 33% ;)Das ist genug, um die jetzigen Punktewolken und Korrelationswerte dramatisch zu verändern. Falls sich aber der Trend bestätigen sollte, dann ist da was dran an dem Zusammenhang und dann ist Eure Meßgenauigkeit vielleicht doch höher, als Ihr meint.Klar ist mir nun, daß ich nicht einfach die Mittelwerte von Kühler A und B zusammen mit ihren Standardabweichungen statistisch verarbeiten darf. Dazu müßte man tatsächlich durch eine Versuchsreihe mit 10 oder mehr Wiederholungen immer wieder in größeren Abständen den selben Kühler messen und über die insgesamt resultierenden Ergebnisse die Standardabweichung rechnen. Diese könnte man dann aber tatsächlich verwenden.Und sicher ist auch ein Problem, daß die Kühler hier alle mit maximalem Durchfluß gemessen werden. Das ist mir nun auch klarer. Bei realistischeren nur noch 50 bis 100 l/h würde vermutlich die Performance des einen oder anderen Kühlers dramatisch wegbrechen. Natürlich kann man das nicht für 12 Kühler auch noch durchmessen, der Aufwand ist doch jedesmal erheblich.@ulv: Die reale Meßgenauigkeit des Prüfstands ist am Schluß sicher wesentlich von der Sorgfalt der Versuchsleiters abhängig. Ich bin irgendwie fest davon überzeugt, daß hier Psahgks einen wirklich guten Job macht, und so wird es eher in Richtung +-0.5K oder noch besser als +-1K gehen.Aber in Anbetracht der tatsächlich erreichbaren Genauigkeit sollte man dann zumindest mal andenken, ob man nicht z.B. Florentin und XDC, die sich ja um weniger als 0.1K unterscheiden, gemeinsam auf den gleichen Platz stellt. Bei einer Wiederholungsmessung könnte deren Reihenfolge sich nämlich auch umdrehen oder deren Abstand größer werden.
-
27. Juni 2011 um 22:06 Uhr #896191
psahgks
Teilnehmer[SIZE=“4″]Update Juni 2011 ❗ :!:[/SIZE]➡ Bypass zum Ablassen der Kühlflüssigkeit:
Um den Inhalt des Pruefstands aus dem oberen Teil besser ablassen zu koennen (passiert bei jedem Kuehlerwechsel), habe ich einen einfachen Bypass gebaut, ueber den sich die obere Etage schnell und einfach entleeren laesst:
Die fehlenden Bauteile ( zwei G1/4″-Doppelnippel *g* und zwei G1/4″-IG Kugelhaehne) hat uns Aquatuning nach Anfrage sofort zur Verfuegung gestellt! :d:
:arrow:Vielen Dank an Aquatuning und besonders Wassermann fuer die einfache und schnelle Bereitstellung der Teile!
-
27. Juni 2011 um 23:06 Uhr #896195
orw.Anonymous
TeilnehmerDa macht man sich die Mühe des Kabelsleevings und ist dann nicht in der Lage die Kabelbinder halbwegs vernünftig abzukneifen. :+
Alternativ dreht man diese fürs Fotoshooting auch einfach ein paar Grad oder lässt sie erst garnicht in Erscheinung treten. -
22. Dezember 2017 um 15:48 Uhr #967034
MK-Forum-Bot
Administratordie neue MK-Kühlerprüfstation Version 3 wird in einem neuen Artikel beschrieben:
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.