nVidias Hybrid-SLI läuft aus
Willkommen in der Mk-Community › Foren › Hardware › PC Komponenten › Grafikkarten › nVidias Hybrid-SLI läuft aus
- Dieses Thema hat 33 Antworten sowie 20 Teilnehmer und wurde zuletzt vor vor 16 Jahren, 1 Monat von
necro_LA aktualisiert.
-
AutorBeiträge
-
-
6. Februar 2009 um 8:02 Uhr #492005
littledevil
TeilnehmerNachdem nVidia in diesem Monat mit der GeForce GTX 285 und 295 ordentlich nach gelegt hat, berichten nun verschiedene Onlinemedien, dass nVidia eben mit diesen beiden Modellen das ehemals hochgepriesene Hybrid-SLI auslaufen lässt. Wie die Kollegen von Computerbase berichten, hatte nVidia bereits mitgeteilt, das Hybrid-SLI bisher nicht gut angekommen sei.
Quelle: hardware-aktuell.comNicht gut angekommen? Wie soll etwas gut ankommen, was nicht richtig funktioniert? 🙁
Dazu werden jedoch auf beiden Seiten bei Mainboard und Grafikkarte zusätzliche Chips oder Kompatibilitätstest nötig, was den Preis ansteigen lässt.
Wieviel EUR Mehrpreis währt Ihr bereit dafür auszugeben?
-
6. Februar 2009 um 9:02 Uhr #800104
DaN01
Teilnehmer20 bis 50€ wäre mir das schon wert. Schont schließlich nicht nur den Geldbeutel, sondern auch die Ohren.
-
6. Februar 2009 um 11:02 Uhr #800154
Staudamm
TeilnehmerMeiner Meinung nach, sollte man nicht beim Verbraucher den Fehler suchen sondern bei der Quelle. D.h. mehr Geld in alternative Energien investieren. Dann kann die Graka von mir aus auch 1kW verbraten (Solange man Oropax bei hat :))Aber das ist ja Zukunftsmusik. Beim jetzigen Stand der Dinge kann man nicht von heute auf morgen kurz auf grün umstellen.Deshalb schliesse ich mich DaN01 an:
DaN01;358663 said:
20 bis 50€ wäre mir das schon wert. Schont schließlich nicht nur den Geldbeutel, sondern auch die Ohren.50 Euro würde ich auch zusätzlich locker machen.
-
6. Februar 2009 um 11:02 Uhr #800158
Titan
Teilnehmerwäre mir keinen euro wert den hersteller sollten solche techniken kostenlos mit anbieten um der umwelt einen dienst zu erweisen und sich net dafür bezahlen lassen.cpu hersteller müssens ja auch machn ich mein im laden werden die dann schon etwas teurer als die vorherigen modelle die das featur net hatten aber dennoch sinds ka 50euro aufpreis denn die wollen ihr produkt los werden.die hersteller sollten langsam ma zur vernunft kommen und schnelle grakas mit ultra wenig stromaufnahme entwickeln anstatt immer wieder leistung zu puschen.wenn man bedenkt das heutige „gute“ grakas mehr als doppelt so ne hohe tdp haben als ne cpu, sind das wahre stromschlucker und gehören eher verboten als ne glühbirne die ja wie wir wissen bald verboten wird.und dann gleich noch ne umfrage drauß machn … naja macht was ihr wollt …MFG
-
7. Februar 2009 um 13:02 Uhr #800308
nemetona
Teilnehmer20-50€ wär ein fairer Preis.
Gruß, Nemetona
-
7. Februar 2009 um 14:02 Uhr #800325
Börni
Teilnehmer20 -50 € würde ich dafür ausgebenaber bei meiner eins gilt: Hotel Mama…. und solange der Stromverbrauch nicht exorbitante ausmaße annimmt hat sie auch nichts dagegen dass ich oft mehr als 1 rechner laufen habe…
-
7. Februar 2009 um 14:02 Uhr #800328
VJoe2max
TeilnehmerFür ein ausgereiftes und gut funktionierendes System dieser Art, würde ich locker 20 bis 50€ mehr auf den Tisch legen. Wenn zusätzlich noch eine Co-Prozessortechnik für die CPU angeboten würde die die gleiche Funktionsweise wie die Hybrid-Technik für die GPU aufweist, wäre ich auch bereit noch deutlich mehr dafür auszugeben. Ein solches System Ersatz würde schließlich Ersatz für alle Desktop-Rechner die ich momentan im Einsatz habe bieten.
-
7. Februar 2009 um 15:02 Uhr #800329
Christoph!
AdministratorStaudamm;358673 said:
Meiner Meinung nach, sollte man nicht beim Verbraucher den Fehler suchen sondern bei der Quelle. D.h. mehr Geld in alternative Energien investieren. Dann kann die Graka von mir aus auch 1kW verbraten (Solange man Oropax bei hat :))Dem möchte ich widersprechen, Energieeffizienz ist mindestens ebenso wichtig wie die Frage wie man diese Energie erzeugt. Gerade auch im Berreich der Energieeffizienz gibt es noch sehr viel zu tun. Hier gibt es ein sehr interessantes Youtubevideo zu einem Vortrag von Prof. Dr. Peter Hennicke an der Universität Freiburg.Und ja ich würde auch ein paar mehr € ausgeben wenn die Grafikkarten Energieeffizienter wären.KlickTeil1/5
-
7. Februar 2009 um 18:02 Uhr #800369
elkloso
TeilnehmerGeht Hybrid eig. auch mit dem Evga 680i SLI?
-
7. Februar 2009 um 19:02 Uhr #800394
littledevil
TeilnehmerVJoe2max;358889 said:
Wenn zusätzlich noch eine Co-Prozessortechnik für die CPU angeboten würde die die gleiche Funktionsweise wie die Hybrid-Technik für die GPU aufweist, wäre ich auch bereit noch deutlich mehr dafür auszugeben.Was meinst du damit genau? Multi-GPU-Systeme gibt es bereits, aber natürlich alles andere als sparsam.
Es würd aber z.b. auch ausreichen, wenn man ein 8-16 Core-
1-Chip-system hat, welches nich benötigte chipteile einfach schlafen legt -
8. Februar 2009 um 8:02 Uhr #800484
drdope
TeilnehmerEcht schade, das Nvidia Hybrid-SLI wieder einstampft (primär wegen Hybrid-Power).Wenn das funktioniert hätte, wäre ich doch glatt geneigt gewesen mir überhaupt ne Grafikkarte in den HTPC zu setzen…:(Ohne die Möglichkeit selbige im Desktop/Videobetrieb schlafen zu legen, lasse ich das dann doch lieber, weil der HTPC zu 95% eh nur zur Videowiedergabe eingesetzt würde.Dass sind mir die Anschaffungkosten + der höhere Stromverbrauch, dann doch nicht Wert.:(
-
8. Februar 2009 um 13:02 Uhr #800549
littledevil
TeilnehmerWenn man sich die 775 Quad-CPU’s anschaut, da funktioniert das innnerhalb eine CPU schon ganz gut.. die unanbhängige taktung der einzelnen Kerne wie beim phenom II AM3 ist natürlich da noch interessante. Multi-CPU, copro’s oder wie man es auch immer nennen mag sind da eher zu aufwändig, da das ja auch ins baord-layout passen muss.
Da es ja sogar hotplug-fähige pcie-Slotadapter gibt, kann die abschaltung ja an sich nicht so schwer sein.
-
8. Februar 2009 um 13:02 Uhr #800536
AMD-ATI-Fan
Teilnehmerlittledevil;358958 said:
VJoe2max;358889 said:
Wenn zusätzlich noch eine Co-Prozessortechnik für die CPU angeboten würde die die gleiche Funktionsweise wie die Hybrid-Technik für die GPU aufweist, wäre ich auch bereit noch deutlich mehr dafür auszugeben.Was meinst du damit genau? Multi-GPU-Systeme gibt es bereits, aber natürlich alles andere als sparsam.
Es würd aber z.b. auch ausreichen, wenn man ein 8-16 Core-
1-Chip-system hat, welches nich benötigte chipteile einfach schlafen legtich glaub er meinteinen PC mit Haut-GPU und Neben-GPU und Haupt-CPU und Neben-CPU, bei dem man Haupt-GPU/-CPU schlafen lege kann!
für ein solches Sytem würde ich wohl auch locker 50€ mehr Lockermachen…
allerdings würde ich auch 20-50€ dafür zahlen, meine 3870 im 2D-Modus schlafen zu legen!
mfg
david -
8. Februar 2009 um 18:02 Uhr #800676
Malkavien
TeilnehmerNicht gut angekommen? Wie soll etwas gut ankommen, was nicht richtig funktioniert?
Ganz meine Meinung.Es sollte doch nicht so schwer sein das hin zu kriegen eine Garfikkarte im idle auf einen ordentlichen Wert runter zu stellen.Die Idee mit Haupt und Grund-GPU auf einer Karte find ich gut.
-
8. Februar 2009 um 22:02 Uhr #800755
Theoradicus
TeilnehmerNvidia richtet sich letztlich auch nur nach dem Markt. Die Jagd nach mehr Leistung wird aber nicht ewig weitergehen. Das sieht man an den steigenden Umsätzen im Netbook/Laptop Bereich.Die Hersteller fangen jetzt erst an ihre Hausaufgaben zu erledigen – weg von 2 Slot PCIe Grafikkarten in Full Length hin zu IGPs (ION Plattform).Die ersten Ingenieure werden nicht im Traum daran gedacht haben, daß eine Grafikkarte mehr Strom als ein Rechner benötigt.Ohne gesetzliche Vorgaben bezüglich energiesparender Geräte bzw. Effizienzklassen wird sich bei den Konzernen selbst wenig bewegen. Die Standby Verordnung ist hoffentlich nur ein erster Schritt.
-
8. Februar 2009 um 23:02 Uhr #800764
Malkavien
TeilnehmerGoogle: „Der einzige Faktor der unsere Wachstum begrenzt, ist die Stromaufnahme der Serverfarmen“ , die nebenbei mit Ökostrom betrieben werden.Glühbirnen sollten auf jeden Fall verboten werden, das Gesetz ist ja mittlerweile raus oder?Aber BTT, ich finde diese ION Plattform ziemlich gut *daumenhoch*
-
8. Februar 2009 um 23:02 Uhr #800761
EselMetaller
Teilnehmerausgezeichnet, wenn die Stromspar-Technik ausläuft und die CUDA Anwendungen weiter zunehmen wird die Grafikkarte hoffentlich bald auch mal für sinnvolle Dinge genutzt werden 🙂
-
8. Februar 2009 um 23:02 Uhr #800762
AMD-ATI-Fan
TeilnehmerEselMetaller;359356 said:
ausgezeichnet, wenn die Stromspar-Technik ausläuft und die CUDA Anwendungen weiter zunehmen wird die Grafikkarte hoffentlich bald auch mal für sinnvolle Dinge genutzt werden 🙂dann bitte aber auch CUDA für, Ati’s!
und als allererstes müssen Glühbirnen gesetzlich verboten werden!
mit dem Strom, den die Glühbirnen in manchen Haushalten verbraten könnte man ganze Serverfarmen betreiben…
mfg
david -
9. Februar 2009 um 8:02 Uhr #800774
Fr3ak
Teilnehmer[X] Hotel Mama zahlt So ist das nunmal, in meinem Alter sind stromkosten egal. Das heißt nicht das ich hier alles anhabe und verschwenderisch bin, nur mein Rechner läuft. Also wayne.
-
9. Februar 2009 um 10:02 Uhr #800797
littledevil
TeilnehmerTheoradicus;359350 said:
Nvidia richtet sich letztlich auch nur nach dem Markt.Es gibt durchaus einen markt für grafikkartenabschaltung, aber scheinar wurde die Sache nur halbherzig angegangen, denn eindwandfrei funktionierende sinnvolle kombinationen hat es nicht wirklich gegeben.
Ich habe lange darauf gewartet und dann vor 5 Monaten aufgegeben und mir ein P35 board gekauft. In Sachen Graka bin ich mit der 8600GT auf „Standby“ und warte auf die neue hoffentlich sparsamere 40nm generation
-
10. Februar 2009 um 19:02 Uhr #801249
VJoe2max
Teilnehmer@littledevil: Genauso wie AMD-ATI-Fan es beschreiben hat war meine Anmerkung gemeint ;)Meiner Ansicht nach war es eine (Firmen)politische Entscheidung, das Projekt scheitern zu lassen. Die Gründe dafür können vielfältig sein, aber ich gehe davon aus, dass die Entscheidung bzw. die Halbherzigkeit mit der vorgegangen wurde letztlich doch eher aus kurzfristigem Denken, schlichter Dumm- und Faulheit sowie äußeren Bedingungen die temporäre Zwänge verursachten beschlossen wurden.Die Idee war gut, die Umsetzung unter aller Kanone – sowohl bei nVidia als auch bei AMD.Damit hätte man punkten können wenn man wirklich gewollt hätte. CUDA und vergleichbare Techniken mögen für Rechner die aus technischen Gründen immer am Netz hängen sinnvoll sein, um brachliegende Rechenleistung zu nutzen die sonst ungenutzt in Wärme verpufft, aber für den privaten Desktop-PC sowie die meisten Bürorechner kann das imho nicht die Lösung sein.
-
10. Februar 2009 um 20:02 Uhr #801274
littledevil
Teilnehmerbei den cpus funzt das ja zumindest deutlich besser als bei den gpus…
ich persönlich hääte mich aj schon damit begnügt, wenn man einen schalter an der graka zu ausschalten hätte und diese nur nach einem neustart erkannt wird. Hohe grafikleistung brauche ich eher selten, aber ständig ausbauen der graikkarte ist auch keine lösung:x
-
15. Februar 2009 um 16:02 Uhr #802363
doesntmatter
TeilnehmerStehe vor der Entscheidung
- für meine drei HybridPower-Grafikkarten ein neues Board zu kaufen (optimal hinsichtlich Stromeinsparung)
- alle Grafikkarten per Rivatuner/Bios-Flash auf 2D-Modus zu begrenzen (Kompromiß)
Neues Board heißt leider AM2+, für das ich keinen Prozessor habe, somit zusätzliche Kosten. Der Ankündigung letztes Jahr ein 775-Board mit HybridPower-Unterstützung in den Markt einzuführen, sind leider keine Taten gefolgt. :mistrust: Alle drei Grafikkarten waren ausschließlich im Einsatz für folding@home und anderen CUDA-Projekten, die Stromkosten sind enorm und irgendwann mußte ich die Bremse ziehen.Trotzdem hoffe ich noch vor Auslaufen der 780a-Boards ein Modell mit onboard-Grafik zu finden, daß alle Grafikkarten beherbergt.Nutzt hier jemand HybridPower im Alltag ? Bitte Board/Grafikkarte-Kombination und Erfahrungen posten.
-
24. Februar 2009 um 18:02 Uhr #804094
littledevil
TeilnehmerWelche Hardware hast Du denn jetzt im Einsatz?
-
24. Februar 2009 um 19:02 Uhr #804108
doesntmatter
TeilnehmerKonkret geht es mir um zwei GTX 260er, die z.Zt. auf 300/600/300 bei 1,03/1,06V geflasht sind. Jede verbraucht damit ca 40 Watt (Mehrverbrauch gg. Idle) unter folding@home bei rund 2500-3000 PPD (384 credit-Workunit), d.h. die Hälfte an Leistung bei 1/3 am Strom.Ein 750a-Board würde mir für diese Duo schon genügen.Setzt du HybridPower ein ?
-
24. Februar 2009 um 20:02 Uhr #804131
allo
TeilnehmerIch denke mehr als 20€ sind die zusätzlichen Chips nicht wert. Von daher setze ich mein Maximalgebot auf 20€.Wenn man ein SpielePC hat mit dem man auch normale Dinge erledigen will ist das eine gute Lösung.
-
24. Februar 2009 um 20:02 Uhr #804128
littledevil
TeilnehmerLäßt Du folding@home die ganze Zeit laufen? Wofür brauchst Du Hybrid-Power?
Ich habe ein P35 board d.h. kein Hybrid-Power – damals waren die phenom II noch sehr weit entfernt…
-
25. Februar 2009 um 11:02 Uhr #804216
doesntmatter
Teilnehmer@littledevil
Nein, Durchlaufen lassen sind samt den ATI-Karten rechnerisch 950 Euro Mehrkosten im Jahr, nur für den GPU-Betrieb. Das ist es mir nicht wert.Für einen folding-GPU-Rechner benötigt man keinen Phenom, sondern lediglich den billigsten/sparsamsten SingleCore, seit dem Treiber-Release 180.22 (falls ich mich recht erinnere) benötigt der GPU-Client nahezu Null CPU-Last, das Gleiche bei GPUgrid. HybridPower würde mir die Zeit für Ein- und Ausbau sowie Lagerplatz für die Karten ersparen. Auch wenn herumliegende GTX- und GX2-Monsterkarten Besucher beeindrucken mögen, noch beindruckender wäre die Vorführung einer intelligenten Technik wie HybridPower in Echtzeit. 🙂
-
25. Februar 2009 um 12:02 Uhr #804229
littledevil
TeilnehmerFür mich ist Dein Anwendungsfall nicht so recht verständlich. Wann läßt Du denn folding@home laufen? :-k
-
25. Februar 2009 um 12:02 Uhr #804235
Cold as Ice
TeilnehmerGerade Hybrid Power ist für mich eines der besten Features der letzten Jahre, wofür ich auch gerne mehr zahlen würde.
Endlich eine Möglichkeit einen halbwegs stromsparenden und doch spieletechnisch leistungsfähigen Rechner zu realisieren.
Schade nur, dass es nach dieser guten Idee nicht bis zum Schluss durchdacht wurde. Die vielen Einschränkungen sind doch schon keine Kleinigkeit. -
25. Februar 2009 um 20:02 Uhr #804350
Schmusebaerchen
TeilnehmerDie sollten vielleicht auch mal nachdenken, etwas im Bereich von 9600/9800GT mit solchen Technologien nachzurüsten.
Die Unterstützung sollte vom Mainboard ausgehen, da es
1.den Onboardchip bereitstellt
2.den Strom liefert(extra Stromstecker kann man per Zwischenstück regeln)
3.die Daten für den Bildschirm hat.Bei alten Mainboards mit Onboard Grafik kann man zwischen Onboard und extra Grafikkarte im Bios auswählen. Da braucht man doch nur die Unterstützung durch das OS stellen und den Strom unterbrechen. Per Kabelpeitsche führen beide Grafikports zum Monitor.
-
25. Februar 2009 um 20:02 Uhr #804334
doesntmatter
Teilnehmerlittledevil;363063 said:
Für mich ist Dein Anwendungsfall nicht so recht verständlich.Na ja, ich habe drei HybridPower-Grafikkarten wegen ihrer Leistungsfähigkeit und Effizienz zum Crunchen angeschafft, HP war ein wichtiges Kauf-Kriterium, weil damals noch ein 775-Board mit nvidia-Chipsatz in Aussicht stand, das HP unterstützen sollte. Das kam bekanntlich nicht, so bleibt mir leider auf Dauer nur die (rechtzeitige) Anschaffung eines 750a/780a.
Ob nun drei Karten auf einem 780a-Board Idle-Strom ziehen oder nicht, spielt für mich ein bedeutende Rolle, die Summe macht es.
littledevil;363063 said:
Wann läßt Du denn folding@home laufen? :-kZeitweise auf allen vier Rechnern, die kleineren abgezogen, abhängig von Team-Interessen, vom Server-Status in Stanford und meinem „Bedürfnis“ nach wissenschaftlichem Beitrag. 24/7-Betrieb ist jedoch passe, mein Jahresbudget muss eingehalten werden, Stromverschwendung kommt nicht in Frage, deshalb steckt in den Rechnern nur die Hardware, die cruncht. Jedes gesparte Watt geht wieder ins Crunchen. Standby oder überflüssig hohe Standardspannung bei CPU oder GPU wird auf´s unverzichtbare reduziert. Nachts ziehe ich sogar USB-Geräte ab, tagsüber darf die Maus bspw. dran bleiben. Etwas Bequemlichkeit muss sein. 😉
Keiner kann hier von seinen Erfahrungen mit HybridPower berichten ? :frown:
-
25. Februar 2009 um 20:02 Uhr #804339
littledevil
Teilnehmersehr berechnendes Hobby 😀
kann Dir eldier nicht weiter helfen, aber wenn Du lust hast, kannst du uns ja mal Deine „Rechenfarm“ vorstellen 😉
Wahrscheinlich sit es einfacher und preiswerter den rechner nur fürs crunchen zu verwenden und sonst einfach aus zu schalten…
-
13. Mai 2009 um 2:05 Uhr #815542
necro_LA
TeilnehmerIch würde auch ca. 50 Euro für Grafikkarte und Board zusammen mehr zahlen, da es bei mir durch die Stromkosten wieder reinkommt.
Mein Rechner läuft fast jeden Tag und öfter auch mal die Nacht durch (Rapidshare). Was gibts denn im Moment für Möglichkeiten da Energie zu sparen? Gefunden habe ich bisher folgene Möglichkeiten:- Aufteilen der Systeme. Also einen billigen Fileserver, der die ganze Zeit zum runterladen und surfen benutzt wird und einen Performanten, der dann nur zum Spielen eingeschalten wird. Diese Konstellation wird unattraktiv wenn man viel spielt, da während der Zeit ja zwei PCs laufen. Außerdem braucht man nochn Switch für Monitor, Tastatur und Maus.
- Grafikkarte runtertakten. Mit Catalyst Control Center, Riva Tuner oder ati Tray Tool Profile für jede Software anlegen, die bestimmen wieviel Power die Karte bekommt.
- Grafikkarte bei wenig Beanspruchung in Stromsparenden 2D-Modus schalten. (Ist evtl dasselbe wie das runtertakten von 2.?) Hier hab ich gelesen, dass beim Umschalten das Bild flackert, was beim Beenden eines Spiels ja nicht schlimm wäre. Aber die Aero-Oberfläche benutzt ja auch 3D Features und hier schaltet Vista die GraKa öfter mal nen Gang höher und da nervt das Flackern.
- Hybrid-Power. Also Onboard für Office, seperate Karte für Spiele wäre mein Favorit. Gibts überhaupt ne praktikable/stabile Lösung? Wenn ja, was braucht man dafür?
Ich denke grad über ne Neuanschaffung nach und das Preis/Leistungs/Verbrauchsverhältnis hat mich vom E8400 auf den Phenom II 940 mit DDR2 umplanen lassen. Beim Chipsatz bin ich mir noch unschlüssig. Hab die Woche viele Testberichte gelesen (Hybrid-Power, Spider, Dragon) aber weiß immer noch nicht so recht was ich nehmen soll.
Wer hat denn Erfahrungen mit 1.-4.?
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.