3-Way SLI und Wakü…
Willkommen in der Mk-Community › Foren › Hardware › PC Komponenten › Grafikkarten › 3-Way SLI und Wakü…
- Dieses Thema hat 11 Antworten und 6 Teilnehmer, und wurde zuletzt aktualisiert vor 14 Jahren, 9 Monaten von SeBi1896.
-
AutorBeiträge
-
-
26. Juli 2009 um 14:07 Uhr #493899HanebuTeilnehmer
Kann mir mal bitte jemand auf die Sprünge helfen?
Ich habe hier folgende Grundkomponenten:
– Gehäuse Big Tower (Thermaltake Amor Plus);
– Mainboard ASUS Crosshair Formula II;
– CPU AMD Phenom II 940 BE;
– RAM 4x 2 GM Kingston 1066.Werden soll das Ganze ein Performance-Modding. Wakü ist vorgesehen.
Frage 1.) Welche am Markt befindliche(n) Grafikkarten unterstützen das System im SLI-Dreierpack? Wer bietet diese an?
Frage 2.) Wie kann ich dieses Gespann in die Wakü mit einbauen? Wer bietet hierfür passende Kühler? Im Gehäuse ist Platz ohne Ende. Allerdings sitzen die Slots so, dass die Grafikkarten direkt aneinander sitzen (was in Normalfall ja auch Sinn macht). Hat da jemand Erfahrung oder Ideen?
Gruss
-
26. Juli 2009 um 15:07 Uhr #824059HisNTeilnehmer
1) Alle Nvidias die von Hause aus 2 SLI-Anschlüsse haben. Da sich “klein-SLI” als Performance-Lösung nicht auskekst. GTX 285 oder GTX 275. Wer bietet sie an? Versteh ich nicht. Jeder vernünftig sortierte Online-Shop. Jeder Nvidia-Partner2) Mit 1-Slot-Wasserkühler bei denen man die Anschlüsse auf verschiedenen Seiten belegen kann. Es gibt sogar SLI-Verbinder-Sets in verschiedenen Längen3) Allgemein blöde Idee mit der schwachen CPU ein 3-Way-SLI zu betreiben, schließlich ist es nicht nur von Deiner Software und Deinen Settings abhängig wie das skaliert, sondern auch erheblich von der CPU-Leistung. Wenn die CPU es nicht schafft 3 Bilder vorauszuberechnen bekommt die letzte Graka keine Daten.Beispiel für einen GTX 285 – Kühler (ich mach mir mal jetzt nicht die Mühe alle Kühler die es für SLI-Karten gibt rauszusuchen, wo Du noch gar nicht weißt was für Karten Du verbaust) http://www.aquatuning.de/product_info.php/info/p5662_EK-Water-Blocks-EK-FC285-GTX-SLI.html. Der kommt mit Blindstopfen und 4 Löchern am Kühler, man kann also nach oben und unten abgehen.http://www.aquatuning.de/index.php/cPath/21_412 und da bekommste wundervolle Verbindungsnippel in verschiedenen Größen/Längen.
-
26. Juli 2009 um 16:07 Uhr #824063HanebuTeilnehmer
Zur CPU: Ich habe hier gerade die aktuelle Ausgabe der “PC-Games Hardware” neben mir liegen… Die CPU liegt auf Platz 4. Davor ist nur der Core7-920, die Phenom II X4-955 und der Core 2 Quad Q9400.
So mies ist die doch also gar nicht, oder?
Zur Grafikkarte: Das dem Board beiliegende Heft ist absolut nicht aktuell. Habe dann die Websits von NVidia, GeForce etc. durchforstet. Da steht nur Werbung drin – Schade.
Im Online-Handel findet man vielleicht noch die Bemerkung: SLI-fähig. Nun gibt es aber verschiedene SLI-Modis: Welcher oder welche sind gemeint? Wenn also 3-Wege-SLI gemeint ist, dann sollte auch eine entsprechende Brücke angeboten werden. Fehlanzeige!
2 Tage recherchiert… und nun frage ich einfach mal die Gemeinde 🙂
Da ich die GTX 285 sowieso schon im Auge hatte, werde ich jetzt in dieser Richtung weitersuchen (Preisvergleich, wer kann liefern) und mal schauen, wie ich die Wakü hierfür installieren kann.
Merci!
Hast Du (habt Ihr) vielleicht noch einen Tip?
-
26. Juli 2009 um 18:07 Uhr #824068damnTeilnehmer
mal ne ganz dooooofe fragewas hast n genau mit dem rechner vor?show rechner?gaming kiste?wenn das teil nicht grad zum zocken mit 989449×659616 auflösung sein soll ist das 3way-sli doch völlig unnötigdann doch lieber gleich ne gtx295, kommt viel billiger, und da bräuchtest ja auch nur ein wakühler für
-
26. Juli 2009 um 19:07 Uhr #824081LahmerWolfTeilnehmer
Verursacht trippel-SLI derzeit nicht mehr Probleme als Nutzen, so dassdie FPS wegbrechen? Einfach-SLI mit 2x GTX 295 wäre schon besser.Oder direkt die Asus Mars GTX295 ^^.
-
26. Juli 2009 um 19:07 Uhr #824078PommbaerTeilnehmer
Wichtig ist primär aber die Geschwindigkeit.
Dann solltest du wissen, dass jedes Game mit SLI unterschiedlich umgeht.Kauf eine schnelle aktuelle Karte und dann jedes halbe Jahr das aktuelle Modell und die alte ab in die Bucht.. warum?1. Kein Treibergefrickel wegen Sli2. keine Microruckler3. Volle Spieleleistung4. Günstiger ( Jeder komplettkühler kostet nochma über 100€ )5. Weniger Abwärme6. Viel Sparsamer im Verbrauch7. Durchs ständige Update der Karte immer auf dem Aktuellsten Stand was DirectX, Shadermodelle etc angeht..Wenn das Ego trotzdem darunter leider dass nur eine Karte werkelt -> Socke in die Hose stopfen
-
26. Juli 2009 um 19:07 Uhr #824074HanebuTeilnehmer
Zu aller erst: Zocken!
Na ja, und gut ausschauen sollte er dann halt auch noch… Aber bei dem Inventar passiert das fast zwangsläufig 🙂 – wenn man nicht in allen Farben des Regenbogens reinbastelt.
Wichtig ist primär aber die Geschwindigkeit.
-
26. Juli 2009 um 20:07 Uhr #824093HisNTeilnehmer
Rechnet sich beides nicht. Einen passenden Wasserkühler für die Mars wirste nicht bekommen, die 295 hat deutlich zu wenig VRAM. Was bringt mir die Rohleistung von 2xGTX260 wenn ich weder Details noch BQ anziehen kann weil dazu der Speicher nicht ausreicht.Und so nebenbei: Was ist so schwer mal bei AT reinzuschauen was es für “passende” Wasserkühler gibt. Die allermeisten 295 sind nach Referenzdesign. Wenn nicht sieht man das doch :-)http://www.aquatuning.de/index.php/cat/c569_260-270-280-285-295.htmlTschuldigung wenn ich Dir SLI madig mache.. aber ich halte es (zur Zeit) noch für die allerletze Nieschenlösung die a) weder akzeptabel skaliertb) noch vernünftig arbeitet wenn man nicht ständig hinterherrennt und nacharbeitet.
-
26. Juli 2009 um 20:07 Uhr #824091HanebuTeilnehmer
Ich denke, dass ich mit 2fach SLI auch gut leben kann 🙂
MARS gegen 2x 295… rechnet sich das?
Hat jemand einer GTX 295 einen Wakü verpasst? Wenn ja, welcher Karte genau und mit welchem Kühler (zwecks Passung)?
So langsam sehe ich was vor mir… :d:
-
26. Juli 2009 um 20:07 Uhr #824090HisNTeilnehmer
Ich Quote mich mal selbst:
Wann funktioniert SLI nicht?- Bei CPU Limit Kleiner Exkurs. Der Prozessor geht durch den Main-Game-Loop bis zur Grafik-Berechnung. Bereitet dort alle Daten für die Graka vor und schickt sie dann an die GPU zum rendern. Dann beginnt er wieder mit dem Main-Game-Loop, kommt ein 2. mal bei der Grafik an, berechnet die Daten und ….. wartet bis die Graka fertig ist wenn man nur eine hat. Solle eine 2. im System vorhanden sein kann die CPU ihre Daten zur 2. Graka schicken und sich wieder dem Main-Game-Loop zuwenden. Bei DX9 gehjt das bis zur 3. Graka (oder dem 3. vorgerechneten Bild), unter Vista wenn DX10 benutzt wird sogar 4 Grakas. Das man sich die Leistung dann mit Mauslag (ich bewege die Maus nicht mehr, aber es sind ja schon 3 Bilder vorausberechnet worden, die auch angezeigt werden) erkauft lasse ich hier mal nur am Rande erwähnt. Wohl denen die noch einen TFT-Monitor besitzen der zusätzlich ein paar Bilder Overdrive-Lag produziert.Ist die CPU zu lahm, also schafft sie es nicht die Graka-Daten vorzubereiten bevor die 1. Graka mit rendern fertig ist, schickt sie ihre Daten dann wieder an die 1. Graka die ja auf die nächsten Daten wartet.Das passiert häufig bei winzigen Auflösungen, ist aber in der Regel auch von der verwendeten Game-Engine abhängig. Source-Games z.b. sind alle so Prozessor-Lastig das sie kaum auf SLI reagieren.Daher auch der Satz “um dieses SLI-System auszulasten braucht man eine CPU mit XXX Mhz”.Die Grenze ist natürlich völlig fließend, für jede Anwendung, Auflösung, jedes Detail-Setting.- Wenn die Anwendung kein SLI unterstütztWurde oben schon angerissen, aber meiner Meinung nach viel zu knapp. Eine Anwendung unterstützt nicht automatisch SLI, dazu gehören schon einige Anpassungen, und wenn diese auf Grund der verwendeten Game-Engine nicht vorgenommen worden, oder wenn die Zeit und der Manpower fehlen, dann ist es Essig mit Mehrleistung. Ich glaub als gutes Beispiel kann man immer noch Gothic3 nennen.- Wenn der Treiber die Anwendung nicht unterstütztMit ein Grund warum Nvidia ständig die SLI-Profile nachbessert. Aber es gab auch schon wundervolle Momente in denen Nvidia SLI-Profile vergessen hat (die 64-Bit-Exe von Crysis z.b.) oder einfach falsche Profile (NFS2 glaube ich mich zu erinnern) in ihre Treiber einbaut. Für viele kleine Anwendungen sind gar keine Profile vorhanden. Warum auch? Kostet Geld und Zeit und wenn die Anwendung nicht gebencht wird ist es sowieso egal^^. Selbst im Falle von Blockbustern die mit Millionen von Nvidia gesponsort wurden (ich nenne noch mal Crysis) hat es gut ein halbes Jahr gedauert bis die SLI-Fähigkeiten von Software und Treiber einigermaßen vernünftig hinbekommen wurden. Nach 6 Monaten steht bei mir die Software schon durchgespielt im Schrank und schimmelt.- wenn der User nicht ständig die Leistung seiner Grakas/Anwendungen überprüft und mit nhancer oder exe-Renaming nachhilft. Einfach weil SLI-Profile in den Treibern nicht immer optimal voreingestellt sind oder ganz fehlen.- bei VRAM limitWie wir alle wissen gehen Nvidia-Grakas nicht so gewissenhaft mit ihrem Speicher um wie die ATI-Grakas. Deshalb kann es in höheren Auflösungen durchaus vorkommen das die brutale Leistung die man mit dem SLI hat durch Texturswaps eingebremst wird. Ich hab das immer gut bei Company of Heroes sehen können. Durchgehend 60 FPS … sehr schön, selbst an meinem 30″ Moni. Aber wehe ich scrolle über die Map oder mache einen Jump über die Minimap. Ruckeln, warten … die Min-FPS kommen in diesem Szenario nämlich sehr viel deutlicher rüber wenn man von 60 auf 0 abstürzt, als wenn man sowieso nur 20 FPS hat^^Der Speicher der Grakas wird übrigens nicht addiert, jede Graka muss ganze Bilder rendern, braucht also alle Daten lokal in ihrem VRAM und die Grakas haben untereinander natürlich keinen Zugriff auf das VRAM der anderen KartenNebenbei schafft man sich damit ganz schöne Radaumacher und Platzvernichter für den PC an. Es soll ja tatsächlich Leute geben die noch andere Steckkarten als die Grakas im Rechner haben. Von den Installations-Schwierigkeiten der dann ab und zu doch sehr wackeligen Geschichte mal ganz abgesehen, die Hardware-Foren sind voll von “mein SLI geht gar nicht oder bringt keine Leistung”.Ganz abgesehen von den Grafikfehlern die man durch das SLI zusätzlich vermacht bekommt, sehr häufig bei der Darstellung von Schatten.Deshalb von mir: Dicker Daumen unten. Ich will zocken und nicht popeln (liegt vielleicht an meinem Alter, da wird die Zeit langsam kostbarer als die FPS) oder auf neue Treiber warten. Und für die Leute mit großen Monitoren ist auch SLI nicht DIE Wunderlösung, denn auch da stürzen die FPS gerne so weit in den Keller das Microruckler auftreten. Es ist frustrierend wenn einem der FPS-Counter 30 FPS anzeigt, aber das Bild aussieht als würden nur 10 gerechnet. Mag ja für die Leute mit 17″-Monitoren nicht wirklich zutreffen, aber 22″ und 24″-Monis sollen tatsächlich in den Absatzzahlen steigen 🙂
Jetzt die Frage an den Fred-ErstellerWelche Software braucht Dein 3-Way-SLI? Welche Auflösung fährst Du.Ich kann da nach ein paar SLI-Erfahrungen ja nur von mir auf andere schließen. Ich habe jetzt eine kleine 280GTX-OC an einem 30″-Moni mit 2560x1600er Auflösung.a) Der TFT stellt gar nicht mehr als 60Hz/FPS darb) meine Software in meinen Settings laufen in dieser Auflösung mit einer Graka ausgesprochen gut.Du hast http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_3-way-sli_quad-sli_crossfire_x/ da z.b. schon mal reingeschaut?Ansonsten: Super Projekt. Sieht bestimmt sehr geil aus, und Kostet gut Kohle.Ich würde allerdings auch sagen: Kohle lieber in einen schönen i7 mit viel Speicher und EINER 285GTX mit 2GB investieren und Anfang nächstes Jahr ein G300 kaufen. (Kostet beides mit Wasserkühlung auch gut Kohle). Wobei ich jetzt schon vermuten kann das es wie in der Vergangenheit ist: Die folgende Generation wird in etwa so schnell sein wie ein 2way-SLI der alten Generation.Ansonsten mein Vorschlag:3x 2GB 285GTX mit 3x Watercool Heatkiller und die 3-Fach-Verbindung dazu. (Falls die überhaupt auf die 2GB-Versionen passen). Ich würde AUF KEINEN FALL 1GB-Versionen kaufen. Wenn Du schon 3 Grakas im Rechner hast, dann willst Du doch bestimmt auch 16xs-AA fahren und Texturpacks installieren. Da reicht 1GB VRAM auf keinen Fall aus, egal welche Auflösung anliegt.Ach ja.. nicht die beiden Mora2 vergessen die Du brauchst um das ganze schön Kühl mit akzeptabler Lautstärke zu halten (oder gleich einen Chiller).
-
27. Juli 2009 um 0:07 Uhr #824116PommbaerTeilnehmer
Sli/Crossfire ist nichts anderes als ein Intelligenter Marketingrotz der sich in der Hardwareszene breit gemacht hat.Es wird immer Kunden mit zuwenig Erfahrung geben, und hier gilt es nach wie vor den Absatz zu steigern.Normalerweise kommt auf einen Rechner eine Grafikkarte. Mit mehreren Grafikkarten pro PC kann man den Absatz einfach vervielfältigen. Mehr ist Sli/Crossfire nicht.
-
27. Juli 2009 um 10:07 Uhr #824135SeBi1896Teilnehmer
Moin, etwas macht mich das hier quierlich…, wie es sich herraus liest hat ja TE nicht mal nen funken ansatz arnung,1x GTX 285 oder 295 reicht völlig aus, dann noch mit einer WaKü kühlen alles ;),ist zwar nett gedacht aber wenn nicht gerade Handwerklich ungeschickt bist,wirste keine Probleme bekommen die Kühler zu verbauen.Aber als erstes muss man sich in der Materie einlesen.Verlinke mal hier ne ander Site zum Schlau lesen:http://www.computerbase.de/forum/sho…d.php?t=361543http://www.computerbase.de/forum/sho…d.php?t=378315http://www.meisterkuehler.de/content/faq-der-wasserkuehlung-56.htmlAls zweites sollteste dich mal bei Aquatuning dir eine Wakü zusammenstellen, dann kann man dir weiter Helfen.Als drittes wenn schon SLI / CF /3-Way/ Quad X haben möchtest, haste schon mal dir Test angeschaut … zum vergleichen oder P/L welche Karte besser skaliert.Ach da gibt noch mehr Punkte im grunde ist es egal welchen Hersteller man nimmt, macht sich nur von der Reverenzdesign des PCB abhängig welcher Kühler zu verbauen ist und da es schwierig war … für einige bei einer GTX 295 den Kühler zu verbauen, da sich teils einige ihre Karte dadurch zerschossen haben, wegen falsch angebrachten oder nicht richtig angebrachten Kühler. Die Karte selber hat wegen überhitzung ihren geist aufgegeben, aber wer sich nicht … anstellt, da sollte es klappen ansonsten gleich nach einer bestückten GTX 295 mit WaKü sich suchen, kostet fast das gleiche wie wenn man alles selber zusammen sucht verbaut.Aquatuning GTX 260-295 Kühler:http://www.aquatuning.de/index.php/cat/c569_260-270-280-285-295.htmlLeadtek WinFast GTX 295 (V2) Single PCB, GeForce GTX 295, 2x 896MBhttp://geizhals.at/eu/a441097.htmlEVGA e-GeForce GTX 295 Hydro Copper, 2x 896MBhttp://geizhals.at/deutschland/a417685.htmlhttp://www.idealo.de/preisvergleich/OffersOfProduct/1566747_-e-geforce-gtx-295-1792mb-hydrocopper-w-backplate-evga.htmlEVGA e-GeForce GTX 295 CO-OP Edition Single PCB, 2x 896MBhttp://www.computerbase.de/preisvergleich/a441268.htmlGTX 295 Aquacomputer Kühler über geizhalshttp://www.heise.de/preisvergleich/a406854.htmlSoweit ich weiß gib es die 295er nur im Referenzdesign !! Somit MUSS der Kühler passen.Sonst einfach bei EVGA-Deutschland anrufen und nachfragen. Der 2te Schritt wäre sich bei Aquacomputer, also bei Kühlerhersteller mal schlau zu fragen am besten mit den Kompletten Grafigkarten Details.
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.