Welcher Prozessor nutzt die 8800GTX am besten aus?
Willkommen in der Mk-Community › Foren › Hardware › PC Komponenten › Grafikkarten › Welcher Prozessor nutzt die 8800GTX am besten aus?
- Dieses Thema hat 31 Antworten sowie 17 Teilnehmer und wurde zuletzt vor vor 19 Jahren, 3 Monaten von
vamp aktualisiert.
-
AutorBeiträge
-
-
10. Dezember 2006 um 14:12 Uhr #480871
xp-user
TeilnehmerWelcher Prozessor nutzt die 8800GTX am besten aus?
Ich habe den Intel QX6700 und den Intel X6800 im Auge.
Was glaubt ihr, wenn ihr nicht auf den Preis schaut? -
10. Dezember 2006 um 14:12 Uhr #653734
braeter
TeilnehmerDen X6800.Warm? Weils keine Games für QuadCore gibt ..
-
10. Dezember 2006 um 14:12 Uhr #653739
xp-user
TeilnehmerJa, das stimmt, aber mit dem QuadCore ist man gut für die Zukunft gerüstet!
Und übertakten kann man den auch noch… -
10. Dezember 2006 um 15:12 Uhr #653745
xp-user
TeilnehmerWenn nicht, würde ich ein bisschen warten, da die Preise bis Weihanchten sehr hoch sind und nach der Bescherung evtl fallen werden.
Das habe ich auch vor!
2tens, bald die 8800GTX mit GDDR4 Speicher kommt. Also wird schneller.
Wann kommt diese dann raus? Ich habe nur gelesen, im Frühjahr 2007.
3tens, im Januar die R600 von ATI kommen wird. *lechz*
Ich bleibe leiber bei Intel und NVIDIA, da diese ihre Produkte aufeinander abstimmen und ein ATI Grafikprozessor besser mit AMD läuft. ODER?
-
10. Dezember 2006 um 15:12 Uhr #653757
-
10. Dezember 2006 um 15:12 Uhr #653740
Dr.Tyfon
TeilnehmerJa schon, aber wenn es mal so weit ist, dass QuadCores richtig gebraucht werden, ist deiner schon fast wieder altes eisen…
-
10. Dezember 2006 um 15:12 Uhr #653751
McTrevor
TeilnehmerIch würde wetten, daß du noch nie eine Anwendung benutzt hast (außer vielleicht einem Benchmark), die von einem Quadcore mehr profitiert als von einem Dualcore. Aus dem Stehgreif könntest du mir vermutlich noch nichtmal eine nennen. Wofür also ein Quadcore? Der Sprung von Single- zu Dual-Core bei der täglichen Arbeit ist groß, keine Frage. Das liegt aber nicht daran, daß man so unglaublich viele Anwendungen nutzt, die Multi-Core optimiert sind, sondern daran, daß die Anwendung im Vordergrund einen eigenen Core zur Verfügung hat und die ganzen Hintergrundaufgaben (Virenscanner, Firewall, etc.) auf dem anderen Core laufen.
Diesen Performanceschub gibt es beim Übergang von Dual zu Quadcore nicht mehr. Da profitieren wirklich nur noch die User, die regelmäßig multicore-optimierte Anwendungen laufen lassen. 99,99% der Nutzer werden zu 99,99% der Zeit keinen Unterschied zwischen Dual und Quadcore feststellen können.
Bis dann denn!
McTrevor
-
10. Dezember 2006 um 15:12 Uhr #653741
al3x
TeilnehmerHast du schon die 8800GTX ?
Wenn nicht, würde ich ein bisschen warten, da die Preise bis Weihanchten sehr hoch sind und nach der Bescherung evtl fallen werden.
2tens, bald die 8800GTX mit GDDR4 Speicher kommt. Also wird schneller.
3tens, im Januar die R600 von ATI kommen wird. *lechz*
4tens, zu deiner Frage, ja, ein Core Duo wie der X6800 nutzt die 8800GTX im Moment am besten aus. Aber auch nicht ganz ! Da AFAIK es keine CPU gibt, die diese Grafikkarte zähmt.Zwischenzeitlich würde ich ruhig ein Intel Core Duo nehmen. Quadcore lohnt sich nicht, da ..siehe breaters Aussage.
-
11. Dezember 2006 um 20:12 Uhr #654019
Case
Teilnehmerausserdem erhöht sich der stromverbrauch ums doppelte. dann haste wieder 130watt. meiner meinung wieder ein schritt zum abgrund 😀
-
11. Dezember 2006 um 20:12 Uhr #654027
bluefisch200
TeilnehmerDer Quad ist noch nicht so brauchbar wie n duo und ich denke das ers auch nicht so schnell wird
-
12. Dezember 2006 um 20:12 Uhr #654194
Shakall
TeilnehmerStolzer Preis 🙂
http://web.hoh.de/hoh/(S(gweolg45hizwd03v0tsgr045))/default.aspx?TY=item&ST=1&IT=15735&CT=1306
552.- uhhhhhh
-
14. Dezember 2006 um 7:12 Uhr #654399
Case
Teilnehmerder trend geht, wie es bei den grafikkarten ist, auf multicpu. d.h. wir dürfen ein board mit 2 quads erwarten. also acht cpus auf einem board mit drei grafikkarten. eine für die phisik.
meine meinung
-
14. Dezember 2006 um 13:12 Uhr #654422
vamp
TeilnehmerFür den Preis bekommt man die GK nicht im diesem Jahr.
Ich denke mal am besten wäre man mit einem E6400 oder E6600 bedient. In 1.5 Jahren, wenn man die Produktion auf 45µm aumgestellt hat, einen vergleichbaren kaufen.
Es gibt nicht viele Programme und Spiele die DC zu 100% unterstützen, deshalb ist es sowieso unsinnig einen 4 Kern-Prozessor zu kaufen.
Statt für einen (unnützlichen) Prozessor 1000€ auszugeben, kaufe dir lieber 24″ Eizo. Dann hat sich auch die Frage „wie laste ich meine 8800GTX aus“ auch erledigt 😉
-
15. Dezember 2006 um 20:12 Uhr #654680
klafert
Teilnehmerdu meinst amd 4×4
naja so der bringer sind die nicht eher was für videoschnittfreaks
in reiner spieleleistung schlägt der core 2 quad 6700 die 2 dualcores trotzdem
welcher cp lastet die karte aus?
mit dx 9 kann man sich nen x6800 holn das wärs beste obs die graka auslastet kommt drauf an ich denk ma gothic 3 würd bei höchsten einstelleungen auch die graka auslasten ohne das die cpu ausgelastet ist
abwarten mit D3D10 wird auch diese karte grenzen haben
ABER ich bin auch ein atifan(atiker) und ich warte auf r600 und dann reden wir weiter 😉
-
21. Dezember 2006 um 16:12 Uhr #655589
peebee
Teilnehmerati schiebt sich nur leider immer weiter raus, jetzt sind wir leider schon bei „irgendwann“ im Februar 🙁
Ich wollt ja auch warten, aber langsam dauerts mir zu lang!
Wenn die nicht definitiv im Februar rauskommen, hole ich mir lieber ne 8800 GTX, weil ich wart schon lang genug mir ein neues komplettsys zu kaufen! Januar/Februar ists fällig!!
Dann will ich Kohle ausgeben und Leistung kassieren!! 😀schliesslich wartet schon eine Wakü auf seine Aufgaben hier!
-
22. Dezember 2006 um 6:12 Uhr #655707
klafert
Teilnehmer:/ die kriegen ihre probs net in den griff das pcb um 3 cm zu küzen und den verbrauch zu senken und sie wollen bei Vorstellung gleich ausreichend karten auf den markt werfen
warum das nu so dauert k.A.
will mir keine 8800 gtx holn wenn die X2800XTX schneller ist^^
-
22. Dezember 2006 um 8:12 Uhr #655715
peebee
Teilnehmerdie neueren Karten sind flotter als die CPU´s, da wirst Du mit dem P4 nicht drankommen, irgendetwas bremst immer das andere, weil eine 100%ige Abstimmung gibt es nie!
-
22. Dezember 2006 um 8:12 Uhr #655714
Case
Teilnehmerdu meinst die 2950xtx oder? 💡
ich will noch mal aufrüsten und mir einen pentium 4 661 er cpu kaufen. meine frage nun: welche grafikkarte bremst die cpu nicht aus? ist aber auch nicht so schnell, das die cpu die karte bremst?
sorry
-
22. Dezember 2006 um 9:12 Uhr #655719
Case
Teilnehmerdann müsste die eigentlich reichen, oder? ASUS EAX1950PRO
gibts da eigentlich irgend nen index?
-
22. Dezember 2006 um 10:12 Uhr #655721
Case
Teilnehmeraber du kannst ihn mir nicht nennen, oder?
-
22. Dezember 2006 um 10:12 Uhr #655720
peebee
Teilnehmerdas will ich wohl meinen!
-
22. Dezember 2006 um 12:12 Uhr #655729
steeve
Teilnehmerxp-user said:
Ich bleibe leiber bei Intel und NVIDIA, da diese ihre Produkte aufeinander abstimmen und ein ATI Grafikprozessor besser mit AMD läuft. ODER?Das ist absoluter schwachsinn. Da wird nichts abgestimmt, alle unternehmen testen ihre hardware mit produkten aus anderen unternehmen um einfach zu sehen, dass es keine ernsthafte inkompabilitäten gibt. Die leistung in spielen wird dann durch treiber auf höchstmöglichen niveau gebracht und das wars.Ganz ehrlich gesagt würde ich in deinem fall lieber auf eine ATI-karte warten, da die, wie schon viele kenner es wissen, mit schnellerer cpu besser skalieren.Als beispiel könnte man die X1900XT nutzen: sie profitiert alleine von den dual-cores und bringt 37% mehr leistung. Und die mehrleistung durch dual-core oder schnelleren cpus beträgt bei nvidia karten 0%. Nvidia karten waren bis jetzt auch nie besonders bekannt dafür, dass ihre karten mit besserer cpu auch deutlichen boost kriegen.Und die idee sich einen quad-core zu holen ist echt schwachsinnig, aber das wird dir auch erklärt. 😉 Die gründe wurden eigentlich schon genannt. Im allgemeinen ist das so, dass man durch den wechsel von single->dual deutlich mehr leistung bekommt. Aber die anzahl der kerne verdoppelt die leistung nicht, laut dem Amdahlschen Gesetz sieht das ungefähr so aus:1core -> 2core = 80% mehr leistung2core -> 4core = 60% mehr leistung4core -> 8core = 40% mehr leistung…
[Quelle: uni-karlsruhe.de]An deiner stelle würde ich jetzt 1-2 monate abwarten und mir dann die X2900XT [R600 wird vllt diese bezeichnung kriegen] holen und dazu eine starke cpu wie z.b. X6800. Das wird mehr als aureichend sein für eine weile und falls Du später bessere cpu holst oder vorhandene übertaktest, kriegt auch die karte deutlichen leistungsschubs.Außerdem weißt man jetzt schon, dass die ATI-karte besser ist, weil viele spieleentwickler schon seit einiger zeit die neuste ATI-karte zum testen von ATI bekommen haben und laut denen kommentaren sieht die 8800GTX im vergleich zu der X2900XT uninteressant aus, weil sie einfach schwächer ist…..
-
22. Dezember 2006 um 21:12 Uhr #655809
Bugbear
TeilnehmerMit so einer Graka spielt man ja sowieso in hohen Auflösungen und High-Quality-Modus. Da spielt die CPU eine nicht ganz sooo grosse Rolle. Ein C2D E6600 sollte also da schon ausreichend sein.
-
22. Dezember 2006 um 21:12 Uhr #655815
o2-cool
Teilnehmerhi,ich habe die 8800er GTX von Palit und einen übertakteten Intel 6600er ( @3670 derzeit) bin mit der performance extrem zufrieden…bei der Power ist es eigentlich egal ob da irgendwo ein paar Prozent auf der Strecke bleiben…es rockt einfach jedes game mit 150FPS+ rum, selten weniger.habe den prozzer auch mit einem 8800er SLI Verbund gestestet, von bremsen kann da keine Rede sein ( fast 23k im 3dmark2006)Die 6600er gehen ähnlich hoch wie die 6800er…warum also soviel Geld für nen Prozzi ausgeben ?
-
24. Dezember 2006 um 2:12 Uhr #656026
Case
Teilnehmerweiß einer eine tabelle, nach der ich abhängig vom prozessortakt und/oder prozessor die beste Grafikkarte dafür bekomme?
-
24. Dezember 2006 um 14:12 Uhr #656070
-
25. Dezember 2006 um 0:12 Uhr #656134
HisN
Teilnehmero2-cool;192527 said:
hi,ich habe die 8800er GTX von Palit und einen übertakteten Intel 6600er ( @3670 derzeit) bin mit der performance extrem zufrieden…bei der Power ist es eigentlich egal ob da irgendwo ein paar Prozent auf der Strecke bleiben…es rockt einfach jedes game mit 150FPS+ rum, selten weniger.habe den prozzer auch mit einem 8800er SLI Verbund gestestet, von bremsen kann da keine Rede sein ( fast 23k im 3dmark2006)Die 6600er gehen ähnlich hoch wie die 6800er…warum also soviel Geld für nen Prozzi ausgeben ?Ist glaube ich sehr Auflösungs-Abhängig. Ich ich denke nicht das G3 mit vernünftigen Settings oder NFS-Carbon, Oblivion oder sowas mit 150+ in 1600×1200 läuft.
-
25. Dezember 2006 um 0:12 Uhr #656136
vamp
TeilnehmerBei 1920X1200 und allen Details sind selbst mit COD2 nicht mehr als 60fps drin.
Ich sagte doch schon, statt 1000€ in ein Prozessor zu stecken den kaum eine Anwendung unterstützt, lieber einen 24″ Monitor kaufen und dann hat sich die Frage nach der Auslastung von selbst erledigt 😉
Ich habe eine 8800 GTX/6400C2D@ 3.6Ghz und 24″ Moni
-
25. Dezember 2006 um 0:12 Uhr #656138
davidzo
TeilnehmerIch wäre eher verwundert wenn du bei Oblivion mit HDR angeschaltet und allen Features on (incl. initweak für weiter entfernte distandtlands+ gras und allen spiegelungen) überhaupt mehr als 40 als minFPS bekommst bei ner vernünftigen Auflösung. Bei 1600*1200 4x FSAA+TSSAA was meine bevorzugte Einstellung ist, wird das auch mit der 8800er unmöglich sein, selbst ein x1900xtx Crossfireverbund kommt da ja nichtmal annähernd ran.
Definitiv mehr vom geld hat man mit einem tollen 20er oder 24″ TFT, da hat vamp schon recht. Da hilft noch soviel FSAA, echte mehrauflösung ist einfach nocheinmal geiler. Die Augen werden einem es danken und videogucken mit mehreren leuten wird so auch zum spaß. Hat imo einen viel größeren mehrwert als ein 1000€ prozzi. Lieber ein 66er oder 64er, die gehen mit eienr anständigen Wakü fast genausogut zu takten wie ein x6800 und hängen damit in games jeden quadcore ab. Und 66er + Wakü ist erheblich billiger als nen quadcore oder nen x6800er und wenn du die Komponenten gut wählst hast du selbst in zwei-drei Jahren beim Umstieg auf einen Quadcore noch etwas davon weil du sie einfach mit ner neuen halterung ausstatten kannst.
-
25. Dezember 2006 um 1:12 Uhr #656142
vamp
Teilnehmer1280 X 1024 = 1.310.720 ~ 1.3 Millionen Pixel
1920 X 1200 = 2.304.000 ~ 2.3 Millionen Pixel
Also fast das doppelte zu berechnen, was für die Graka richtig ackern heisst 😀
-
28. Dezember 2006 um 16:12 Uhr #656683
**Achilles**
Teilnehmerder fx62 rockt auch! genauso der am2 x2 5200+ von amd , 😡 nur intel freaks hier 😡
-
28. Dezember 2006 um 21:12 Uhr #656743
vamp
Teilnehmer**Achilles**;193611 said:
der fx62 rockt auch! genauso der am2 x2 5200+ von amd , 😡 nur intel freaks hier 😡Weil die eben schneller sind. Schaust du beim Kauf auf die Leistung oder auf die Marke ?
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.

[Quelle: