MeisterKühler

News: NextGen Grafik, PCI-E 2.0 …

Willkommen in der Mk-Community Foren Hardware PC Komponenten Grafikkarten News: NextGen Grafik, PCI-E 2.0 …

Ansicht von 133 Antwort-Themen
  • Autor
    Beiträge
    • #644541
      tobomax
      Teilnehmer

      hey, danke für die infos!

      ich frag mich nur warum die jetzt schon wieder ne neue schnittstelle rausbringen wollen. pcie is doch noch gar nicht soo alst.

      weisste wann der g80 chip von nvidia rauskommt?

    • #644545
      Käsetoast
      Teilnehmer

      @steeve:
      Hast du bezüglich der Leistungsaufnahme auch eine offizielle Quelle parat? Fänd’ ich sehr nützlich um endlich die ganzen Gerüchte um die 250 / 300 Watt Kraftwerke nicht nur mit Logik, sondern auch mit harten Fakten wiederlegen zu können… 😉

      Mahlzeit
      Käsetoast

    • #644544
      steeve
      Teilnehmer

      tobomax said:
      Weisste wann der G80 chip von nvidia rauskommt?

      Die karten sollen angeblich schon im november käuflich sein … das wird aber eher das gleiche spiel wie letzte generation: die karten sind raus, nach zehn tagen waren alle shops leer [zu wenig karten]. Die ATI karte kommen ungefähr ein monat später, deswegen würde ich abwarten … man weiß nie was die konkurrenz noch so verdeckt hält 😉 .

      Und was PCI-E 2.0 angeht, echt krank. Als ob 2.5 Gbps nicht ausreichen werden und dazu noch sind die stolz, dass die schnittstelle bis zu 300W liefern kann 😡 … toll, solche karten hole ich mir aus protest nicht, egal wie stark die sind.

    • #480209
      steeve
      Teilnehmer

      Im internet findet man viele news zu NextGen-grafikkarten von ATI und nVidia. Auch die neue PCI-E schnittstelle ist fertig und heißt PCI-E 2.0. Deswegen poste ich hier eine kleine sammlung an links und bildern:PCI Express 2.0 [news.com.com] ist wie gesagt neue schnittstelle für grafikkarte. Hauptgrund warum dies eingeführt wird ist die geschwindigkeit: sie wird sich von 2.5Gbps [PCI-E 1.0] auf 5Gbps verdoppeln und die schnittstelle an sich wird die grafikkarte mit mehr strom versorgen können, die rede ist von 225 bis 300 watt.Hier [pcgameshardware.de] findet ihr die infos zu neuen nVidia-karten:

      Geforce 8800 GTX:Chiptakt: 575 MHzSpeichertakt: 900 MHzSpeichermenge: 768 MByteSpeicherinterface: 384 BitTheoret. Speicherbandbreite: 86 GByte/sShaderzahl: 128 Unified-Shader mit 1.350 MHzGeforce 8800 GTS:Chiptakt: 500 MHzSpeichertakt: 900 MHzSpeichermenge: 640 MByteSpeicherinterface: 320 BitTheoret. Speicherbandbreite: 64 GByte/sShaderzahl: 96 Unified-Shader mit 1.200 MHz

      http://www.pcgameshardware.de/screenshots/medium/G80_2.jpghttp://www.pcgameshardware.de/screenshots/medium/G80_4.jpghttp://www.pcgameshardware.de/screenshots/medium/G80_6.jpgWie es aussieht, wird die grafikkarte luftgekühlt, aber der kühler ist so konzipiert sodass man hat auch möglichkeiten hat den kühler mit wasser zu kühlen [wasserkühlung vorausgesetzt] … ich finde die idee gut.ATI dagegen hält ihre karten wenig verdeckt, bekannt ist nur, dass die GPU mit über 700 MHz getaktet wird und dass R600 über 500 Mill transistoren hat [nicht offiziell bestätigt]. Bei PCGH wird die karte als echter monster bezeichnet, die karte an sich ist deutlich schneller als schnellste DX9-karte. Trotzdem gibt es neuigkeiten bei ATI, die man sehen kann ^^:http://images.dailytech.com/nimage/2691_large_RV570_3.jpghttp://images.dailytech.com/nimage/2689_large_RV570_1.jpg// Sorry für die auflösung, die bilder habe ich nur von dailytech.com verlinkt.Hier [dailytech.com] findet ihr infos zu RV570.Interessant bei neuen ATI-karten sind aber [vorletztes bild] die “anschlüsse” die man üblicherweise bei SLI-nVidia-karten stehen. Sieht ganz danach aus, als hätte ATI die Crossfire-technik “leicht” modifiziert und man würde dazu noch sagen, dass man auch da vier karten anschließen kann. Stromverbrauch ist übrigens nur leicht angestiegen. PS: X1950 Pro wird ~200€ kosten und deutlich schneller als die X1900 GT.Die karten beider hersteller werden echte monster sein, trotzdem muss man abwarten um zu sehen wie sich die Unified-Shader-Architektur in der praxis schlägt. Die karte kommen ende 06 bzw anfang 07 [ab november gehts los] … Es gab gerüchten, dass die karten bis zu 300W fressen werden, das stimmt nicht, keine der (einzel)karten beider hersteller wird die 200W grenze überschreiten, was sich gut anhört, aber trotzdem zuviel ist. Naja, alles was man noch sagen kann ist abwarten und :kaffee: …Quellen: news.com.com, dailytech.com, pcgameshardware.deBilder: pcgameshardware.de, dailytech.com

    • #644547
      steeve
      Teilnehmer

      Käsetoast said:
      @steeve:Hast du bezüglich der Leistungsaufnahme auch eine offizielle Quelle parat? Fänd’ ich sehr nützlich um endlich die ganzen Gerüchte um die 250 / 300 Watt Kraftwerke nicht nur mit Logik, sondern auch mit harten Fakten wiederlegen zu können… 😉

      Also die ATI high-end karte sollte angeblich max 160W verbrauchen [jetzt sind es 125W] und nVidias high-end karte wird auch angeblich einige watt mehr verbruchen [jetzt 145W]. Suche gerade die links als beweismittel …Die 250/300 W wären echt abnormal, dann könnte man die karten nur mit der wakü kühlen, massentaglich wär das nicht wirklich.

    • #644543
      Patty
      Teilnehmer

      klasse, war dringend notwenig, wo pcie schon so alt ist:x
      finde ich jetzt mal total schwachsinnig…

    • #644553
      An00bis
      Teilnehmer

      die angabe von 128 unified shadern halte ich für nicht realistisch

      http://www.3dcenter.de/news/2006/woche40.php#2006-10-08

    • #644556
      Edder
      Teilnehmer

      Wahnfried said:
      Ist echt ne Frechheit fals es nicht gehen sollte,denn ich glaube nicht das dann auch Boards mit Sokel939 und PCI-E2.0 geben wird!

      ich glaube auch das 939 Boards das nicht mehr unterstützen werden, wenn ich das mit PCI-E 2.0 vorher gewusst hätte, hätte ich mit dem Boardkauf noch etwas gewartet, frechheit.:evil:
      warum kann es nicht standard Sockel und standard Steckplätze geben ???:-k

    • #644555
      Poweruser
      Teilnehmer

      Ich hoffe die Wasserkühlung ist mehr als nur der gebogene Kanal, den man durch die Plastikabdeckung sieht, ansonsten liegt die WaKü Temp in ungewöhnlichen Bereichen… 😆

    • #644554
      Wahnfried
      Teilnehmer

      PCI-E 2.0, werden dann aktuelle Boards mit einem BIOS-Update fit gemacht oder muss man sich ein neues Kaufen ?

      Na das würde mich auch ganz brennend Interessieren!Ist echt ne Frechheit fals es nicht gehen sollte,denn ich glaube nicht das dann auch Boards mit Sokel939 und PCI-E2.0 geben wird!Das würde für mich heißen das ich alles was ich vor 8Monaten 😮 gekauft habe CPU/BOARD/Graka/RAM mit viel verlust verkaufen müßte !:evil: Das fänd ich SCHHHAAADE :evil:Tschau TH.

    • #644550
      Edder
      Teilnehmer

      PCI-E 2.0, werden dann aktuelle Boards mit einem BIOS-Update fit gemacht oder muss man sich ein neues Kaufen ?

      wegen der nötigen Kühlung setzen solche Karten aber auch mechanische Änderungen an PC-Gehäusen voraus.

      das habe ich grade gelesen, kommt dann deswegen auch nen neuer Gehäusestandard heraus ? weis das vielleicht jemand ?

    • #644557
      Käsetoast
      Teilnehmer

      Soweit ich weiß, wollte man PCI-E 2 ähnlich wie bei AGP abwärtskompatibel halten. Ob das dann aber auch so umgesetzt wird, kann ich jetzt leider nicht beschwören…

      Mahlzeit
      Käsetoast

    • #644595
      ArcticRevenge
      Teilnehmer

      Zitat von Poweruser
      Ich hoffe die Wasserkühlung ist mehr als nur der gebogene Kanal, den man durch die Plastikabdeckung sieht, ansonsten liegt die WaKü Temp in ungewöhnlichen Bereichen…

      Boah ich lach mich krumm:D . Das wär ja echt die größte Frechheit in der PC Geschichte.x(

    • #644588
      steeve
      Teilnehmer

      Wahnfried said:

      PCI-E 2.0, werden dann aktuelle Boards mit einem BIOS-Update fit gemacht oder muss man sich ein neues Kaufen ?

      Na das würde mich auch ganz brennend Interessieren!Ist echt ne Frechheit fals es nicht gehen sollte,denn ich glaube nicht das dann auch Boards mit Sokel939 und PCI-E2.0 geben wird!

      Also das wird überhaupt nicht gehen. Wenn da steht, dass neuer slot 225 bis 300 watt liefern wird, dann müssen die da etwas elektrisch ändern damit das überhaupt funktioniert. Und ganz ehrlich gesagt glaube ich irgendwie, dass der slot auch anders aussehen wird … jetztige PCI-E slots haben 16 lanes und ich glaube, dass PCI-E 2.0 24 oder sogar 32 lanes haben wird [nochmal: ist nur meine vermutung ^^].

      Wahnfried said:
      Das würde für mich heißen das ich alles was ich vor 8Monaten 😮 gekauft habe CPU/BOARD/Graka/RAM mit viel verlust verkaufen müßte !

      Wenn Du genug schnelle teile hast, dann musst die gar nicht erst verkaufen. Man muss nicht immer das schnellste haben 😉 … aus dem grund kaufe ich mir auch keine super hardware. Das wort zukunftssicher ist mittlerweile ein scherz. Man sieht am besten an zwei beispielen: 1) vor kurzer zeit ist AM2 rausgekommen und schon jetzt ist die rede von AM2+ bzw AM3; 2) bei intel hat man socjel 775 seit einiger zeit, aber in der zeit musste man immer wieder neues board für neue cpus holen: 900er serie für normale cpus, dual-core ging erst ab 945-serie, dann kam core-duo wieder was neue, jetzt hat man core2duo auch neuer chipsatz und für quad-core wird auch was neues brauchen …Deswegen hört am besten auf alten steeve ^^:-minimales board kaufen mit guten eigenschaften und OC-freundlich, von guten herstellern wegen BIOS-updates-kleine bis mittlere cpu kaufen und passend [dual oder single, nicht das man später bereut, die cpus gibts nicht mehr]-speicher soviel kaufen, wieviel man braucht, vielleicht “bisschen” mehr, wenn man sieht, dass die preise drastisch steigen werden [z.b. DDR1]-gute grafikkarte -> mittel bis oberklasse für intensive spieler – auch auf eigenschaften achten: neuste technik wie z.b. ShaderModel 3 …-beim netzteil kann man ruhig bisschen mehr ausgeben und dann muss auch das netzteil nicht immer neukaufen-bei den laufwerken auch gute teile holen, weil da sich sowieso nicht viel ändertWenn man nach dieser art kauft, dann ärgert man sich später auch nicht, dass man was weiß ich wieviel für die hardware ausgegeben hat und dass die nichts mehr wert sind … für spieler ist ehe die graka das wichtigste, speicher kann auch bei ebay relativ günstig kaufen und cpu kann übertakten. So holt man sich mehr leistung und man hat auch spaß an hardware … einfach pragmatisch nachdenken ^^ .

    • #644602
      -666-
      Teilnehmer

      das mit dem neuen PCI-e Slot find ich erlich ehrlich gesagt auch eine frechheit dann darf man sich ja wieder n neues Mobo + Grafik zulegen:evil:

    • #644606
      steeve
      Teilnehmer

      -666- said:
      das mit dem neuen PCI-e Slot find ich aich ehrlich gesagt auch eine frechheit dann darf man sich ja wieder n neues Mobo + Grafik zulegen:evil:

      Muss man aber nicht …
      Die die z.b ein board mit nforce3 ultra und AGP haben kommen vollkommen klar: nforce3 kommt mit dual-core klar und eine starke AGP-karte findet immernoch [7800er].
      Auch derjenige der ein 754 system hat, kann ruhig bis ende 2006 abwarten, wenn er unbedingt dual-core haben will, am sonsten kann er weiter sein pc nutzen.

    • #644612
      Edder
      Teilnehmer

      -666- said:
      das mit dem neuen PCI-e Slot find ich erlich ehrlich gesagt auch eine frechheit dann darf man sich ja wieder n neues Mobo + Grafik zulegen

      das habe ich auch gedacht, aber jetzt denk ich anders:D

      ich glaube ich werde mir das was steeve gesagt hat ans Herz legen, wieso immer die beste Hardware haben und dann nur ärgern wie ich.

    • #644647
      -666-
      Teilnehmer

      die Karte soll potenzial haben mal sehen was erste tests zeigen wenn die draußen ist

    • #644653
      Titan
      Teilnehmer

      -666-;177243 said:
      das mit dem neuen PCI-e Slot find ich erlich ehrlich gesagt auch eine frechheit dann darf man sich ja wieder n neues Mobo + Grafik zulegen:evil:

      dafür hab ich mir des asrock mit uli chipsatz geholt um das ich nich glaich noch ne neue graka kaufen muste

    • #644668
      Neptun
      Moderator

      interessante Infos…

    • #644677
      Wahnfried
      Teilnehmer

      @Steeve!

      Wenn Du genug schnelle teile hast, dann musst die gar nicht erst verkaufen. Man muss nicht immer das schnellste haben

      Jaa hast ja recht 🙄 !Mein System ist mit deinem fast identisch,außer der 7900GT EE die ich besitze(alles siehe Profil)!Geht auch echt ab wie ein Zäpfchen(ca54003Dmarks im 06er). :)Ich spiele aber fast immer in 1280×1024 und AA,und sehr Grafiklastige Spiele,und ich hoffe das ich das in nem Jahr auch noch kann.(ich glaube nich so recht dran). x(Es ist ja schon ein Prob ne ident. 7900GT zu bekommen!War gestern mal Shoppen und bekam zu hören das es nur noch 7950er gibt und das auch nich funzt wegen,ist anderer CHIP! :(Stimmt das überhaupt,damit SLI funzt müssen die Karten ein Ident. Bios haben?? TH.

    • #644682
      steeve
      Teilnehmer

      Wahnfried said:
      Ich spiele aber fast immer in 1280×1024 und AA,und sehr Grafiklastige Spiele,und ich hoffe das ich das in nem Jahr auch noch kann.(ich glaube nich so recht dran). x(

      Stimmt, wenn man sich alleine die (mindest-)anforderungen bei Crysis, Splinter Cell 4, Gothic 3 … anschaut kriegt man schon gänsehaut.

      Wahnfried said:
      Es ist ja schon ein Prob ne ident. 7900GT zu bekommen!War gestern mal Shoppen und bekam zu hören das es nur noch 7950er gibt und das auch nich funzt wegen,ist anderer CHIP! :(Stimmt das überhaupt,damit SLI funzt müssen die Karten ein Ident. Bios haben??

      Das ist ein grund, warum ich SLI damals kritisiert habe … als hätte ich das gewusst, habe ich immer gesagt: das wird nur ne reine abzocke sein, wie schnell sich markt entwickelt, wird daraus nichts … sich nach z.b. einem jahr ganz entspannt zweite graka zu holen und die leistung zu “verdoppelt” [in der praxis sind es aber 0%-80%, meist aber nur 50% – wenn das spiel optimiert ist] … entweder muss man sich sofort zwei karten holen [was meiner meinung nach absurd ist, 100% mehr preis für 50% mehr leistung] … oder man holt sich die karte bei ebay [was nicht immer risikofrei verläuft].Die chips müssen gleich sein, dass mit BIOS geht, wenn die karten verschiedener hersteller sind [z.b. Sparkle und Powercolor], wenn SLI nicht funktioniert, dann installiert man auf der anderen karte gleiche BIOS-version wie bei der ersten karte und dann funktioniert das … aber bei verschiedenen chips wird das nicht gehen. Es gab auch berichte von foren-usern die nicht mal eine GT und GTX version zusammen zum laufen brachten.

    • #644698
      Wahnfried
      Teilnehmer

      @Steeve!

      Stimmt, wenn man sich alleine die (mindest-)anforderungen bei Crysis, Splinter Cell 4, Gothic 3 … anschaut kriegt man schon gänsehaut.

      Genaaau so ist das! 😉 Und Crysis will ich doch auf jeden fall Zocken!!!Haste mal die Demos gesehen 😯 😯 total Abgefahren!!Habe bei E-Bay mal gesucht.Es gibt aber nur ne XFX 7900GT Extr. Ed. VIVO.Was denkst du ob das Funztwenn ich meine”NICHT VIVO”(Tacktraten alles gleich)und Die im SLI verbund betreiben würde??Wei gesagt meine ist genauso aber hat KEIN Video in!und könnte man diese Funktion noch nutzen???Sorrry an alle,wegen”Nicht zum Thema gehörend” :)TH

    • #644717
      tuxthekiller
      Teilnehmer

      Ich warte mal auf Rat von dem “alten steeve”:
      Soll ich jetzt die Karte kaufen: http://geizhals.at/deutschland/MSI_NX7900GTO-T2D512E_V801-089_a216395.html ?
      Oder auf die neue Generation warten? ich habe ein Sockel 939 System.

    • #635347
      steeve
      Teilnehmer

      @WahnfriedDas kann ich dir schon nicht mit 100% sicherheit sagen … am besten Du suchst die leute die sowas praktisch besser kennen, die können schon genau sagen, was geht und was nicht. [Hardwareluxx oder Computerbase haben monumentale foren, da findest Du ne antwort 99,9% ;)]@tuxthekillerAm besten Du holst die karte, für ~230€ hast Du power und 512MB, die karte geht beim OCen sehr gut ab. Auf die neue generation zu warten lohnt sich nicht, weil die karten am anfang 500€+ kosten werden [kleinre modelle kommen später erst] und v!sta an sich wird müll. Ja ok DX10 und SM4.0 werden schön aussehen, aber da stimmt dieser preis/leistung-verhältnis nicht mehr.Kurz und knapp: hol dir die karte, die Du gepostet hast, hast spaß daran und dann in ungefähr einem jahr, wo die technik [DX10 / SM4.0] nicht mehr so neu ist, wenn v!sta auch einigermaßen “stabil” läuft und natürlich wenn neue AMD cpus rauskommen 😉 [falls bedarf auf neue cpu/speicher/board besteht, aber eher nicht :-k] … erst dann kannst Du ruhig zu nextgen-karten greifen, dann lohnt sich das auch, dann gibts auch spielen die davon gebrauch machen.Alles klar … fragen ^^ ?EDIT:Hier [xtremesystems.org] ein test zu der grafikkarte.

    • #646029
      braeter
      Teilnehmer

      Rate mal wer gestern 2 bestellt hat und auf n Liefertermin wartet ^^

    • #646030
      milhouse
      Teilnehmer

      das passt aber nicht zu deiner sig 😛

    • #646027
      toor
      Teilnehmer

      Ich habe gerade bei bit-tech einen Test (engl.) zur ATi Radeon X1950 Pro von Sapphire entdeckt. 😀

      Viel Spass beim Lesen 🙂

    • #645944
      F!ghter
      Teilnehmer

      Wie krank das doch ist… 😮

      Vor nem Jahr hatte ich schon das Thema Aufrüsten zurückgestellt, d aich warten wollte bis PCIe ausgereift ist und es mehr Angebot auf dem Markt gibt zu den neuen Technologien jetzt kommen sie schon wieder mit dem nächsten…und ich kann mir noch ned ma PCIe leisten -.- 😡

      Sinn wo bist du? Die Karten bringen mehr Leistung als jedes neuste Spiel überhaupt braucht. Lohnt es sich da soviel Geld auszugeben? Meiner Ansicht nach nicht aber ich bin auch kein Freund der “Ah ne neue Graka kaufen wa die mal auch wenn sie nach 3 Wochen 200öken billiger ist hauptsache aktuell) 🙁

    • #646053
      braeter
      Teilnehmer

      Wie is das gleich noch mit den Links gewesen? ;)Hab meinen Kauf auch nach dem Bericht von k-Hardware getätigt.Wer die Graka kauft, sollt sich im klaren drüber sein das was das Ocing angeht, kaum noch was drin sein wird.VoltMod oder die Option die PCI-E Spannung im Bios anzuheben muss da schon gegeben sein.In meinem Fall aber n kluger kauf mein ich.

    • #646046
      DeriC
      Teilnehmer

      manchmal braucht man gar net soweit übern Tellerrand schauen 😉 http://www.k-hardware.de/artikel.php?s=&artikel_id=5901

      [SIZE=”1″]Quelle:[/SIZE] [K-Hardware.de] :+

    • #646058
      braeter
      Teilnehmer

      DericC, danke für den sanften schlag mit m Vorschlaghammer. Habs grad geändert 😉

    • #646057
      DeriC
      Teilnehmer

      :wie: 😉 hatte schlauerweise erst auf die MK News verlinkt, deswegen keine Quelle angegeben, aber das wollt natürlich wieder net richtig, weswegen ich nur schnell den Link getauscht hab, das “Pe(r)fekte Posting” 😀 hatt ich dabei dann leider völlig ausgeblendet

    • #646065
      WaldSchRad
      Teilnehmer

      ich erhoff mir durch diese neue schnittstelle preissenkungen.
      also eigentlich hats auch nen sinn…

    • #646073
      steeve
      Teilnehmer

      Die X1950Pro ist auf jeden fall neuer preis/leistungs-hammer. Die karte ist schon ab ~170€ zu haben und von der lesitung her mit der 7900er GT zu vergleichen.Ich bin allgemein gegen SLI/Crossfire, aber wenn sich jemand dual-graka-system auf basis dieser karten aufbaut, dann ist das ok [da zwei karten insgesamt ~350€ kosten].Ganz nebenbei … die karte wird wenig strom verbrauchen [vielleciht sogar weniger als konkurrenz :-k], da ATI mit 80nm angefangen hat.

    • #646077
      braeter
      Teilnehmer

      Von 98 watt unter last ist die Rede. 5 Watt mehr als die 90nm nVidia.

    • #646216
      steeve
      Teilnehmer

      Bin gerade auf interessante news gestoßen:

      [SIZE=”4″]ATi Radeon X1950 Pro für AGP[/SIZE]
      [SIZE=”1″]Quelle: ComputerBase.de[/SIZE]

      Die AGP-board-besitzer können sich echt freuen. Noch ein grund mehr nicht auf neuste plattform umzusteigen, falls noch nicht … ATi *schulterklopf* :d: .

    • #646219
      Käsetoast
      Teilnehmer

      Ob die X1950 Pro (also als PCIe Version) vom Layout her mit den anderen X1900er Karten ist, weiß hier aber auch keiner, oder? Habe bisher nur Nahaufnahmen vom Chip sowie Bilder mit Luftkühler gesehen. Wäre nämlich schon eine Überlegung wert die anstatt der X1900 XT zu kaufen. Vorher müsste ich halt wissen, ob da der GPU-X draufpasst… :-k Ach ja – Bei tweakpc.de gibt’s schon nen Test dazu…MahlzeitKäsetoast

    • #646852
      -666-
      Teilnehmer

      hab heute einen Artikel über die 8800GTX gelesen klingt sehr vielversprechenddie Karte siehe linkhttp://vic.expreview.com/attachment/1161849814.jpg

    • #646861
      steeve
      Teilnehmer

      -666- said:
      hab heute einen Artikel über die 8800GTX gelesen klingt sehr vielversprechenddie Karte siehe linkhttp://vic.expreview.com/attachment/1161849814.jpg

      Also wenn ich ganz ehrlich bin, ist das gar nicht interessant. Vor allem, weil man 3dmarks relativ leicht manipulieren kann [es gab wenige fälle wo hersteller einiges versuchten].Die graka kann man erst als interessant abstempeln, wenn man reale spieleenchmarks sieht … und die karte wird erst richtig interessant, wenn man auch die konkurrenz vergleichen kann … 😉

    • #647388
      steeve
      Teilnehmer

      Hier bei xbitlabs.com gibts ein test zu neuer X1950Pro.

      Im test wurde die karte auf herz und nieren geprüft, unter anderem auch stromverbrauch:

      http://www.xbitlabs.com/images/video/x1950pro-gf7900gs/power_1950pro_7900gs.gif
      [SIZE=”1″][Bildquelle: xbitlabs.com][/SIZE]

      65W bei volllast und 30W im durchschnitt im leerlauf finde ich sehr gut. Wer sich einen spielerechner mit niedrigem stromverbrauch zusammenbauen will, kann ruhig die X1950Pro verwenden.

      X2 3800+ EE SFF -> 35W
      Radeon X1950Pro -> 65W
      ATI RD580 _____ -> >10W
      Speicher 2xriegeln-> 5W
      1xHD + 1xDVD-RW-> 15W

      => Nicht mal 150W bei volllast erreicht der rechner [im leerlauf wären es ~65W] und hat genug leistung für alle aktuelle und [nah]kommende spiele.

      Ist das nicht ein traum-pc?

    • #647393
      -666-
      Teilnehmer

      steeve;181525 said:

      -666- said:
      hab heute einen Artikel über die 8800GTX gelesen klingt sehr vielversprechend
      die Karte siehe link

      http://vic.expreview.com/attachment/1161849814.jpg

      Also wenn ich ganz ehrlich bin, ist das gar nicht interessant. Vor allem, weil man 3dmarks relativ leicht manipulieren kann [es gab wenige fälle wo hersteller einiges versuchten].
      Die graka kann man erst als interessant abstempeln, wenn man reale spieleenchmarks sieht … und die karte wird erst richtig interessant, wenn man auch die konkurrenz vergleichen kann … 😉

      ich werde 2 bekommen warscheinlich dann kann ich mal reale ergebnisse posten vorrausgesetzt ich find n Case wo die reinpassen weill 27c in der länge ist schon sehr viel

    • #647454
      vamp
      Teilnehmer

      Es kommt immer darauf an mit welchen Einstellungen man ein Spiel spielen möchte. 24″ Displays sind mit 1000€ gar nicht mal so teuer geworden. Wenn ich mal im Vergleich mit meinen 18″ Dell TFT Display vor 4 Jahren vergleiche, der 830€ gekostet hat.
      Entprechend wird auch die Auflösung werden, nähmlich 1920X1200. Und ob da 2X 7900GTOs nicht zu schwach dafür wären :-k

      Die 8800GTX ist bis zu 100% schneller als die 19500XTX. Was hat nochmal die 6800Ultra bei ihrer Einführung gekostet ? 😉

      edit: Der Stromverbrauch ist auch nicht so monströs. Zählt mal wieviel 2 Karten aus dem Midrange zusammen verbrauchen werden.

      Hier ist der Benschmark von GTX…

      http://dailytech.com/article.aspx?newsid=4812

    • #647497
      vamp
      Teilnehmer

      @steeve

      Verstehe deinen Sarkasmus nicht. Irgendwann sind die Grenzen des Machbaren eben erreicht.
      Ich glaub dein Problem ist dass du einfach zuviel von der Karte erwartet hast und nun wurden die nicht ganz erfüllt.
      Sowohl vom Preis her als auch von der Leistung ist die Grafikkarte in Ordnung.

      Und wie kommts dass offensichtlich Niemand ausser dir die genauen Spezifikationen von der kommenden R600 kennt ?
      Wie gut die im allgemeinen wird kannst du wohl kaum wissen. Also, Ball flach halten

    • #647491
      steeve
      Teilnehmer

      vamp said:
      Die 8800GTX ist bis zu 100% schneller als die 19500XTX.

      Toll, nVidia hat echt tolle arbeit geleistet =D> . Eine neuentwickelte graka ist schneller als eine der letzten generation.Lass uns mal bitte sehen wie schneller ist die X1900XTX als die alte 6800Ultra [@ computerbase.de]: @1280×1024 4xAA/16xAF durchschnitt aus allen spielen-> 6800 Ultra – 29,1 fps-> X1900XTX – 72,7 fps=> ~250%Interessant zurückzublicken … aber die [eine generation jüngere] ATI karte ist nicht 100% sonder 250% schneller … interessant. 😉

      vamp said:
      edit: Der Stromverbrauch ist auch nicht so monströs. Zählt mal wieviel 2 Karten aus dem Midrange zusammen verbrauchen werden.

      Stromverbrauch ist sehr hoch … die neue geforce frisst schon im leerlauf 50W mehr. Zwei stromanschlüsse sehen schon bisschen krank aus … die karte verbrauch bestimmt knapp 200W. Im leerlauf wären es dann 80-90W 😯 😡 .

      vamp said:
      Hier ist der Benschmark von GTX…http://dailytech.com/article.aspx?newsid=4812

      OK, das sind die ersten benchmarks … das erinnert mich bisschen an Core2-Duo-CPU. In Intels gesponsorten hinterzimmertests war die CPU 40-50% schneller, am ende hat sich rausgestellt, dass die cpu nicht mal die hälfte davon schneller ist.Also lieber abwarten … 😉 Mein persönlicher fazit lautet:G80 ist eher eine lachnummer:- GDDR3-Speicher -> max 900MHz – nichts übertakten 😆 – 384 bit speicheranbindung- in 90 nm gefertigt -> hoher stromverbrauch-> hoher stromverbrauch und nichts dahinterR600 wird schneller weil:- GDDR4-Speicher -> max 1450MHz – come on baby *peitschenklang* 😉 – 512 bit speicheranbindung- in 65 nm gefertigt -> wird weniger strom verbrauchen als jetztige X19er serieVor allem interessiert mich wie die texturfilterung arbeitet und ob dies endlich kein flimmerkasten mehr ist, wie man es bei jetztiger 7er serie kennt…Tut mir leid n vidia, aber so eine schrott-karte kommt mir nicht in die kiste … [-(

    • #647494
      Spicy_Ice
      Teilnehmer

      HAllo

      Die Ati X1950 hat ja schon GDDR4 verbaut.Das sollte man auch nicht vergessen.Wenn jetz alle 4 Monate eine Neue Grafikkarten generation rauskommt,dann wird es wieder Schuldner geben ,wie damals als die Medien von den Handys die Jugendlichen benutzen sprachen.:D

      Gruß Spicy

    • #647505
      Käsetoast
      Teilnehmer

      Mich interessiert eher Folgendes:
      Gibt’s beim G80 jetzt wirklich “echte” Unified Shader, oder bleibt es bei dem, was man uns bis vor zwei / drei Monaten die ganze Zeit verklickert hat und zwar das man einfach an die bisherige Architektur ne Geometry Shadereinheit “dranpappt”?

      Oft wird auch davon geredet, dass der G80 Refresh dann ja mit GDDR4 aufwarten wird. Ich halte das bislang noch für ein wenig unwahrscheinlich, da dafür ja der komplette Speichercontroller umgebaut werden müsste und das wird sich nur für einen Refresh nicht lohnen. ATIs Ringbus-Controller hingegen ist ja schon länger dafür ausgelegt (ich bin mir jetzt aber nicht sicher ob’s schon bei den X1800ern oder erst bei den X1900ern auch wirklich verfügbar war)…

      Am Meisten interessiert mich aber eigentlich auch, ob NVIDIA jetzt endlich mal die Filteroptimierungen zurückgedreht hat und was qualitativ hochwertigeres anzubieten hat…

      Mahlzeit
      Käsetoast

    • #647503
      steeve
      Teilnehmer

      vamp said:
      @steeveVerstehe deinen Sarkasmus nicht. Irgendwann sind die Grenzen des Machbaren eben erreicht.Ich glaub dein Problem ist dass du einfach zuviel von der Karte erwartet hast und nun wurden die nicht ganz erfüllt.Sowohl vom Preis her als auch von der Leistung ist die Grafikkarte in Ordnung.

      Ich hab kein problem. Problem im allgemeinen ist, dass erst eine grafikkarte rauskommt und niemand auf die der konkurrenz abwarten will und schon ist die grafikkarte die beste, obwohl die karte nicht so tolle ist. Nicht nur die leistung zählt…Eine andere frage: würdest Du dir einen wagen holen, der 50l auf 100km verbraucht holen, obwohl er “nur” 250km/h erreicht. 250km sind auf jeden fall schnell, aber wenn man die 50l benzinverbrauch ansieht [ohne die versicherungskosten] ist der wagen eher flop als top. Verstehst Du was ich sagen will?Und was G80 angeht: jetztige architektur, die nvidia seit der FX-serie immer wieder verbessert, wird schon sehr bald durch neue ersetzt werden müssen. Seit der FX-serie wird die leistung auf kosten der bildqualität gesteigert und langsam werden die etwas unternehmen müssen, besonders wenn sie die R600 in der aktion sehen. ATI hat die teile letzter architektur vom grund auf neuentwickelt und jetzt kommt die zeit wo dieser chip nur weiter optimiert wird [siehe entwicklung von R520 bis R580]. Deswegen bin ich der meinung, dass der R600 um einiges schneller wird und [wie immer bei ATI so ist] wird auch die bildqualität besser. Und wegen dem 65nm fertigungsprozess wird die karte viel sparsamer sein als die 8800er.

      vamp said:
      Und wie kommts dass offensichtlich Niemand ausser dir die genauen Spezifikationen von der kommenden R600 kennt ?Wie gut die im allgemeinen wird kannst du wohl kaum wissen. Also, Ball flach halten

      Ich verfolge einfach die news, ich weiß nur soviel, was aus den “vertraulichen” quellen rauskommt ;):http://www.hartware.de/news_39375.htmlhttp://www.hardtecs4u.com/?id=1151531389,21552,ht4u.phphttp://www.pcgameshardware.de/?article_id=473281http://www.teccentral.de/forum/showthread.php?t=53179

    • #647345
      steeve
      Teilnehmer

      @KäsetoastSoweit ich weiß wird der G80 unified shader nicht haben, aber 32 pixel-shader und 16 kombinierte geometry- und vertex-shader. Der R600 dagegen wird insgesamt 64 unified shader haben und ob die als pixel- oder vertex-shader genutzt werden hängt vom spieleentwicklern ab, die leistung ist da.Der R600 ist so entwickelt, dass er bis zu 1GB vram verwalten kann und die architektur wird schon eine längere weile ausreichen, durch erweiterungen und neuen features wird der chip immer aktuell und schnell bleiben. Aktuelle architektur bei nvidia wird meiner meinung nach noch bei dieser generation eingesetzt, dann muss ihnen etwas einfallen … natürlich wird nicht die komplette architektur verändert, aber einige teile wie speicher-controller muss schon geändert werden. Man sieht heutzutage, wie die nvidia karten bei der kantenglättung einbrechen.Ich habe so meine vermutungen, aber abwarten und :kaffee:

    • #647516
      -666-
      Teilnehmer

      steeve;182326 said:

      -666- said:
      ich finde es nur bescheuert das alle nasenlänge was neues kommt
      kaum ist was neues rasugekommen sind schon Informationen zum nachfolger draußen ätzend sowas

      👿

      Niemand wird zum glück gezwungen es zu kaufen … 😉

      Ich bleibe bei meiner X1800XT bis reichlich spiele auf dem markt kommen [dauert bestimmt ein jahr] und bis stromverbrauch gesunken wird [wird wahrscheinlich mit dem R600 geschen, aber spiele fehlen dann].

      da geb ich dir Recht sicherlich keiner wird gezwungen zu kaufen am besten mal abwarten was Ati und mit dem R600 bescheren wird

    • #647514
      steeve
      Teilnehmer

      -666- said:
      ich finde es nur bescheuert das alle nasenlänge was neues kommtkaum ist was neues rasugekommen sind schon Informationen zum nachfolger draußen ätzend sowas:evil:

      Niemand wird zum glück gezwungen es zu kaufen … ;)Ich bleibe bei meiner X1800XT bis reichlich spiele auf dem markt kommen [dauert bestimmt ein jahr] und bis stromverbrauch gesunken wird [wird wahrscheinlich mit dem R600 geschen, aber spiele fehlen dann].

    • #647527
      vamp
      Teilnehmer

      @steeve

      Die 8800 haben ganz sicher Unified Shader und zwar hat GTS 96 davon, GTX 128.

      Die ganzen Links übrigens sind von 06/05.2006. Vertrauten Quellen 😀

      Deine Angaben sind doch reine Vermutungen. Es ist überhaupt nichts über die neue ATIs GK bekannt.

      65µm, 512Bit, 1GB Vram und 50W Stromverbrauch :—)

    • #647511
      -666-
      Teilnehmer

      ich finde es nur bescheuert das alle nasenlänge was neues kommt
      kaum ist was neues rasugekommen sind schon Informationen zum nachfolger draußen ätzend sowas

      👿

    • #647533
      steeve
      Teilnehmer

      vamp said:
      Die 8800 haben ganz sicher Unified Shader und zwar hat GTS 96 davon, GTX 128.Die ganzen Links übrigens sind von 06/05.2006. Vertrauten Quellen 😀 Deine Angaben sind doch reine Vermutungen. Es ist überhaupt nichts über die neue ATIs GK bekannt.65µm, 512Bit, 1GB Vram und 50W Stromverbrauch :—)

      Das ist jetzt die frage. Ich weiß, dass die 8800er angeblich unified shader haben [habe noch im ersten post die daten gepostet], aber bis vor kurzer zeit hat nvidia gesagt, dass die für jetztige generation das nicht geplant haben. Ob man in kurzer zeit das ganz schnell in die architektur aufnehmen kann weiß ich nicht, im test von dailytech wurden die shaader gar nicht erwähnt.

      Käsetoast said:
      Das ist eben jetzt die große Frage:Von NVIDIA kam selbst vor nicht allzu langer Zeit immer wieder das Statement, dass man noch keine echten Unififed Shader anbieten wird, sondern die DX10 Anforderungen lediglich durch Hinzufügen von Geometry Shader-Einheiten erfüllt. In den ganzen Foren kommt seit kurzem aber eben das ganze “Olé, olé – 128 Unified Shader Einheiten!”. Ob das aber wirklich so gemeint war, oder ob insgesamt einfach nur 128 Einheiten realisiert wurden, wird nirgendwo erwähnt. Wär’ schon schade wenn NVIDIA’s Marketingabteilung 2/3 Monate vor dem Release nicht weiß was da entwickelt wird… 😀

      Mir ist die ganze situation auch bisschen stinkig … deswegen existieren die karten für mich immernoch nicht, bis man die im handel nicht findet und ERST WENN diese exemplare getestet werden.

      vamp said:
      Ich persönlich würde lieber ATI vorziehen, wegen des Bildquallitäts. Man, aber das sind doch noch mindestens 4 Monate. Und vielleicht in noch 4 Monaten bringt Nvidia eine neuere Serie von G80. Wenn dann die neue Serie von Nvidia endlich da ist, warten wieder ein paar Monate bis ATIs Gegenstück zum Vergleich da ist. So wird man sich nie was kaufen 🙄

      Die ATIs karten sollen schon im janur verfügbar sein … in vier monaten wäre bisschen ungünstig, da neutrale hardcore-gamer sofort zu irgendeiner karte zugreifen, die schon draußen ist.Wie war das mit den 7800er und X1800er, es waren zwei monate vergangen bis ATI mit ihren karten auf dem markt kam, oder ?

    • #647529
      vamp
      Teilnehmer

      Ich persönlich würde lieber ATI vorziehen, wegen des Bildquallitäts. Man, aber das sind doch noch mindestens 4 Monate. Und vielleicht in noch 4 Monaten bringt Nvidia eine neuere Serie von G80. Wenn dann die neue Serie von Nvidia endlich da ist, warten wieder ein paar Monate bis ATIs Gegenstück zum Vergleich da ist. So wird man sich nie was kaufen 🙄

    • #647528
      Käsetoast
      Teilnehmer

      vamp said:
      Die 8800 haben ganz sicher Unified Shader und zwar hat GTS 96 davon, GTX 128.

      Das ist eben jetzt die große Frage:
      Von NVIDIA kam selbst vor nicht allzu langer Zeit immer wieder das Statement, dass man noch keine echten Unififed Shader anbieten wird, sondern die DX10 Anforderungen lediglich durch Hinzufügen von Geometry Shader-Einheiten erfüllt. In den ganzen Foren kommt seit kurzem aber eben das ganze “Olé, olé – 128 Unified Shader Einheiten!”. Ob das aber wirklich so gemeint war, oder ob insgesamt einfach nur 128 Einheiten realisiert wurden, wird nirgendwo erwähnt. Wär’ schon schade wenn NVIDIA’s Marketingabteilung 2/3 Monate vor dem Release nicht weiß was da entwickelt wird… 😀

      vamp said:
      Deine Angaben sind doch reine Vermutungen. Es ist überhaupt nichts über die neue ATIs GK bekannt.

      Naja – es gab da noch diesen angeblichen “Test” wo dann irgendwie rauskam, dass der G80 nett wäre, aber die neuen ATIs wären einfach nur Monster. Fand’ das aber nicht sehr glaubwürdig und muss auch nochmal rauskramen, woher das ursprünglich stammte…

      Mahlzeit
      Käsetoast

    • #647834
      vamp
      Teilnehmer

      Inzwischen ist etwas mehr über die 8800GTX bekannt…

      AF x16 Filterung Vergleich zwischen- 7900GTX, 1950XTX und 8800GTX

      7900GTX

      **************

      1950XTX

      **************

      8800GTX

      Scheint also sogar besser zu sein als bei ATI.

      Bei der anisotropen Filterung sind 2 Dinge wichtig:

      1. Winkel(un)abhängigkeit
      Bei dem Testbild der 7900 GTX fällt diese sternförmige Anordnung auf. Dieses beschreibt die Winkelabhängigkeit bei der Filterung. Dieser “Stern” bewegt sich bei einer Drehung halt mit und man merkt, wenn man genau hinschaut, dass einige Bereiche halt anders gefiltert werden.

      2. Übergänge
      Je “diffuser” die einzelnen Farben ineinander übergehen, desto weniger “fällt” die Filterung auf. Je härter die Übergänge, desto ausgeprägter das banding.
      Wenn man beispielsweise CS mit einer kleinen Filterstufe zockt und man läuft, dann sieht man ein banding auf dem Boden, welches man vor sich “herschiebt”. Dieses banding ist ein Zeichen für eine suboptimale Filterung.

      ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

      Hier sind Haufen Bilder und Benchmarks mit der 8800GTX :d:

      http://www.xtremesystems.org/forums/showthread.php?t=121980

      Verbrauchen tut die GTX nicht wirklich viel, aber schon im nichtübertakteten Zustand wird sie bis zu 90°C heiss :-k

      ps: der hat auch bei 3D06 die 14K Marke geknackt 😎

    • #647915
      -666-
      Teilnehmer

      :biggrin: sauber die Karte im SLI verbund rockt die ja mal richtigund hier mal der Link einer 8800GTX mit Wakühler drauf http://www.awardfabrik.de/forum/showthread.php?p=11337#post11337

    • #647999
      vamp
      Teilnehmer
    • #648010
      -666-
      Teilnehmer

      super Werte hat der Kühler über 30c unterschied :respekt:
      mal sehen ob ich für meine G80 einen ergattern kann

    • #648037
      vamp
      Teilnehmer

      Naja, das Teil wird sicher nicht billig und deshalb wenn schon dann lieber komplett aus Kupfer

    • #648042
      -666-
      Teilnehmer

      muss man sehen was die final Version dann kann von dem Kühler
      😈

    • #648081
      Käsetoast
      Teilnehmer

      Wundert mich, dass DAS HIER (www.computerbase.de) noch nicht verlinkt wurde. NVIDIAs Marketingabteilung zum Trotz wurden dann doch Unified Shader realisiert…:roll:

      Mahlzeit
      Käsetoast

    • #648087
      vamp
      Teilnehmer

      Hab den Test auf CB jetzt komplett durch. Tja, den einzigsten Vorteil (Bildqualli) hat ATI somit verloren. 😀
      Und bei der Leistung von 8800GTX wird ATI aber schwer haben ihre Karte (R600) noch leistungsfähiger hin zu bekommen 😎

    • #648249
      -666-
      Teilnehmer

      ich habe heute gehört das einige Karten wohl wieder an den Hersteller retour gegangen sind unter anderem MSI , Evga soll angeblich das problem nicht haben
      erfahre das morgenfrüh weill dann der Händler meines vertrauens die Evga karten hat

    • #650434
      Käsetoast
      Teilnehmer

      Soweit ich weiß ist ein Multithreaden im GPU Bereich jedoch ein Klacks im Gegensatz zur CPU-Optimierung. Da werden schon optimierte Treiber alleine einen riesen Sprung bringen, da eine GPU im Prinzip jetzt schon wirklich massig viele Sachen parallel laufen hat. Von daher sehe ich hier recht schnell recht deutliche Ergebnisse. Die mehreren Kerne lassen mich jedoch zumindest auf einen geringen Stromverbrauch im Idle hoffen. ATI hatte sich zwar selber mit der X1x00er Serie und dem R600 bemängelt und Besserung bei der nächsten Generation gelobt, doch was daraus wird muss sich noch zeigen…

      Mahlzeit
      Käsetoast

    • #650431
      steeve
      Teilnehmer

      Es gibt einige infos [quelle: theinquirer.net] schon zu R700:Es wird nicht mehr starke GPUs geben. Es wird nur eine GPU geben und low-, medium- und high-end-klasse werden sich “nur” in der anzahl der kerne unterscheiden. So haben low-, medium- und high-end-klasse, 1, 4 bzw 16 kleine kerne.Außerdem sagte ATI [AMD], dass sie für die übernächste [R700] generation vollkommen neue architektur entwickeln werden. Man kann hoffen, dass diese architektur sparsamer mir strom umgeht.Nvidia äußerte sich, dass sie bei G90 das gleiche machen werden.Ist echt gute idee, aber die spieleentwickler werden bisschen mehr zeit brauchen, um ein spiel optimal für mehrere cpu- und gpu-kerne zu entwickeln.Naja, mal sehen wie sich die sache entwickelt :kaffee:

    • #650439
      steeve
      Teilnehmer

      Käsetoast said:
      Soweit ich weiß ist ein Multithreaden im GPU Bereich jedoch ein Klacks im Gegensatz zur CPU-Optimierung. Da werden schon optimierte Treiber alleine einen riesen Sprung bringen, da eine GPU im Prinzip jetzt schon wirklich massig viele Sachen parallel laufen hat.

      Bei den grakas wird das nicht so problematisch, da die engines schon für pixel- und vertex-recheneinheiten gebaut sind. Ich meinte aber, dass die spieleentwickler sich schon bisschen umstellen werden müssen. Und im leerlauf kann man nur ein kern nutzen. Bei volllast muss man einfach abwarten, um zu sehen wie es mit dem stromverbrauch aussieht. Auf jeden fall wird man schnell ergebnisse sehen…

    • #650822
      steeve
      Teilnehmer

      Mittlerweile gibt es die erste bilder von ATIs R600 [Quelle:computerbase.de]:R600 ist 420mm² groß und in 80nm gefertigt, zum vergleich ist der G80 484mm² groß und in 90nm gefertigt. Man könnte daraus schließen, dass der R600 weniger strom verbrauchen wird.Kommende ATI karten werden, laut gerüchten, mit 512MB und 1GB speicher ausgesttatet. Sie werden, auch laut gerüchten, im januar für die masse verfügbar.http://pics.computerbase.de/1/6/3/2/1/1.jpghttp://pics.computerbase.de/1/6/3/2/1/2.jpghttp://pics.computerbase.de/1/6/3/2/1/3.jpg[SIZE=”1″][Bildquelle: computerbase.de][/SIZE]Und hier ein vergleich zum R580:[SIZE=”1″][Bildquelle: vga.zol.com.cn][/SIZE]

    • #654684
      klafert
      Teilnehmer

      ati nutzt unified shader- und Nvidia hat bis zur veröffentlichung gesagt sie wollen dies nicht tun

      der r700 wird eine multigpu geschichte aber erst wird torrenza verwirklicht

      was der r600 bringen wird kann ich sagen ih weiß nur das laut pcgh noch probleme mit dem hohen stromverbrauch bestanden als g80 rauskam

      nvidia hat gut gehandelt und den g80 in den weihnachtshandel gebracht

      allerdings will ich die gesichter der beschenkten sehen wenn ati im januer nvidia ein weiteres mal (nach r300, r400 und r500) kalt macht^^ und zwar nicht nur qualitativ sondern auch leistungsmäßig^^

    • #654709
      vamp
      Teilnehmer

      klafert;191137 said:
      ati nutzt unified shader- und Nvidia hat bis zur veröffentlichung gesagt sie wollen dies nicht tun

      der r700 wird eine multigpu geschichte aber erst wird torrenza verwirklicht

      was der r600 bringen wird kann ich sagen ih weiß nur das laut pcgh noch probleme mit dem hohen stromverbrauch bestanden als g80 rauskam

      nvidia hat gut gehandelt und den g80 in den weihnachtshandel gebracht

      allerdings will ich die gesichter der beschenkten sehen wenn ati im januer nvidia ein weiteres mal (nach r300, r400 und r500) kalt macht^^ und zwar nicht nur qualitativ sondern auch leistungsmäßig^^

      Träum weiter 😆

      Die hat Recht, die hat ne Ahnung \D/ 😀

    • #654808
      klafert
      Teilnehmer

      einfach die ersten benchs abwarten und dann könnt ihr träumen 😛

    • #655733
      steeve
      Teilnehmer

      Das hier [computerbase.de] ist interessant für die leute, die vorhaben sich eine DX10-karte zu holen.Kurz gesagt, was in den news steht, erste DX10-titel kommen nicht vor sommer 2007.Bis dahin sind dann auch die karten der konkurrenz verfügbar … dann gehts wieder ab mit dem grakakrieg. ^^

    • #655941
      toor
      Teilnehmer

      steeve said:
      Bis dahin sind dann auch die karten der konkurrenz verfügbar … dann gehts wieder ab mit dem grakakrieg. ^^

      Und bis dahin sind auch die aktuellen G80-GPUs wieder “altes Eisen” dass “niemand” mehr interessiert, da nur noch “Mittelklasseware” 😡 Naja, immerhin belebt Konkurrenz das Geschaeft :DIch find’s auch einfach laecherlich wie viel Bedeutung manche Leute “ueberaktueller” Hardware zumessen, obwohl die Software dafuer noch gar nicht verfuegbar ist 😆 Aber ich schweife ab…

    • #656355
      steeve
      Teilnehmer

      vamp said:
      Wenn interessiert das schon ob es Anwendungen gibt die aus den Karten wirklich alles rausholen?

      Bewusste käufer interessiert das schon… Oder brauchst Du vielleicht ein auto mit 500 PS?

      vamp said:
      Kauf dir eine Mittelklasse-Karte und spiele 50€ Spiele mit niedrigen bis mittleren Details und du wirst natürlich alles sehen was das Spiel wirklich zu bieten hat 🙁

      Das ist auch das problem, das die gamer bei einem pc haben. Bei einer konsole ist das so, dass man sie sich holt und später das geld nur für die spiele ausgegeben wird. Und bei einem pc ist das so, dass man sich langsam mit jedem neuen spiel auch neue hardware holen muss. Und das schlimmste ist, dass die abwärtskompabilität sehr schlecht ist. Splinter Cell 4 braucht mindestens eine Shader Model 3-karte, damit das spiel überhaupt läuft. HL2 dagegen lief auch mit schwächsten Geforce4 karten.Versteht mich nicht falsch, ich sehe das spielen auf dem rechner nur als eine art unterhaltung und dafür bin ich nicht psychisch bereit viel auszugeben. Ich tanze doch nicht nach der musik der industrie. 😡 Ich kann ohne die industrie sehr wohl leben, die industrie kann aber ohne mich nicht leben!

      vamp said:
      Und komm nicht mit dem bescheuertem Argument ” Auf das gamplay kommts an, nicht auf die Grafik”, dann kannst du nähmlich Tetris weiterzocken

      Doch auf das gameplay kommt es an. Was habe ich von einem spiel mit bester grafik, wenn es einfach langweilig ist oder noch dazu der maßen verbuggt, dass man einfach frustiert vor dem rechner sitzt?Ganz nebenbei muss ich sagen, dass das spiel Mafia heute noch mehr spaß macht als die meisten nextgen-grafik spiele …Und die spiele wie z.b. Splinter Cell 4, Gothic 3 oder Oblivion boykottiere ich einfach. Wenn die entwickler nicht in der lage sind das spiel so zu entwickeln, damit es auch auf älteren pcs läuft, bin ich auch nicht in der lage sie durch meinen kauf zu unterstützten.Tut mir leid liebe industrie aber eurer konsumterror geht langsam auf die nerven.

      vamp said:
      … und spiele 50€ Spiele …

      Das ist auch das traurige an der geschichte. Spieleentwickler bauen werbungen ein und verdienen damit paar millionen noch dazu, aber die spiele werden nicht günstiger. Ganz im gegenteil, die werden immer langweiliger und sind immer öfter so verbuggt, dass man erst auf einen patch warten muss, um es spielen zu können.

    • #656352
      vamp
      Teilnehmer

      Philipp;192704 said:

      steeve said:
      Bis dahin sind dann auch die karten der konkurrenz verfügbar … dann gehts wieder ab mit dem grakakrieg. ^^

      Und bis dahin sind auch die aktuellen G80-GPUs wieder “altes Eisen” dass “niemand” mehr interessiert, da nur noch “Mittelklasseware” 😡 Naja, immerhin belebt Konkurrenz das Geschaeft 😀

      Ich find’s auch einfach laecherlich wie viel Bedeutung manche Leute “ueberaktueller” Hardware zumessen, obwohl die Software dafuer noch gar nicht verfuegbar ist 😆 Aber ich schweife ab…

      Wenn interessiert das schon ob es Anwendungen gibt die aus den Karten wirklich alles rausholen ? Ist die etwa nicht schnell genug ?
      Wenn du nicht genug Kohle für eine neue schnellste Karte hast ist es dein Problem, dadurch werden die Karten nicht langsammer oder schlechter.
      Kauf dir eine Mittelklasse-Karte und spiele 50€ Spiele mit niedrigen bis mittleren Details und du wirst natürlich alles sehen was das Spiel wirklich zu bieten hat 🙁
      Und komm nicht mit dem bescheuertem Argument ” Auf das gamplay kommts an, nicht auf die Grafik”, dann kannst du nähmlich Tetris weiterzocken

    • #656410
      vamp
      Teilnehmer

      Far Cry und später Crysis sind auch 0815 Shooter, die aber sehr beliebt sind. Und weshalb ?
      Call of Duty Reihe, FEAR, DOOM3 und Halfe Life2 sind auch bekannt nur durch ihre Grafik geworden. An sich bieten solche Spiele auch nichts besonderes, nur ballern, ballern, ballern.

      Ich habe vor 1.5 Jahren fast 300€ für 6600GT ausgegeben mit der ich weder damals noch Heute Spiele mit höchsten Details spielen konnte und kann. Dann gebe ich doch lieber noch mehr aus und spiele zumindest jetzt alle Spiele in höchstes Auflösung und maximalen Details oder aber man steigt gleich auf die Konsolen um.

    • #656427
      klafert
      Teilnehmer

      naja call of duty far cry fear und hl2 sind action shooter die aber klar auch “hintergrund” und nen roten faden haben und die hab ich nicht wegen der angeblich tollen grafik (die ich in allen fällen eher normal aber nicht als ausnahme sehe) desweiteren ist hl2 eher die engine und css bzw dod-s was dieses so berühmt macht

      die dx10 architektur sorgt nebenbei auch dafür das dx9 spiele die graka kaum auslasten weil dx10 deutlich aufwendiger ist

      wenn man sich nen rechner kauft dann muss man in kauf nehmen das dieser in einem monat alt ist
      man kann nicht immer auf die nächste neuerung warten dann bekommt man nichts.(ich werd nicht auf ddr3 warten)

      ein high end rechner reicht ca 3 jahre bevor er in den low end sektor fällt kann man durch verbesserungen rauszögern nur seh ich net ein ne neue grafik zu kaufen und dann den cpu als bremse zu haben und dann hol ich mir ne cpu und hab ne alte graka

      da hol ich mir lieber alle 3 jahre komplettes system spiel 1 jahr high end und ab dann halt eben mittelklasse das ist noch voll ausreichend für meine aspekte

    • #656434
      steeve
      Teilnehmer

      vamp said:
      Far Cry und später Crysis sind auch 0815 Shooter, die aber sehr beliebt sind. Und weshalb?Call of Duty Reihe, FEAR, DOOM3 und Halfe Life2 sind auch bekannt nur durch ihre Grafik geworden.

      : / Oben genannte spiele sind nicht bekannt geworden, weil sie so tolle grafik hatten. FEAR hat einzigartige atmosphere. HL2 ist, wie alle schon wissen sollten, durch den ersten teil, der ein geniales gameplay für damalige zeiten hatte, bekannt geworden. Far Cry hatte auch ein besonderes feeling, viele sahen in Far Cry eine art HL. Die grafik war bei den spielen echt nur etwas sekundäres, halt um die aufmerksamkeit der masse bisschen zu lenken.Also ich bitte dich, rede den leuten nicht irgendein qutsch ein.

      vamp said:
      Ich habe vor 1.5 Jahren fast 300€ für 6600GT ausgegeben mit der ich weder damals noch Heute Spiele mit höchsten Details spielen konnte und kann.

      Da hast Du aber bisschen zu viel bezahlt, da der einführungspreis für die 6600GT knapp 200€ war, 300€ sind echt unrealistisch.Und mit der karte konnte man sehr wohl viele spiele mit höchster quali spielen. Far Cry und HL2 konnte man ohne probs mit 4xAA und 8xAF bei 1280×1024 spielen, wenn de restliche hardware stimmte. Und alle spiele, die bis dahin rauskamen, konnte man auch bei höchster quali spielen.Und heute kann ich sogar mit meiner X1800XT manche spiele nicht mit hoher quali spielen. Ob das daran liegt, dass die hardware alt ist, musst Du selbst herausfinden … :-k

      vamp said:
      Dann gebe ich doch lieber noch mehr aus und spiele zumindest jetzt alle Spiele in höchstes Auflösung und maximalen Details oder aber man steigt gleich auf die Konsolen um.

      200€-300€ reichen für eine karte absolut aus. Nehmen wir als beispiel die X1950Pro -> die kann man schon für ~200€ mit 512MB VRAM kaufen. Sag bitte nicht, dass die nicht ausreicht um heutige spiele bei höchster quali zu spielen. Aber erwähne jetzt bitte nicht Gothic3, da das spiel echt miese entwickelt wurde.

      klafert said:
      die dx10 architektur sorgt nebenbei auch dafür das dx9 spiele die graka kaum auslasten weil dx10 deutlich aufwendiger ist

      Hmm, hast Du was vielleicht verwechselt? :-k Durch DX10 wird die cpu deutlich entlastet. Bei DX10 spielen wird es eigentlich egal sein, ob du einen X2 3600+ oder X2 6000+ hast.

    • #656440
      vamp
      Teilnehmer

      steeve;193323 said:
      Oben genannte spiele sind nicht bekannt geworden, weil sie so tolle grafik hatten. FEAR hat einzigartige atmosphere. HL2 ist, wie alle schon wissen sollten, durch den ersten teil, der ein geniales gameplay für damalige zeiten hatte, bekannt geworden. Far Cry hatte auch ein besonderes feeling, viele sahen in Far Cry eine art HL. Die grafik war bei den spielen echt nur etwas sekundäres, halt um die aufmerksamkeit der masse bisschen zu lenken.
      Also ich bitte dich, rede den leuten nicht irgendein qutsch ein.

      Man, was für ein Gameplay bieten den jetzt die DooM und HL, UT oder FEAR ?
      Ein Ballerspiel mit toller Grafik !
      Wo du da ein höheres Sinn gefunden hast weisst sicher nur du

      steeve;193323 said:
      Da hast Du aber bisschen zu viel bezahlt, da der einführungspreis für die 6600GT knapp 200€ war, 300€ sind echt unrealistisch.
      Und mit der karte konnte man sehr wohl viele spiele mit höchster quali spielen. Far Cry und HL2 konnte man ohne probs mit 4xAA und 8xAF bei 1280×1024 spielen, wenn de restliche hardware stimmte. Und alle spiele, die bis dahin rauskamen, konnte man auch bei höchster quali spielen.
      Und heute kann ich sogar mit meiner X1800XT manche spiele nicht mit hoher quali spielen. Ob das daran liegt, dass die hardware alt ist, musst Du selbst herausfinden … :-k .

      Ist überhaupt nicht war ! 240€ war die billigste Variante von Sparkle 😉

      steeve;193323 said:
      200€-300€ reichen für eine karte absolut aus. Nehmen wir als beispiel die X1950Pro -> die kann man schon für ~200€ mit 512MB VRAM kaufen. Sag bitte nicht, dass die nicht ausreicht um heutige spiele bei höchster quali zu spielen. Aber erwähne jetzt bitte nicht Gothic3, da das spiel echt miese entwickelt wurde.

      Fear, CoD2, HL2, DooM3 usw. sind doch schon 1 Jahr alt und nicht aktuel oder welche Spiele hast du gemeint ?

    • #656497
      steeve
      Teilnehmer

      vamp said:
      Man, was für ein Gameplay bieten den jetzt die DooM und HL, UT oder FEAR ?Ein Ballerspiel mit toller Grafik !Wo du da ein höheres Sinn gefunden hast weisst sicher nur du.

      Laut deiner aussagen gibt es jetzt nur ballerspiele, rennspiele die ehe alle gleich sind und irgendwelche spiele wo man ein dorf oder charakter aufbaut. : / Oder Du kannst mich nicht ganz verstehen. Alle die spiele wurden bekannt, weil die sehr qualitativ waren. Sie waren nicht qualitativ und bei den spielern beliebt, nur weil sie tolle grafik hatten. Grafik war nur nebensächlich, sorgte nur für bessere präsenz, aber die grafik alleine war nicht für den erfolg dieser spiele verantwortlich. Jeder dieser spiele HL, UT, Doom, Wolfenstein, Mafia … hatte besondere szenarien und atmosphere. Du kannst nicht einem erzählen die grafik sei alles was ein spiel erfolgreich macht. Dass es aber zeitschriften oder manche web-seiten gibt, die eine note extra draufpacken, wenn die grafik gut aussieht kann ich nichts für. Das schlimme ist, die entwickler geben sich dann beim nächsten spiel viel mehr mühe für die grafik, und die qualität im gesamten spiel läßt nach. Aber soweit es spieler gibt, die denken die grafik sei alles in einem spiel, läuft doch alles gut…

      vamp said:
      Ist überhaupt nicht war ! 240€ war die billigste Variante von Sparkle 😉

      Ich hab damals meine Leadtek 180€ bezahlt. Hab aber 3-4 wochen gewartet, bis sie überall verfügbar war.

      vamp said:
      Fear, CoD2, HL2, DooM3 usw. sind doch schon 1 Jahr alt und nicht aktuel oder welche Spiele hast du gemeint ?

      Auch heutige spiele wie z.b. SC4 packt die X1950Pro locker. Auch sonstige spiele würden ohne probleme flüssig laufen, aber dann sollte auch die restliche hardware stimmte: 2GB speicher und ne schnelle cpu.Die X1950Pro könnte nur bei Gothic3 schwierigkeiten bekommen, aber wie man das schon kennt, ist das spiel sehr schlecht entwickelt. Das bietet zwar tolle grafik, aber zu welcher leistung … [Gothic3 gibt sogar ein fehler aus, dass es wenig speicher gibt, obwohl man im pc 2GB hat]

    • #656505
      steeve
      Teilnehmer

      vamp said:

      Philipp said:
      @vamp: Bitte hier weiterlesen 😀

      Netter Versuch 😉 AthlonXP und 9250 ende 2006, dass sagt doch was anderes aus

      Ja ok, nicht alle nutzen ein pc um spiele zu spielen oder er mag ganz andere spiele wie z.b. CrazyMachines, Ballance … OK leute, lasst uns jetzt bitte diese diskussion zu ende bringen, damit deiser thread bleibt wofür er gedacht war -> thread für die neuste technik im bereich grafikkarten und was dazu so alles passt. 🙂.

    • #656504
      vamp
      Teilnehmer

      Philipp;193402 said:
      @vamp: Bitte hier weiterlesen 😀

      Netter Versuch 😉

      AthlonXP und 9250 ende 2006, dass sagt doch was anderes aus

    • #656503
      toor
      Teilnehmer

      @vamp: Bitte hier weiterlesen 😀

    • #656577
      klafert
      Teilnehmer

      okay on topic

      wie lang dauert es bis es waküaufsätze für die dinger gibt?

    • #656848
      vamp
      Teilnehmer

      Gibts doch schon.

      Die Dinger sind ziemlich aufwändig und die Hersteller kommen der Anfrage nicht nach.

      Hier scheints schon vorrätig zu sein…

      http://www.aquatuning.de/product_info.php/info/p1857_Innovatek-Cool-Matic-G80-GTX—GPU-RAM-SPG.html

      Doch meine Bestellung ist immer noch offen : /

    • #656910
      klafert
      Teilnehmer

      hmm ich meinte wie lang es dauert bis es die für den r600 gibt

      also allgemein wieviel zeit vom graka release zum kühler vergeht ca

    • #657464
      steeve
      Teilnehmer

      Und erster test [planet3dnow.de] zu der neusten grafikkarte von ATI mit dem R600-chip ist mittlerweile auch raus.Hier paar technische spezifikationen der karte:

      – 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle- 32 TMUs, 16 ROPs- 512 bit Memory Controller, full 32 bit per chip connection //damit kann man auch 2GB VRAM steuern- GDDR3 at 900 MHz clock speed (January)- GDDR4 at 1.1 GHz clock speed (March, revised edition)- Total bandwidth 115 GB/s on GDDR3 // 86 GB/s sind es bei G80 bzw 8800GTX- Total bandwidth 140 GB/s on GDDR4Consumer memory support 1024 MB– DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)- 32FP internal processing- Hardware support for GPU clustering (any 2^n number, not limited to Dual or Quad-GPU)- Hardware DVI-HDCP support (High-Bandwidth Digital Content Protection)- Hardware Quad-DVI output support (Limited to workstation editions)- 230W

      planet3dnow.de said:
      In den veröffentlichten Benchmarks liegt der R600 zwischen 8% und 42% vor nVidias aktuellem Topmodell, der GeForce 8800GTX.

      [SIZE=”5″]The Full ATI R600 Test[/SIZE][SIZE=”1″][Quelle: level505.com][/SIZE]

      Hier mal paar benchmarks als vorgeschmack:http://level505.com/wp-content/uploads/2006/12/ati-r600-fear-16001200.jpghttp://level505.com/wp-content/uploads/2006/12/ati-r600-anno1701-16001200.jpg[SIZE=”1″][Bildquelle: level505.com][/SIZE]Die karten sollen am 22. januar in den handel kommen.

    • #657519
      steeve
      Teilnehmer

      Na, was sagt ihr zu den benchmarksergebnissen? Keine heftige diskussion?In nur drei wochen kommen die monster in den handel.

    • #657532
      Spicy_Ice
      Teilnehmer

      Hallo

      Ne 1950XTX CF schneller wie ne R600 in Fear?WAs geht und eine 8800 so langsam?Hui
      Benchmark hin oder her.ATI bleibt immer mein Favorit und mit einigen Fehlkäufen von Nvidia bin nur noch ATI und Intelfan ^^

      Hauptsache mein Lieblingspiel läuft unds rückelt ned,da is mir jeder Benchmark egal.

      ATI TOP :-({|=

      Gruß SPicy

    • #657540
      steeve
      Teilnehmer

      Bitte jetzt keine fan-boy-diskussion anfangen.Jep, auch auf die andere tests von anderen seiten sollte man abwarten. Ich hab jetzt nur diesen test gepostet, damit man sehen kann wie sich die karte auf dieser seite schlägt.Da sieht die karte echt gut aus, vor allem die speicherbandbreite:X2900XT – 115 GB/s mit GDDR3 und 140 GB/s mit GDDR48800GTX – 86 GB/s mit GDDR3

    • #657549
      h4rdc0r3
      Teilnehmer

      Ich sag dazu mal lieber nix. Da warte ich lieber bis die Karte raus ist, die Treiber halbwegs optimiert sind und sehe mir dann Benchmarks verschiedenster Sites an. Und nur dann bilde ich mir erst meine Meinung, alles andere ist meist nur Spekulation.

      Nur soviel sei gesagt, wenn der R600 nicht schneller wäre, wäre es dann überhaupt sinnvoll ihn rauszubringen wenn es bereits etwas besseres auf dem Markt gäbe?

      Dann stellt sich noch die Frage des Preises und der Verfügbarkeit.

    • #657541
      Spicy_Ice
      Teilnehmer

      Hallo klafert

      DOch hatte ich ^^.bis vor 3 Monaten.Hat ein netter User bei egay abgekauft.Habe sogar mehr bekommen,als ich damals dafür gezahlt habe ^^
      Und es war ein P4 3,2 HT viola

      AMD hatte ich auch schon und Nvidia zu oft,aber die hielten ei mir keinen Monat ^^.Dann hab ich se doch wieder gegen nen Intel und ne ATI getauscht

      Gruß Spicy

    • #657539
      klafert
      Teilnehmer

      spicy ice du bisn erfolgsfan 😛

      wette du hattest keine p.4 preschrott kern^^

      SOLLTEN die ergebnisse nicht aus der nase gezogen sein ist das mal richtig hammer geil^^

      dann will ich sie haben verdammte ******* man^^

      *freu und garnetmehrwartenkann*

      selbes system 900 3d mark 06 punkte mehr geil

      nur leider keine bilder…

    • #657537
      EvilMoe
      Teilnehmer

      Ich trau den Benches eh nicht. Bzw, erstmal gucken was andere so berichten und für Ergebnisse liefern.

    • #657557
      steeve
      Teilnehmer

      h4rdc0r3 said:
      Ich sag dazu mal lieber nix. Da warte ich lieber bis die Karte raus ist, die Treiber halbwegs optimiert sind und sehe mir dann Benchmarks verschiedenster Sites an. Und nur dann bilde ich mir erst meine Meinung, alles andere ist meist nur Spekulation.

      Ja ok, spekulation kann man es nicht wirklich nennen. Aber man sollte schon abwarten, um zu sehen was die andere seiten sagen.Was ich aber bis jetzt gehört habe ist, dass die spieleentwickler die karten zum testen bekommen haben und echt überrascht waren wie die karte abgeht. Die karte war einfach schneller.Wie schon gesagt, sollte man sich nur mal die speicherbandbreite angucken. Mit GDDR4, die bei den top modellen verbaut wird, erreicht man 140 GB/s das ist im verhältnis zu der 8800GTX mit 86 GB/s, fast eine verdoppelung. Was soll man dazu noch sagen, dafür braucht man keine benchmarks zu sehen, dass die karte power hat.

      h4rdc0r3 said:
      Nur soviel sei gesagt, wenn der R600 nicht schneller wäre, wäre es dann überhaupt sinnvoll ihn rauszubringen wenn es bereits etwas besseres auf dem Markt gäbe?

      Sag bitte nicht, dass Du eine antwort erwartest?Die kühlung wird aber echt aufwendig werden. 230W für eine graka ist echt heftig, aber wenn man sich die 8800GTX mit 200W anschaut, denkt mann, dass es doch nicht so viel ist. Ich werde mir auf jeden fall keine dieser karten holen, vielleicht die übernächste generation, wenn was am stromverbrauch getan wird. 200W+ sind mir einfach zu viel, da ist mir die spieleleistung egal.

    • #657555
      klafert
      Teilnehmer

      na okay dann will ich mal nix gesagt haben *auch nur intel und ati hatte*

      so

      naja verwunderlich

      tests ohne screenshots ( man könnte die herkunft der karte herausfinden)

      keine fotos (will die kühlung wissen)

      abwarten es werden soooooooooo viele gerüchte verbreitet das ist net mehr schön

      und die stromaufnahme die so heiß diskutiert ist ist jawohl nicht so viel höher wie normal auch

      leistung kostet halt en bissl was

      bisher hatte es ati seit r3xx immer geschafft auf nvidia ne passende und bessere antwort zu finden

      naja würde der r600 langsamer und die würden den net rausbringen dann gehen die pleite weil die kosten für die entwicklung so hoch sind

      im zweifelsfall können se ja noch mal verschieben und ein paar 4 wege shader zutun..

    • #657561
      h4rdc0r3
      Teilnehmer

      Ich denke mir das so, das die Karte am Anfang teuer genug sein wird und spricht daher nur die Hardwarefetischisten an.Und wenn die Karte nicht schneller wäre, welcher von denen würde sie dann kaufen?Liege ich damit denn wirklich so weit daneben? Gab es denn in letzter Zeit einen Grafikchip der neu auf den Markt kam und langsamer war als der “Ältere”?Hab mich nie so intensiv damit beschäftigt, würde aber das dennoch mal so in den Raum stellen. Könnt mir gerne was anderes aufzeigen.

    • #657606
      klafert
      Teilnehmer

      wenn die karte nicht so gut wär muss sie trotzdem verkauft werden dann halt billiger hmpf

    • #657631
      klafert
      Teilnehmer

      naja ati hat schon testkarten an spielehersteller etc versendet

      core 2 duo sind auch testmodelle vor verkaufstermin bei ebay erhältlich gewesen

    • #657625
      vamp
      Teilnehmer

      Und das ist kein fake ? Die Karte soll erst am 22 Januar zum Verkauf freigegeben sein, aber jetzt schon wird sie getestet ? Wird der Händler dafür nicht kastriert ?
      Ich finde überhaupt nichts über ATI R600.

      8800GTS/GTX lassen sich prima takten, das war bei den ATIs 1950XTX mit GDDR4 nicht der Fall

      edit: ausserdem wird weder was über die Architektur von GPU erwähnt noch über die Taktraten

    • #653134
      VJoe2max
      Teilnehmer

      Zum R600:Der Stromverbrauch macht die Karte in meinen Augen indiskutabel – und sei sie noch so schnell. Sowohl AMD als auch NVidia sollten langsam von ihrem Verlustleistungstrip runterkommen und sich darum kümmern die Chips kühler zu bekommen x( .Die Leistung der aktuellen Graka-Generation ist doch sowiso ihrer Zeit voraus. Die paar wenigen Spiele, die ein solches Monster erfordern sind oft schlecht programmiert oder noch nicht erschienen.Ausserdem ist DirectX 10 ist noch nicht mal auf dem Markt, weil sich Vista verzögert hat. Wer sich jetzt eien 8800er oder demnächst die R600 kauft wird meiner Ansicht nach in mehrerlei Hinsicht enttäuscht werden. Zum einen ist die Hardware schon wieder veraltet, wenn Vista sich einigermaßen verbreitet hat, zum anderen verbraucht er bis dahin soviel Strom, dass er mit den Kosten bald schon wieder eine neue Karte kaufen könnte. Für uns Wasserkühler kommt mit diesen Teilen zusätzlich noch der Aspekt hinzu, dass die Kühler immer teuerer werden und selbstbau zunehmend schwieriger wird. Ausserdem heizen die Dinger das Wasser unnötig auf :roll:.Ich warte auf jeden Fall die nächste Generation ab – vielleicht lernen nVidia und AMD ja doch noch dazu [-o< .

    • #652832
      steeve
      Teilnehmer

      VJoe2max said:
      Zum R600:
      Der Stromverbrauch macht die Karte in meinen Augen indiskutabel – und sei sie noch so schnell.

      Das stimmt. Die cpus verbrauchen relativ wenig strom, wenn man jetzt die neue Intels quad-core cpus rausläßt, die sogar bisschen mehr strom verbrauchen als die alte Prescott cpus. Aber wenn man sich die karten jetzt anschaut: 8800GTX – 200W ; X2800XT – 230W, bleibt man echt ohne kommentar. Ich werde mir keine grakarte mehr holen, bis die grakahersteller nicht aufhören solche stromfresser herzustellen. Zwar stimmt das, dass die karte unglaubliche spieleleistung haben, aber 200W+ sind mir einfach zu viel. 100W dagegen ist für eine leistungkarte ala X1950XT – 8800GTS [160W] noch akzeptabel.

      r00t said:
      das war doch zu erwarten das der R600 schneller wird oder?

      Nachdem einige daten der karte geleakt wurden wusste man, dass die karte overkill leistung haben wird.

    • #652864
      r00t
      Teilnehmer

      das war doch zu erwarten das der R600 schneller wird oder?immerhin gibts den G80 jetzt doch schon etwas länger 😉

    • #619773
      klafert
      Teilnehmer

      naja ich werd sie mir holn will net im halben jahr die dx10 spiele nicht nur auf bildern sehen…

    • #617637
      vamp
      Teilnehmer

      steeve;194914 said:
      …. 100W dagegen ist für eine leistungkarte ala X1950XT – 8800GTS [160W] noch akzeptabel….

      Wenn meckern dann auch richtig 🙂

      Angesichts der Mehrleistung von 8800 GTX zu X19050XT, ist der Mehrverbrauch an Strom auch gerechtfertigt :tongue:

      klafert;194991 said:
      naja ich werd sie mir holn will net im halben jahr die dx10 spiele nicht nur auf bildern sehen…

      Die kannste auch in 6 Monaten holen wenn die Spiele da sind. Ich habe sie gekauft weil unsicher war ob für die z.B. 1800XT/1900XT mit HD Auflösung und allen Details eventuel zuviel wird

    • #656513
      drdope
      Teilnehmer

      o2-cool;195031 said:
      Also Benchmark hin oder her…eins versteh ich nicht.

      Wer spielt heute eigentlich noch in 1600×1200 ??
      Seitdem ich TFT s habe ist eigentlich fast immer 1280×1024 angesagt….alles was grösser ist taugt nicht zum Spielen da die 20+ Zoll TFT zu langsam zum Spielen sind.

      Auch auf nem 30′ TFT (2560×1600) läßt sich gut zocken, wenn man die, von den Marketingabteilungen angegebenen, unrealistisch niedrigen Reaktionszeiten der sogenanten “Gamer-TFTs” mal außen vorläßt….

      Mal ne ganz einfache Rechnung:
      Wenn ich nen TFT mit 60Hz ansteuere; hat das Gerät für den Aufbau eines Bildes 1000ms/60Bilder lang Zeit –> Das sind ~16,6ms pro Bild; alles was fixer wäre bringt eh nix…
      😉

    • #656732
      o2-cool
      Teilnehmer

      Also Benchmark hin oder her…eins versteh ich nicht.Wer spielt heute eigentlich noch in 1600×1200 ??Seitdem ich TFT s habe ist eigentlich fast immer 1280×1024 angesagt….alles was grösser ist taugt nicht zum Spielen da die 20+ Zoll TFT zu langsam zum Spielen sind.Ich habe eine 8800er GTX und habe kein Spiel was bei maximaler Grafik unter 100 FPS läuft…also deutlich schneller als meine TFT überhaupt darstellen können.Braucht man da eine 8800er oder eine R600 ? Fürs ego ja…zum zogge (derzeit) eigentlich noch nicht.

    • #578454
      klafert
      Teilnehmer

      ich schaffe mir halt zuu vista einen neuen an

      und zwar weil der alte echt alt wird

      r300 und p4 3,0 sind langsam

      und jetzt wo vista rauskommt passt es perfekt

      dann nehm ich gleich den r600 und nen guten prozessor und hab wieder ne zeit ruhe bin nicht der typ für pc immer wieder nachrüsten

      wenn ich jetzt nen x1950 holn würd hätt ich in nem halben jahr schon die ersten spiele bei denen ich viele effekte verpassen würd was nich passieren wird wenn ich den r600 hole

      der stromverbrauch ist mir vollkommen egal

      der leistungüberschuss wird in rauch aufgehen wenn die passenden spiele aufm markt kommen
      dann stehen die die sich erst ne dx9 karte gekauft haben im regen und müssen sich was neues kaufen und die alten karten sind auch nicht mehr wertvoll weil der sprung zu groß ist…

      karte kommt ende januar aufm markt

      mitte februar ist sie dann ausreichen verfügbar
      und mitte märz werden se schon wieder billiger und dann hab ich meinen kauf geplant..

    • #578419
      drdope
      Teilnehmer

      husky;195133 said:

      drdope;195035 said:
      Mal ne ganz einfache Rechnung:
      Wenn ich nen TFT mit 60Hz ansteuere; hat das Gerät für den Aufbau eines Bildes 1000ms/60Bilder lang Zeit –> Das sind ~16,6ms pro Bild; alles was fixer wäre bringt eh nix…
      😉

      Der Monitor bekommt alle 16,6ms ein neues Signal für ein Bild. Das heißt ja noch lange nicht, dass er es in dieser Zeit auch darstellen kann, bzw. vom alten auf das neue Bild umstellt.

      Da hab ich auch nie behauptet, wenn du dir mal durchließt, was ich geschrieben hab….
      😉

    • #578424
      husky
      Teilnehmer

      drdope;195035 said:

      o2-cool;195031 said:
      Also Benchmark hin oder her…eins versteh ich nicht.

      Wer spielt heute eigentlich noch in 1600×1200 ??
      Seitdem ich TFT s habe ist eigentlich fast immer 1280×1024 angesagt….alles was grösser ist taugt nicht zum Spielen da die 20+ Zoll TFT zu langsam zum Spielen sind.

      Auch auf nem 30′ TFT (2560×1600) läßt sich gut zocken, wenn man die, von den Marketingabteilungen angegebenen, unrealistisch niedrigen Reaktionszeiten der sogenanten “Gamer-TFTs” mal außen vorläßt….

      Mal ne ganz einfache Rechnung:
      Wenn ich nen TFT mit 60Hz ansteuere; hat das Gerät für den Aufbau eines Bildes 1000ms/60Bilder lang Zeit –> Das sind ~16,6ms pro Bild; alles was fixer wäre bringt eh nix…
      😉

      Der Monitor bekommt alle 16,6ms ein neues Signal für ein Bild. Das heißt ja noch lange nicht, dass er es in dieser Zeit auch darstellen kann, bzw. vom alten auf das neue Bild umstellt.

    • #578344
      husky
      Teilnehmer

      Ok :+

      Erst lesen, dann denken, dann posten – ich weiß;)

    • #658208
      vamp
      Teilnehmer

      Ich hab an meinem 24″ Eizo nichts auszusetzen und der hat nun mal 1920X1200.
      Ich zocke gerade “Dark Messiah of Might and Magic” (finde das Game ist viel besser als Oblivion) und ich bin mir nicht sischer ob X19XX Serie es auch packt.

    • #659727
      go4hl80ve
      Teilnehmer

      also mal ehrlich – 230W stromverbrauch ist einfach mal lächerlich hoch.
      wozu das ganze??? nur wegen ein paar frames mehr, die man bei den aktuellen spielen vermutlich nichtmal merkt?
      und bei den echten DX10 krachern wird die hardware dann vermutlich schon wieder zu langsam sein.
      und aktuelle spiele werden nicht besser aussehen (eher ein wenig steriler, da man bei sehr hohen auflösungen langsam detailmängel erkennt)

      bin ich froh, dass ich mir ne 7900GS geholt hab. 50W stromverbrauch und aktuelle spiele laufen allesamt in 1680×1050 pixeln und hohen details.
      (bei ein bisschen älteren gibts dann immer maximale details + AA + AF)
      im prinzip könnte ich mir bei ebay auch noch eine preiswert(?) besorgen und dann mit SLI spielen. wäre zwar langsamer, aber auch viiieeel sparsamer als so nen R600.

      und wenn ich mir überlege, dass mein ziemlich aktueller pc (mal von der graka abgesehen; dabei kam die gerade neu raus, als ich die geholt hab) bei vollast insgesamt grade mal 180W ausm netz zieht, dann sind 230W – wie anfangs erwähnt, schlichtweg lächerlich hoch

    • #659735
      Spicy_Ice
      Teilnehmer

      Hallo

      Was jammert ihr den bitte am Stromverbrauch?WOzu kauft man sich ein 600-800W Netzteil?

      Nur so mal am Rande.Zahlt ihr euren Strom selber ,die hier nicht verdienen oder wer anderes?Mich juckt mein Stromverbrauch nicht,Habe noch nebenbei 13 Aqauarien die 24/7 die Woche laufen und die schlucken mehr wie mein PC und sind deutlich teuerer im Unterhalt wie der PC.Wen juckts da.Wenn euch euer Hobby zu teuer ist,dann müsst ihr euch einschränken oder es lassen.Jammer bringt nichts,wird an euerer Situation nichts ändern.Aber Neidisch auf andere sein das köpnnt ihr dann gerne.

      Gruß SPicy

    • #659730
      r00t
      Teilnehmer

      hardcoregamer freaks mit einem G80 Sli sys juckt der stromverbrauch glaub ich herzlich wenig!

    • #659741
      Patty
      Teilnehmer

      spicy :xkomische einstellung hast du da, aber aja, deine sache. solangs spaßmacht…im gegensatz zu dir ist es mir auch nicht wayne wie hoch meine stromkosten sind. da meine eltern diese tragen komme ich zwar selber nicht direkt für mich auf, mein vater hatte mich aber vor einiger zeit schonmal angesrochen, als eine nachzahlung von 320€ ins haus geflogen kam.von daher versuche ich den energiehunger meines rechners etwas zu drücken. je nachdem wie die nächsten rechnungen aussehen werde ich mich wohl etwas an den kosten beteiligen müssen.

    • #659739
      husky
      Teilnehmer

      Man kauft sich ein 600 – 800 Watt NT, wenn kleinere nicht ausreichen.Ich zahle meinen Strom nicht selber. Aber im Gegensatz zu anderen ist mir nicht egal, wie viel meine Eltern blechen müssen. Wenn ich schon den Strom umsonst bekomme, dann muss ich das ja nicht auf die Spitze treiben.Es kann auch ein Hobby sein, Hardware mit niedriegem Verbrauch zu verbauen. Ich hab am Stromsparen mindestens so viel Spaß wie du beim sinnlosen vergeuden. Geh nicht immer von dir aus – andere Leute haben andere Interessen und Vorlieben.Warum sollte man auf Leute neidisch sein, die den Strom im Unverstand raushauen 😡 Da fehlt wohl der Sinn in deiner Behauptung.230Watt Stromverbrauch sind einfach viel zu viel für die Grafik. Aber wenn sich keiner beschwert und es jeder – so wie du – einfach so schluckt, warum sollte die Industrie was ändern. Ein Kunde, der alles kauft, ohne Fragen zu stellen und zu denken ist der Wirtschaft ja am liebsten.

    • #659743
      Poweruser
      Teilnehmer

      Patty, lass ihn erst den Stromverbrauch von Kühlschrank, Gefrierschrank, Waschmaschine, Trockner etc… messen und mit neuen Top-Geräten vergleichen, bevor du was zahlst. Vllt. überlegt sich das Papa noch;) Falls die Geräte nicht neu sind, lässt sich da nämlich ne Menge Strom(Geld) sparen und das hält immernoch, wenn du weggezogen bist.Aber wie Spicy schon sagte, Hobbies haben sowieso meist wenig mit Vernunft zu tun…:)

    • #659745
      Spicy_Ice
      Teilnehmer

      HAllo

      Ich habe nie behauptet .das ich meine Strom sinnlos verbrate.Ich habe mir halt Hobby zugelegt,da kann ich nicht so auf den Stromverbrauch achten,da es einfach zu aufwendig ist.
      Ist mir schon klar wenn ihr bei eueren Eltern lebt,das ihr auch nichts zahlen müsst.Dann ist es auch normal,das man den Verbrauch nicht in die höhe treiben solltet.Deshalb habe ich ja auch gefragt,wer den für seinen Strom zahlt.
      Fast jedes Hobby kostet Geld.Manche weniger,manche mehr.
      Und ich kaufe mir sicherlich auch nicht Hardware die enorm viel schluckt,wird immer wieder modifikationen geben,die den Verbrauch senken.
      Wenn ihr mal selber verdient,dann werdet ihr auch auf dei Stromkosten achten,aber wenn ihr ein Hobby habt,das Geld verschlingt und nichts dabei rauskommt.Ich betreibe Zucht mit meine Fischen,aber das nebenei.Und da kommt Geld rein,von daher achte ich nicht mehr so darauf.

      230Watt sind viel?Schau mal was ein Kondenstrockner verschlingt,der fängt erst bei 1KW an.Mekert da einer?Wiso muss man die Wäsche elektrisch trocknen,wenn es auch an der Luft geht?

      Aber das soll jetz nicht ausarten.Bleiben wir beim Thema.Da gibts halt zuviel verschiedene Meinungen

      Gruß Spicy

    • #659848
      klafert
      Teilnehmer

      wer sagt das ein hobby vernünftig sein soll?

      und wieso regt ihr euch wegen 230watt max tdp auf

      wenn der g80 auch immerhin 200watt max braucht also ich verstehe leute die sich das nicht kaufen weil sie beide so viel schlucken

      dann sollen sie es lassen

      aber absolut kein verständnis bring ich für leute mit ner 8800gtx auf die rumflamen das der r600 zu viel strom braucht

      wer nun aber den meisten frames hinterherjagd mein gott

      es gibt dinge die kann Man(n) sich eben gönnen

      und ob ich nun das geld in mein auto stecke und die rechnung ander tankstelle bekomm (und es evtl sogar zu schott fahre) oder ne graka kauf die mal etwas mehr verbrauch hat

      ist lachs wie gurke

      sonst spar ich den saft einfach wo anders ein

      6x 60W in der lampe sind 360 watt

      da bau ich ma schnell 6x3w led birnen reinsind 18W also damit hätte sich das amortiesiert weil ich meistens sowieso nur spiele wenn es dunkel ist…

    • #659930
      braeter
      Teilnehmer

      Leutz, bleibt doch ganz easy….es gibt im Forum halt leute die jedem Watt hinterherjagen und nicht verstehn das für einige hier der PC das selbe wie n Auto ist, an dem man nur just for fun bastelt und rausholt was geht….Kauft die Hardware die euch taugt. Egal was andern von halten. Da muss sich keiner rechtfertigen. Wo sind wir denn?

    • #659945
      klafert
      Teilnehmer

      im waküforum

      naja auf jedenfall alles mit ovp kaufen und diese nicht beschädigen

      wakü aufbauen und packung+ kühler bei ebay reinhauen^^

    • #660389
      steeve
      Teilnehmer

      .

      [SIZE=”4″]Spezifikation für PCI-Express 2.0 finalisiert[/SIZE]
      [SIZE=”1″][Quelle: computerbase.de][/SIZE]

      Ich habe nicht viel zu sagen. Ist interessant, sollte man sich durchlesen.

    • #660663
      go4hl80ve
      Teilnehmer

      Spicy_Ice;197752 said:
      230Watt sind viel?Schau mal was ein Kondenstrockner verschlingt,der fängt erst bei 1KW an.Mekert da einer?Wiso muss man die Wäsche elektrisch trocknen,wenn es auch an der Luft geht?

      schonmal drüber nachgedacht, wie lange (und oft) so ein ding im vergleich zu nem pc so läuft?
      um den stromverbrauch mach ich mir deshalb sorgen, weil dafür ebenfalls noch meine eltern aufkommen. und als wir 2001 (ENDLICH!!!) den ersten pc (mit P4, verbrauch ca. 95W+120W monitor) hatten, ist unsere stromrechnung um ein DRITTEL gestiegen. der pc lief allerdings auch 8h am tag.

      meine philosophie beim zusammenbauen meines jetzigen rechners war, dass stromsparende komponenten für gewöhnlich um einiges kälter (und somit leiser) bleiben. außerdem wollte ich die kiste zwecks downloads und film-enkodierens auch mal über nacht laufen lassen, ohne gleich ein schlechtes gewissen zu kriegen.

    • #660676
      vamp
      Teilnehmer

      Was haben die DL und Filmcodierung mit GK zu tun ?

      ps: vielleicht habe ich in 3-5 Jahren keinen Interesse mehr zum Spielen. Kein Interesse an den Autos, Musik, Diskos… da bleibt nur Sofa und Glotze… Bier vergessen 🙁 😀

    • #661116
      steeve
      Teilnehmer

      So bin wieder auf einige infos über R600 gestoßen. AMD hat vier verschiedene PCB-layouts gefertigt für verschiedene modelle. Bis jetzt ist bekannt, dass es drei karten geben wird: X2200, X2400, X2800.Die stärkste karte wird X2800XTX sein und ist 30cm lang. Sie wird wahrscheinlich zwei 6-pin-anschlüsse haben wie die 8800GTX. Dann:- 1GB GDDR4- 512 Bit speicheranbindung- 2.4GHz speichertakt [1.2GHz real]- 153.6 GB/s speicherbandbreite [8800GTX – 86.4 GB/s]Dann wird es eine X2800XT geben. Die ist fast die gleiche wie die XTX. Sie wird viel kompakter sein und wird 22cm lang sein. Dann:- die taktraten werden nur bisschen niedriger sein- 512MB GDDR4Dann wird es auch eine X2800XL geben. Die PCB wird gleich lang sein, aber wird anderes layout haben, nicht das gleiche wie XT-variante. Die taktraten werden durchschnittlich sein. Diese karte wird auch an die OEMs geliefert.Und die X2800GT wird auch nicht fehlen. Das werden dann wie immer die karten, bei denen der “halb-kaputte” XT-chip verbaut wird. Auch da wird eine andere PCB benutzt. Und bei der karte wird GDDR3 verbaut und nicht GDDR4 wie bei den anderen.Dazu wurde noch gesagt, dass die karten, die für den professionellen markt hergestellt werden [FireGL], mit 2GB VRAM speicher bestückt werden.[SIZE=”1″][Quelle: theinquirer.net][/SIZE]Die diskussion kann hier fortgesetzt werden.

    • #664339
      klafert
      Teilnehmer

      so jetzt wirds ma spannend

      anscheinend will intel bei der nächsten grafikgeneration mit einsteigen
      und grafikkarten mit mehrkerngpu herstellen

      Chipset Graphics Engineering Group

      Intel’s Client Chipset Graphics Engineering group (CG GE) has the mission to be the preeminent provider of graphics cores which span both mobile and desktop mainstream platform segments. Our success in this mission over the past 8 years has resulted in placing Intel as the #1 graphics supplier for PC clients. Our vision is to extend this graphics leadership by way of pinpoint focus on developing best in class products in terms of performance/power, video quality, 3D performance, 2D Graphics and time to market. Success in this mission is dependent on a workforce with a broad range of technical expertise and individuals who enjoy being challenged. Employment opportunities in Graphics Engineering exist in all disciplines including front end HW/SW architecture, logic design, logic verification, FPGA emulation, structural design, kernel development, driver development, driver certification and verification.

      kann mal wer sagen wie man das mit quelle macht?

      intel

    • #664361
      go4hl80ve
      Teilnehmer

      wow – jetzt will intel auch noch richtig schnelle chips produzieren. mit den onboardchips kamen die ja quasi nebenbei auch platz nr. 1 der meistverkauften grafikchips.
      aber ne cpu/grafik-kombination in einem chip wäre insbesondere für notebooks und office pcs keine schlechte lösung (war oder ist auch bei intel in planung)

    • #668083
      steeve
      Teilnehmer

      Und wieder gibts neue news zu PCI-E 2.0:[SIZE=”3″]PCIe 2.0 vorgeführt[/SIZE]Sehr interessant ist es, dass PCI-E 2.0 abwärtskompatibel zum bestehenden PCI-E 1.1 wird.Kurz und knapp: jetztige karte kann man in diese slots reinstecken und ganz normal betreiben. :d:

    • #668105
      bluefisch200
      Teilnehmer

      steeve;208415 said:
      Und wieder gibts neue news zu PCI-E 2.0:

      [SIZE=”3″]PCIe 2.0 vorgeführt[/SIZE]

      Sehr interessant ist es, dass PCI-E 2.0 abwärtskompatibel zum bestehenden PCI-E 1.1 wird.
      Kurz und knapp: jetztige karte kann man in diese slots reinstecken und ganz normal betreiben. :d:

      Ich finds einfach ******, was soll das mit PCIe 1.1 laufen heutzutage super Grakas (8800 GTX), für was muss man den ach sooooo alten 1.1 standart erneuern. Also neues MB für neue Grakas, na toll.

    • #668115
      Käsetoast
      Teilnehmer

      steeve;208415 said:
      Sehr interessant ist es, dass PCI-E 2.0 abwärtskompatibel zum bestehenden PCI-E 1.1 wird.
      Kurz und knapp: jetztige karte kann man in diese slots reinstecken und ganz normal betreiben. :d:

      Was aber eigentlich schon “ewig” bekannt war, oder? 😉

      bluefisch200 said:
      Ich finds einfach ******, was soll das mit PCIe 1.1 laufen heutzutage super Grakas (8800 GTX), für was muss man den ach sooooo alten 1.1 standart erneuern. Also neues MB für neue Grakas, na toll.

      Soweit ich weiß besteht in beide Richtungen eine Kompatibilität…

      Mahlzeit
      Käsetoast

    • #668119
      kosh
      Teilnehmer

      Ich verstehe hier die meisten meiner Vorposter nicht ganz…Warum jammert ihr herum, von wegen upgraden und so? Niemand zwingt euch dazu. Solange euer System so läuft wie ihr das wollt, gibt’s eh keinen Grund zum Upgraden. Grafikkarten für den AGP gibt’s noch immer, und wer ein MoBo mit AGP hat, kann mit den dafür erhältlichen Karten auch aktuelle Spiele spielen (einen leistungsfähigen Prozzi vorausgesetzt). Und wer eine Geforce 8 sein Eigen nennt, hat sicher auch in 3 Jahren noch genug Power für Spiele. Und die läuft auch unter PCIe 2.0. Außerdem wird es noch lange Karten für PCIe 1.1 geben.Warum schauen hier einige nicht über den Tellerrand? PCIe 2.0 ist nicht exklusiv für den Grafikkartenport. Es geht darum, Erweiterungskarten mit höherer Bandbreite ansprechen zu können. So kann man auch bandbreitenlastige Aufgaben an die Erweiterungskarten transferieren. Könnte sich u.U. in Zukunft mit einem aufgeräumteren MoBo Layout bemerkbar machen bzw wird die CPU entlastet. Der normale Consumermarkt ist auch nicht Auslöser dieser Technologie, sondern nur Nutzniesser. Im Corporate Bereich wird wesentlich mehr mit Erweiterungskarten gearbeitet. Warum haben z.b. Raid Controllerkarten für 16 HDDs eine PCIe 8x Anbindung? Nebenbei bemerkt können so auch neue Feature implementiert werden, die PCIe 1.1 noch nicht hat (fragt mich nicht welche, ich habe mir die Dokumentation zu PCIe 2.0 nicht durchgelesen).Edit: Meinem Vorposter teilweise zustimm. Kompatibilität in beide Richtungen bezweifel ich allerdings. PCIe 1.1 Karte in PCIe 2.0 MoBo ja, PCIe 2.0 Karte in PCIe 1.1 MOBo glaube ich nicht. Da PCIe 2.0 anscheinend 200-300W liefern kann, werden die Kartenlayouts sicher angepasst.So long

    • #668185
      bluefisch200
      Teilnehmer

      bluefisch200 said:
      Ich finds einfach ******, was soll das mit PCIe 1.1 laufen heutzutage super Grakas (8800 GTX), für was muss man den ach sooooo alten 1.1 standart erneuern. Also neues MB für neue Grakas, na toll.

      Soweit ich weiß besteht in beide Richtungen eine Kompatibilität…MahlzeitKäsetoast

      Ich weis nur von der Kopatibilität von PCIe 2.0 zu älteren Grakas

Ansicht von 133 Antwort-Themen
  • Du musst angemeldet sein, um auf dieses Thema antworten zu können.
 
Zur Werkzeugleiste springen