Die ersten Benchmarks von ATIs R600?
Willkommen in der Mk-Community › Foren › Hardware › PC Komponenten › Grafikkarten › Die ersten Benchmarks von ATIs R600?
- Dieses Thema hat 197 Antworten sowie 34 Teilnehmer und wurde zuletzt vor vor 17 Jahren, 11 Monaten von
Clarinz aktualisiert.
-
AutorBeiträge
-
-
2. Januar 2007 um 18:01 Uhr #653133
braeter
TeilnehmerIch würd sagen, da wir keinen reinen R600 Thread haben, wird der hier zu dem.Das andere Topic is allgemein umfassend.Hier dann also nur über den R600. Was das Netz so hergibt und eure zukünftigen erfahrungen mit den monstern.
-
2. Januar 2007 um 18:01 Uhr #656483
Deimhal
TeilnehmerSry. Hab ich nicht gewusst.
Kann dann geschlossen werden, wenn kein Bedarf.:+ -
2. Januar 2007 um 18:01 Uhr #577000
-
3. Januar 2007 um 7:01 Uhr #641028
Neptun
Moderatorgute Idee Braeter
-
3. Januar 2007 um 9:01 Uhr #555610
Clarinz
TeilnehmerMich würde lieber mal interessieren wann die Dinger rauskommen 🙄
-
3. Januar 2007 um 18:01 Uhr #578325
DeriC
Teilnehmerso wie ich grad gehört hab evtl auch erst später, da schwerwiegende Fehler aufgetreten sind und die fertigen Karten nochmal überarbeitet werden müssen. Angeblich gibts die R600er dann erst zur diesjährigen Cebit. Die Benchmarks die aufgetaucht sind sollen angeblich auch nur gefaked sein, der Herausgeber weigert sich bspw aussagekräftige Screenshots der angeblich getätigten Benchmarks herauszugeben. Auf die Frage woher er schon nen r600 hat, gab es auch nur wenig glaubhafte Statements
-
3. Januar 2007 um 18:01 Uhr #578321
klafert
Teilnehmermitte februar glaube ich gelesen zu haben
-
3. Januar 2007 um 18:01 Uhr #578220
Deimhal
TeilnehmerGerüchte, Gerüchte, Gerüchte.
Es bleibt nur abwarten. -
3. Januar 2007 um 19:01 Uhr #578191
DeriC
Teilnehmeraha hat die Unvernunft doch wieder gesiegt, wolltest dich dem AufrüstWahn ja ne zeitlang nicht mehr hingeben, wusste aber dass du das nicht einhalten wirst 😉
Cebit ist vom 15.-21. März
-
3. Januar 2007 um 19:01 Uhr #578188
braeter
TeilnehmerDie sollen sich zeit lassen. Meine 1950Pro is nach erscheinen noch weniger wert, und die sind noch nichtmal alt…..März sollts mindeste sein….Kentsfield und R600 Träum Träum …. so n prolliges Sys das jeder vernunft trotzt :DWie werden die R600 jetzt heissen?Wirds da mit X2900 und X2600 weitergehn (Da reagiert google mit ergebnissen drauf, aber was festes find ich nicht.)Wann is die Cebit?
-
3. Januar 2007 um 20:01 Uhr #578125
braeter
TeilnehmerJa März wär mir grad recht :d:…und ich hab nichts angekündigt. Ich träume nur ;)Sind bisher nur die Tests aufgetaucht? (Sry bin Netzmäsig mehr schlecht wie recht unterwegs.)Ich mein THG hatte lange vor Release des C2D eine solche CPU am start. (Mir ziehts die backen wieder hoch, jetzt wo ich dran denke wie sich hingestellt haben bzw was für n akt es war die CPU zu ergattern :lol:)
-
13. Januar 2007 um 2:01 Uhr #659691
braeter
TeilnehmerDie Karten werden wie vermutet mit dem Namen X2xxx auf dem merkt erscheinen, wenns nach Hartware.net geht. Die neuen Treiber haben deren unterstützung schon drin. Interessant für die Linuxuser die sich immer über ATI`s Treiberunterstützung aufgeregt haben. Es gibt jetzt schon n Linuxtreiber.http://www.hartware.de/news_41322.htmlStromverbrauch wird wohl doch deutlich unter 250Watt liegen wenns nach Gamestar / Techpower.up geht.http://www.gamestar.de/news/pc/hardware/ati/1464811/ati.htmlIch muss mich ranmachen und ordentlich Kartons verscherbeln 😀
-
13. Januar 2007 um 2:01 Uhr #659694
Börni
TeilnehmerDeimhal;194886 said:
Wer will dann noch eine 8800GTX/GTS haben?:Dich
-
13. Januar 2007 um 9:01 Uhr #659702
Deimhal
TeilnehmerEs sollen angeblich in Juni die R610 und R630 Karten kommen. Das wird die abgespeckte Version des R600 Chips sein.
-
13. Januar 2007 um 18:01 Uhr #659811
klafert
Teilnehmerder gamestar artikel ist älter
der name war wohl klar die nächste generation wird auch wohl stat ati amd radeon X3XXX heißen ^^
naja ich warte bis zur veröffentlichung
-
20. Januar 2007 um 13:01 Uhr #661115
steeve
TeilnehmerSo bin wieder auf einige infos über R600 gestoßen. AMD hat vier verschiedene PCB-layouts gefertigt für verschiedene modelle. Bis jetzt ist bekannt, dass es drei karten geben wird: X2200, X2400, X2800.
Die stärkste karte wird X2800XTX sein und ist 30cm lang. Sie wird wahrscheinlich zwei 6-pin-anschlüsse haben wie die 8800GTX. Dann:
– 1GB GDDR4
– 512 Bit speicheranbindung
– 2.4GHz speichertakt [1.2GHz real]
– 153.6 GB/s speicherbandbreite [8800GTX – 86.4 GB/s]Dann wird es eine X2800XT geben. Die ist fast die gleiche wie die XTX. Sie wird viel kompakter sein und wird 22cm lang sein. Dann:
– die taktraten werden nur bisschen niedriger sein
– 512MB GDDR4Dann wird es auch eine X2800XL geben. Die PCB wird gleich lang sein, aber wird anderes layout haben, nicht das gleiche wie XT-variante. Die taktraten werden durchschnittlich sein. Diese karte wird auch an die OEMs geliefert.
Und die X2800GT wird auch nicht fehlen. Das werden dann wie immer die karten, bei denen der „halb-kaputte“ XT-chip verbaut wird. Auch da wird eine andere PCB benutzt. Und bei der karte wird GDDR3 verbaut und nicht GDDR4 wie bei den anderen.
Dazu wurde noch gesagt, dass die karten, die für den professionellen markt hergestellt werden [FireGL], mit 2GB VRAM speicher bestückt werden.
[SIZE=“1″][Quelle: theinquirer.net][/SIZE]
-
22. Januar 2007 um 14:01 Uhr #661373
steeve
TeilnehmerEs gibt wieder mal interne news:R600 hat ein neues stepping [vr-zone.com] bekommen [A15] mit dem man 1GHz taktrate für die GPU erreichen kann, altes stepping was A12.Die karte X2800 kommt am 8. märz raus, also ungefähr in einem monat und 1-2 wochen.Irgendwo sommer-herbst kommt dann der refreshchip R680 mit der bezeichnung X2850. Bei der karte wird die GPU noch höher getaktet als 1GHz.
-
22. Januar 2007 um 15:01 Uhr #661383
steeve
TeilnehmerMich interessiert der stromverbrauch. Und wie die mittelklassekarten aussehen werden [leistung, stromverbrauch]. Aber wenn man sich letzte zwei posts von mir anschaut, hat man ein sehr sicheres gefühl, dass diese runde wieder an ATI geht.Abwarten :kaffee:Ich persönlich werde aber höchstwahrscheinlich jetztige generation überspringen, da die nächste generation absolut anders aussehen wird. Es wird keine ultrastarke GPUs mehr geben, sondern eine und je nach leistungklasse wird es unterschiede in der zahl dieser GPUs geben [G90 und R700].Bei AMD war die rede von 1,4,8,16 kerne für einsteiger [z.b 1 kern für surfrechner], mittelklasse bis untere oberklasse [4 bzw 8 kerne für gelegnheitsspieler und spieler die nicht viel ausgeben wollen] und die oberklasse [für die hardcorespieler sozusagen].
-
22. Januar 2007 um 15:01 Uhr #661379
klafert
Teilnehmeri wanna see pics
der kerl hat meine wünsche erfasst^^
8. märz ist ja noch relativ passabel wenn schon von april die rede war^^
aber sehr interressant
-
22. Januar 2007 um 16:01 Uhr #661387
Budsh
TeilnehmerIch warte auch schon sehr gespannt auf ATI’s R600 und deren Preis!
Aber auch eine mögliche 8600GT oder Ultra wäre sehr interessant für mich..!Ich humpel derzeit wieder mit ner 6600GT durch’s leben… =)
Bleibt nur: warten…warten…warten… *schnarch*
-
22. Januar 2007 um 16:01 Uhr #661397
Patty
Teilnehmerdie benchmarks sehen schonmal nicht schlecht aus, die oben genannten daten klingen vielversprechend! 🙂
leistung/stromverbrauch würden mich auch sehr interessieren. -
22. Januar 2007 um 17:01 Uhr #661402
vamp
Teilnehmersteeve;199373 said:
So bin wieder auf einige infos über R600 gestoßen. AMD hat vier verschiedene PCB-layouts gefertigt für verschiedene modelle. Bis jetzt ist bekannt, dass es drei karten geben wird: X2200, X2400, X2800.Die stärkste karte wird X2800XTX sein und ist 30cm lang. Sie wird wahrscheinlich zwei 6-pin-anschlüsse haben wie die 8800GTX. Dann:
– 1GB GDDR4
– 512 Bit speicheranbindung
– 2.4GHz speichertakt [1.2GHz real]
– 153.6 GB/s speicherbandbreite [8800GTX – 86.4 GB/s]Dann wird es eine X2800XT geben. Die ist fast die gleiche wie die XTX. Sie wird viel kompakter sein und wird 22cm lang sein. Dann:
– die taktraten werden nur bisschen niedriger sein
– 512MB GDDR4Dann wird es auch eine X2800XL geben. Die PCB wird gleich lang sein, aber wird anderes layout haben, nicht das gleiche wie XT-variante. Die taktraten werden durchschnittlich sein. Diese karte wird auch an die OEMs geliefert.
Und die X2800GT wird auch nicht fehlen. Das werden dann wie immer die karten, bei denen der „halb-kaputte“ XT-chip verbaut wird. Auch da wird eine andere PCB benutzt. Und bei der karte wird GDDR3 verbaut und nicht GDDR4 wie bei den anderen.
Dazu wurde noch gesagt, dass die karten, die für den professionellen markt hergestellt werden [FireGL], mit 2GB VRAM speicher bestückt werden.
[SIZE=“1″][Quelle: theinquirer.net][/SIZE]
Die genannte Werte klingen viel zu gut um wahr zu sein
-
22. Januar 2007 um 17:01 Uhr #661403
r00t
Teilnehmerfür fast das doppelte an speicherbandbreite sind die benchmarks aber schon ernüchternd!aber gut wer weis schon ob die benchmarks 100%ig richtig sind!
-
22. Januar 2007 um 17:01 Uhr #661405
L!B3RTY
Teilnehmeraber gut wer weis schon ob die benchmarks 100%ig richtig sind!
vllt. so ähnlich wie bei den ersten C2D Benches, wer weiss…..
Und in Bezug auf die Speicherbandbriete, dass hängt dann ganz davon ab wie gut die Treiber optimiert sind und welche Anwendungen abgearbeitet werden….
-
22. Januar 2007 um 18:01 Uhr #661420
klafert
Teilnehmerdie bandbreite kann ja auch heißen das bei 100 gb/s maximun erreicht ist bei den benches und 53gb ungenutzt bleiben….
die c2d benchmarks vom idf waren auch richtig….
naja für mich wäre eine 2800 xt spannend …kommt voll auf den mehrpreis für den doppelten speicher an
-
22. Januar 2007 um 20:01 Uhr #661452
vamp
TeilnehmerSpicy_Ice;200019 said:
HalloDas sieht ja wirklich gut aus bis jetz,aber erst mal abwarten was kommt.Was mich allerdings wundert.Ein ATI Crossfire Gespann ist in machnen Benches schneller wie ne 8800GTX.Das find ich schon lustig.Will nicht wissen wie die 2800XTX im Crossfiremodus abgeht^^.
Gruß Spicy
😮 wieso ist das lustig wenn 2 GK schneller sind als 1 ? Ausserdem sind die Treiber für die 8te Reihe auch alles andere als gut. Desweiteren setzt Nvidia diesmal nicht auf die „simple“ Technik von gestern an, sondern auf Shader 4.0 und das kommt doch erst 😉
-
22. Januar 2007 um 20:01 Uhr #661441
Spicy_Ice
TeilnehmerHallo
Das sieht ja wirklich gut aus bis jetz,aber erst mal abwarten was kommt.Was mich allerdings wundert.Ein ATI Crossfire Gespann ist in machnen Benches schneller wie ne 8800GTX.Das find ich schon lustig.Will nicht wissen wie die 2800XTX im Crossfiremodus abgeht^^.
Gruß Spicy
-
22. Januar 2007 um 21:01 Uhr #661456
Spicy_Ice
TeilnehmerHallo
Ich weiss nicht was mit den 8800 Treibern sein soll ^^.Ich fahre solche Sachen leider nicht auf meinem System.Und eine sagenhaft neue Karte wird von 2 älterern in nem Benchmark versägt wundert mich halt schon.Da ist ja ältere Technik drin.Naja egal
Irgendwo gabs mal nen Benchmark von einem Spiel,da war sogar eine X1950 schneller als die GTX.Das hatte mich echt gewundert,aber was solls.Mir schnuppe.Solangs ich gescheit damit spielen kann.kann se noch so schnell sein ^^
Gruß SPicy
-
22. Januar 2007 um 21:01 Uhr #661468
klafert
Teilnehmerder g80 ist wegen der gpu so schnell unified shader und einige viele neuerungen
in manchen benchmarks ist halt ein cf verbund noch etwas besser ausgenutzt als eine 8800 gtx…
-
22. Januar 2007 um 21:01 Uhr #661461
vamp
TeilnehmerNa du denkst dir aber Sachen aus, 1950 schneller als 8800GTX 🙄
Und die X1950XTX ist gar nicht alt. August oder September ist der Monat in dem die Karte erschienen ist und im Vergleich zu 8 Dezember (8800) sind es gerade mal 2-3 Monate 😉
-
22. Januar 2007 um 21:01 Uhr #661469
vamp
TeilnehmerJa, und das liegt eben an den Treibern. Die X19XXX Serie ist ja schon länger auf dem Markt.
-
22. Januar 2007 um 21:01 Uhr #661465
vamp
TeilnehmerDie 8800GTX/GTS ist nicht des Speichers wegen so schnell 😉
-
22. Januar 2007 um 21:01 Uhr #661464
Spicy_Ice
TeilnehmerHallo Vamp
Ok da hab ich mich geirrt habe die Seite gefunden.Da ist die X1950 im CF verbund ^^,war doch ned einzelnUnd alt im dem Sinne das die Technik die verbaut ist älter ist wie die in der GTX.Obwohl der Speicher ja besser ist wie bei der GTX ^^
Isch werde warten und Tee trinken
Gruß Spicy
-
23. Januar 2007 um 17:01 Uhr #661560
klafert
Teilnehmerich mein welches spiel braucht schon eine bandbreite von 153gb/s???
das ist wahnsinnnaja wie eine strucktur ausgenutzt wird liegt schon am treiber für das jeweilige spiel
ich denke das bei der g80 auch noch so min 10% mehrleistung drin sind
das wird beim r600 auch so sein -
23. Januar 2007 um 21:01 Uhr #661615
braeter
TeilnehmerMärz/Cebit is doch bekannt gewesen?Is mir grad recht 😀
-
23. Januar 2007 um 21:01 Uhr #661613
L!B3RTY
Teilnehmerdie c2d benchmarks vom idf waren auch richtig….
die aus den Zeitschriften waren aber anders als die vom idf, so war das gemeint…
-
23. Januar 2007 um 21:01 Uhr #661612
vamp
Teilnehmerhttp://www.computerbase.de/news/hardware/grafikkarten/ati/2007/januar/atis_radeon_x2k_8_maerz/
Wie zu erwarten war, kommt die neue GK wesentlich später raus
-
24. Januar 2007 um 23:01 Uhr #661830
braeter
Teilnehmersteeve;200464 said:
Auf dem ersten blick, vielleicht weil die qualität der bilder nicht so gut ist, merkt man die unterschiede nicht. Aber wenn man sich die bilder bisschen besser anschaut, merkt man schon, dass das obere bild besser aussieht.Beim ersten Bild muss ich der versuchung wiederstehn meinem Moni die Zunge reinzuschieben. 😀
Da schreibst du von „bisschen“.
Das is n unterschied wie tag und nacht in meinen Augen.
-
24. Januar 2007 um 23:01 Uhr #661772
steeve
TeilnehmerIm netz findet man mittlerweile auch ein bild einer demo, die zeigt was R600 kann:R600 – DX10
[SIZE=“1″][Bildquelle: pcgh.de][/SIZE]X1800/X1900 – DX9
[SIZE=“1″][Bildquelle: pcgh.de][/SIZE]Auf dem ersten blick, vielleicht weil die qualität der bilder nicht so gut ist, merkt man die unterschiede nicht. Aber wenn man sich die bilder bisschen besser anschaut, merkt man schon, dass das obere bild besser aussieht.
-
24. Januar 2007 um 23:01 Uhr #661832
Hoäst
Teilnehmerbraeter;195184 said:
.
Kentsfield und R600 Träum Träum …. so n prolliges Sys das jeder vernunft trotzt 😀Aber jeder sich die Finger nach leckt. Sabber Sabber auch haben will^^
-
25. Januar 2007 um 0:01 Uhr #661837
steeve
Teilnehmerbraeter said:
steeve said:
Auf dem ersten blick, vielleicht weil die qualität der bilder nicht so gut ist, merkt man die unterschiede nicht. Aber wenn man sich die bilder bisschen besser anschaut, merkt man schon, dass das obere bild besser aussieht.Beim ersten Bild muss ich der versuchung wiederstehn meinem Moni die Zunge reinzuschieben. :DDa schreibst du von „bisschen“.Das is n unterschied wie tag und nacht in meinen Augen.
Ja, ich meinte aber bisschen besser das bild anschauen und nicht, dass das bild bisschen besser aussieht. ;)Das bild mit dem DX10-effekt sieht einfach klasse aus. Das bild hat mich sogar mehr umgehaut als die demo von diesem modell die vom G80 dargestellt wurde.Jetzt bin ich noch mehr auf ein leistungvergleich R600 vs G80 gespannt.Nur noch ein monat und einige tage :kaffee:
-
25. Januar 2007 um 0:01 Uhr #661838
braeter
TeilnehmerJa is mir schon klar.Schau dir die Lippen und das glänzen an.Das untere Pic ist wohl mit ner anderen Helligkeitseinstellung gemacht worden, würde aber nie an den Glanz und das Feine der R600 rankommen.Das Detail is deutlich besser. Das Muttermal is viel natürlicher.Schade das auf unterem Bild der Kragen nicht zu sehn ist. Das würds viel deutlicher machen.
-
25. Januar 2007 um 0:01 Uhr #661839
steeve
Teilnehmerbraeter said:
Das Detail is deutlich besser. Das Muttermal is viel natürlicher.Auf jeden fall. Ich hoffe was die grafik angeht, dass Crysis erst der anfang ist. 😉
-
25. Januar 2007 um 14:01 Uhr #661875
Thomas
Teilnehmerbraeter;200486 said:
Schade das auf unterem Bild der Kragen nicht zu sehn ist. Das würds viel deutlicher machen.
Der Kragen?
Ich hät nichts dagegen, wenn das Bild erst ’ne ganze Ecke südlicher enden würde… -
25. Januar 2007 um 17:01 Uhr #661885
steeve
Teilnehmerklafert said:
hallo das obere grenzt fast an fotorealismus! ein bisschen besser tztztzNochmal. Ich meinte bisschen besser das obere bild anschauen und nicht, dass das bild bisschen besser aussieht. 😉
Käsetoast said:
Ich nehme einfach mal an, dort wurde die „Radeon Frau“ aus der DX9-Demo mit einer neuen aus einer neuen DX10-Demo verglichen. Über die Mehrleistung des R600 würde das nicht viel Aussagen…Sie heißt Ruby. Keiner hat von der leistung gesprochen, auf den beiden bildern wird nur die bildqualität verglichen bzw DX9 -> DX10 effekt.
-
25. Januar 2007 um 17:01 Uhr #661884
Käsetoast
TeilnehmerHalte die Bilder doch für arg fragwürdig und würde sogar sagen, dass die Darstellung der X1900er Karten hier doch absichtlich zurückgedrosselt wurde. Außerdem zeigen sie doch gar nicht dasselbe, oder? Zum Einen fehlt unten der Federkragen und auf dem angeblichem DX9 bild, hat die Frau links neben der Nase noch zwei kleine Muttermale, die sich im DX10 Bild nicht mehr wiederfinden…
Ich nehme einfach mal an, dort wurde die „Radeon Frau“ aus der DX9-Demo mit einer neuen aus einer neuen DX10-Demo verglichen. Über die Mehrleistung des R600 würde das nicht viel Aussagen…
Mahlzeit
Käsetoast -
25. Januar 2007 um 17:01 Uhr #661883
klafert
Teilnehmergeht hier um die karte und die grafik die sie erzeugt
net um welche tuse es sich handelt ….
hallo das obere grenzt fast an fotorealismus! ein bisschen besser tztztz
-
25. Januar 2007 um 17:01 Uhr #661890
Käsetoast
Teilnehmersteeve;200558 said:
Käsetoast said:
Ich nehme einfach mal an, dort wurde die „Radeon Frau“ aus der DX9-Demo mit einer neuen aus einer neuen DX10-Demo verglichen. Über die Mehrleistung des R600 würde das nicht viel Aussagen…Sie heißt Ruby. Keiner hat von der leistung gesprochen, auf den beiden bildern wird nur die bildqualität verglichen bzw DX9 -> DX10 effekt.
Vielleicht schlecht ausgedrückt – du sprachst davon, dass das Bild zeigt, was der R600 kann. Der Vergleich ist aber ziemlich unsinnig, da beide Bilder offensichtlich zwei verschiedene Demos zeigen (eben einmal die schon bekannte Demo und eben einmal eine neue, die zum Präsentieren der neuen Serie dient). Somit kann man also nicht sagen, inwiefern der R600 mit seinen DX10 Effekten mehr zu leisten im Stande ist -> Mehrleistung…
Bevor man sich nun ein Urteil über die Vorzüge der neuen Karte erlaubt, sollte man vielleicht erstmal auf Bilder warten, die auch dasselbe zeigen… 😉
Mahlzeit
Käsetoast -
25. Januar 2007 um 20:01 Uhr #661933
klafert
Teilnehmerdoch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00
die dx9 effekte werden auch genutzt beim zweiten bild…
sie verblassen nur im vergleich zu dx10 und sm4
das bild zeigt auch was der r600 drauf hat und zwar bildqualitättechnisch
es steht auch nirgendwo was von mehrleistung mit fps…
was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehen
allerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen können
hmm grad ma gefunden ob man das glauben soll ka…
-
25. Januar 2007 um 20:01 Uhr #661943
braeter
Teilnehmerhmm dann wär n neues Case fällig… :DDa kann ich n Mod/Umbau ja gleich einstellen…
-
25. Januar 2007 um 20:01 Uhr #661939
Deimhal
TeilnehmerHabe grad bei PCGH gelesen, dass das Topmodel eine Länge von 34cm haben soll. 😡
-
25. Januar 2007 um 20:01 Uhr #661948
Börni
Teilnehmerbraeter;200633 said:
hmm dann wär n neues Case fällig… 😀
Da kann ich n Mod/Umbau ja gleich einstellen…nene, da warte ich lieber auf 8900GTX
-
25. Januar 2007 um 20:01 Uhr #661941
Börni
Teilnehmertja, das würde gerade einmal (2cm restplatz) in meinen SERVERTOWER addtronics CL7220A reinpassen! in dem selbst ein E-ATX board platz hat(www.addtronics.com)
-
25. Januar 2007 um 20:01 Uhr #661938
Börni
Teilnehmerdas ist ja das beste für midi und barebone gehäuse, ich glaub die 8800 is kürzer, oder?
-
25. Januar 2007 um 20:01 Uhr #661944
Käsetoast
Teilnehmerklafert;200620 said:
doch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00die dx9 effekte werden auch genutzt beim zweiten bild…sie verblassen nur im vergleich zu dx10 und sm4das bild zeigt auch was der r600 drauf hat und zwar bildqualitättechnisches steht auch nirgendwo was von mehrleistung mit fps…was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehenallerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen könnenDas Problem an dem Ganzen ist nur, dass es (ziemlich offensichtlich) nicht dieselbe Demo zeigt, weshalb man das nicht vergleichen kann. Das Einzige, das man sicher sagen kann ist, dass die neue R600er Demo sehr schick aussieht, doch wie sie sich im Fallback Modus schlägt, darüber lässt sich höchstens spekulieren. Wäre genau dasselbe, als wenn ich sagen würde: Boah guck‘ mal hier: Das kann der R600!
(http://www.computerbase.de/bild/news/15645/7/)Und hier nun das DirectX9 Bild:
(http://www.computerbase.de/bild/news/10826/4/)Sieht man doch schön wie geil der neue R600 und DirectX10 ist, nicht war? :ironie:Von fps habe ich übrigens auch gar nicht geredet… :tongue:EDIT:Habe jetzt auch mal den Artikel bei der PCGH gelesen und meine Augen haben sich nicht getäuscht – das DX9 Bild zeigt tatsächlich die alte Ruby Demo…MahlzeitKäsetoast
-
25. Januar 2007 um 20:01 Uhr #661950
vamp
Teilnehmerklafert;200620 said:
….
hmm grad ma gefunden ob man das glauben soll ka…
Sieht ja wie G80 aus, mit RadialLüfter
Börni;200638 said:
braeter;200633 said:
hmm dann wär n neues Case fällig… 😀
Da kann ich n Mod/Umbau ja gleich einstellen…nene, da warte ich lieber auf 8900GTX
Besser auf die 9900GTX warten 🙄 Mal im ernst, die Argumentation kann man zu jeden Zeitpunkt und auf fast jedes Hardwareteil übertragen 😉
-
25. Januar 2007 um 21:01 Uhr #661959
Deimhal
TeilnehmerGenau, mit einem CEE Stecker.
-
25. Januar 2007 um 21:01 Uhr #661955
Börni
Teilnehmervielleicht könnte man Computer jetz auf Wechsel oder Drehstrombasis bauen??
-
25. Januar 2007 um 21:01 Uhr #661969
klafert
Teilnehmerwer meint die 8800gtx ist sparsamer als die ati
dann hat man sich getäuscht also 30w….
ich habe auch gesagt hobbys müssen nicht vernünftig sein
(wer auf strom achtet darf sich beide nicht kaufen…)will man darauf hinaus diese mal sli fähig zu machen sollte man nen nforce 5 chip mb haben^^
und über den stromverbrauch eines mainboards dieser klasse im gegensatz zum amd rx580 wollen wir nicht reden
zur länge GENIAL
hinten heiße luft raus und vorne kann er sich die kalte luft holn^^
pc auf wechselstrom ist auch ent schlecht
doppelte taktraten^^
käsetoast
doch klar sieht man da wie die bildquali sich mit dx10 und sm 4 verbessert -
25. Januar 2007 um 21:01 Uhr #661952
Spicy_Ice
TeilnehmerHallo
Die Bilder die Käsetoast gezeigt hat ,zeigen auch viel Glanz.SIe wollen es so realistisch wie möglich machen.Aber meine Herren.Wer von euch hat den nen pieko bello Dschungel schonmal gesehen.Wo glänzt da so ein Blatt wie ein Spiegel.Wenn so realistisch dann aber bitte mit Staub auf den Blätter ^^Gruß Spicy
-
25. Januar 2007 um 21:01 Uhr #661953
Poweruser
Teilnehmer…und da haben sich alle augeregt, als mit der Geforce fx5800 zum ersten mal ein richter Föhn ins Case kam 😡
Ich finde die prognistizierten Stromverbrauchswerte allerdings auch schon ziehmlich heftig – Leistung hin oder her, da muss denen langsam mal was einfallen. Intel hat den NetburstP4 ja auch eingestellt, als der Stromhunger in keiner vernünftigen Relation zur erzielten Mehrleistung stand.
-
25. Januar 2007 um 21:01 Uhr #661963
steeve
TeilnehmerPoweruser said:
Intel hat den NetburstP4 ja auch eingestellt, als der Stromhunger in keiner vernünftigen Relation zur erzielten Mehrleistung stand.Mit dem jetztigen quadcore-prozessor von Intel [z.b. Q6600] kommt man wieder in diese bereiche wo der alte Prescott war [bei Intel: quadcore=2xdualcore].Und stromverbrauch bei der X2800er wird sich im bereich zwischen 200W-230W bewegen. Für die ultra-hardcore-gamer ist das eigentlich unwichtig, da die jetztige 8800GTX auch bis zu 200W frisst und wenn die X2800 220W verbraucht, dann sind die 20W auch nicht die welt.Ich werde auf jeden fall, wie schon einige male erwähnt, diese generation überspringen und die übernächste abwarten, die auf multi-GPU basiert. Und natürlich da werde ich erst zugreifen, wenn die karten wieder unter 100W verbrauchen.
[SIZE=“1″][Bildquelle: computerbase.de][/SIZE]Das bild stellt die X2800 in der ausführung dar, die für workstations hergestellt wird, sie wird 30cm lang sein [8800GTX = 28cm]. Die X2800 für desktopbereich wird andere kühllösung haben und wird 23cm lang sein.Also bevor infos verbreitet werden, richtig informieren und nachprüfen, falls möglich. 😉
-
25. Januar 2007 um 21:01 Uhr #661956
Poweruser
TeilnehmerIm Sommer wirds sicherlich lustig mit dem R600 an Board 😉
@Drehstrom: Ca 4500W~ kommen aus der Steckdose… Allerdings kann man dann nurnoch bei geöffnetem Fenster arbeiten 😉
-
25. Januar 2007 um 22:01 Uhr #661985
klafert
Teilnehmerdoch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00
die dx9 effekte werden auch genutzt beim zweiten bild…
sie verblassen nur im vergleich zu dx10 und sm4
das bild zeigt auch was der r600 drauf hat und zwar bildqualitättechnisch
es steht auch nirgendwo was von mehrleistung mit fps…
was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehen
allerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen können
-
25. Januar 2007 um 22:01 Uhr #661991
steeve
Teilnehmerklafert said:
doch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00die dx9 effekte werden auch genutzt beim zweiten bild…sie verblassen nur im vergleich zu dx10 und sm4das bild zeigt auch was der r600 drauf hat und zwar bildqualitättechnisches steht auch nirgendwo was von mehrleistung mit fps…was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehenallerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen könnenHabs ich so einen post schon mal gelesen oder habe ich nur so ein gefühl? : / 😀 Aber die aussage stimmt so nicht ganz …
-
25. Januar 2007 um 22:01 Uhr #661972
Deimhal
Teilnehmersteeve;200659 said:
Also bevor infos verbreitet werden, richtig informieren und nachprüfen, falls möglich. 😉
Also, wenn du meinen Post meinst, bitte http://www.vr-zone.com
Von der selben Seite wie dein Foto. -
25. Januar 2007 um 22:01 Uhr #661975
steeve
TeilnehmerDeimhal said:
Also, wenn du meinen Post meinst, bitte http://www.vr-zone.comVon der selben Seite wie dein Foto.Ich meinte nicht deinen post. Ich habs nur gesagt, welche graka das genau ist, weil hier wurde nur das bild gepostet und daüber stand R600, also falsch, weil das die workstation version ist. Das bild habe ich aber noch vor mehreren wochen irgendwo im netz gefunden mit den wenigen infos die ich in einem der letzten posts bereits gepostet habe.
-
25. Januar 2007 um 22:01 Uhr #661977
Deimhal
TeilnehmerAch so. Hab wohl falsch verstanden. Sry. :+
-
25. Januar 2007 um 23:01 Uhr #661997
Käsetoast
Teilnehmerklafert;200665 said:
käsetoast
doch klar sieht man da wie die bildquali sich mit dx10 und sm 4 verbessertWie du das ohne DX9 Vergleichsbild feststellen willst ist mir schleierhaft… 😀
klafert said:
doch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00die dx9 effekte werden auch genutzt beim zweiten bild…
sie verblassen nur im vergleich zu dx10 und sm4
[…]
was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehen
allerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen können
Ich glaube du überschätzt DX10 da etwas… 😉
Was wir auf dem neuem Demo-Bild zu sehen bekommen ist hauptsächlich Kunst at its Best: Ein schöner Mesh mit hervorragenden Texturen. Was man da von DX10 sieht wird hauptsächlich das tolle HDR sowie je nachdem ein paar Vertex Progrämmchen, die die Federn sich bewegen lassen (was man auf dem Bild natürlich nicht sieht) sein…„Die Ruby auch auf einer DirectX9-Karte zu sehen“ ist kein Problem: Mesh, Color-Map, Specular-Map, Env-Map (falls vorhanden) und auch Normal bzw. Relief-Map wird man 1:1 übernehmen können. Auszutauschen wäre je nachdem die Art des Normal / Parallax / Relief Shaders (je nachdem was da genutzt wird) und je nach Bedarf auch bei den restlichen Shader-Routinen. Nicht ganz so gute Resultate wird man wohl bei er Beleuchtung und eben der sich bewegenden Federn (falls sie das wirklich tun) erhalten – ansonsten gibt es mit dem auf dem Bild gezeigtem Inhalt auch auf DX9 Karten keinerlei Probleme – die üblichen Fallback Methoden halt wie sie bei Crysis kommen werden und wie man sie bisher ja auch schon oft genug zwischen SM3, SM2 und SM1 gesehen hat…
Mahlzeit
Käsetoast -
26. Januar 2007 um 7:01 Uhr #621543
Budsh
Teilnehmerda werde ich erst zugreifen, wenn die karten wieder unter 100W verbrauchen….
…hab hier noch ne 9500er rum liegen, kannst gerne haben wenn du willst 🙂 ne war nen schertz…
Glaub aber ehrlich gesagt auch nicht drann, dass die nächste bzw. übernächste Gen Grakas weniger als 100W verbraucht.
Wäre aber löblich! Back to the roots!!!! =) -
26. Januar 2007 um 7:01 Uhr #621541
vamp
Teilnehmersteeve;200659 said:
…
Ich werde auf jeden fall, wie schon einige male erwähnt, diese generation überspringen und die übernächste abwarten, die auf multi-GPU basiert. Und natürlich da werde ich erst zugreifen, wenn die karten wieder unter 100W verbrauchen….:-k 😡 😀
-
26. Januar 2007 um 12:01 Uhr #659804
Käsetoast
TeilnehmerNun ja – zumindest ATI hat ja gesagt in Zukunft auf den Stromverbrauch deutlich mehr Wert zu legen als jetzt und mit dem mehrkernigem Aufbau sollten ja zumindest im Idle schonmal geringe Leistungsaufnahmen garantiert sein… 😉
Ansonsten finde ich die 100 Watt-Grenze gar nicht sooo unrealistisch, wenn der Verbrauch in Zukunft denn auch tatsächlich zurückgeht und man nicht unbedingt die supertollste XTX / GTX Karte braucht, sondern auch mit dem gehobenem Mittelfeld zufrieden ist…
Mahlzeit
Käsetoast -
26. Januar 2007 um 13:01 Uhr #636143
klafert
Teilnehmeres komtm ja noch 45 nm also den stromverbrauch bekommen die auch noch in den griff
-
26. Januar 2007 um 14:01 Uhr #649106
vamp
TeilnehmerDie GPU der G80 hat doch mehr als das doppelte Anzahl an Transistoren als die beiden Kerne der C2D zusammen. Dazu kommt noch der Speicher und die Spannungswandler.
Also denk ich mal kann man die Werte der CPU nicht mit der der GK vergleichen 😉ps: Desweiteren ist die Grafikleistung/Watt bei 8800GTX nicht schlechter ist als die der 1950XTX oder 7900GTX.
-
26. Januar 2007 um 18:01 Uhr #662035
steeve
Teilnehmervamp said:
steeve said:
…Ich werde auf jeden fall, wie schon einige male erwähnt, diese generation überspringen und die übernächste abwarten, die auf multi-GPU basiert. Und natürlich da werde ich erst zugreifen, wenn die karten wieder unter 100W verbrauchen….:-k 😡 😀
😮 😀
Budsh said:
ich werde erst zugreifen, wenn die karten wieder unter 100W verbrauchen….
…hab hier noch ne 9500er rum liegen, kannst gerne haben wenn du willst 🙂 ne war nen schertz…
Aber mit moderater leistung. ^^Grafikkarten mit der leistung einer X1950XT [die verbraucht bisschen über 100W] oder stärker, die weniger als 100W verbrauchen, sind schon machbar. Deswegen muss man, zum glück, nicht zu einer 9500 zugreifen. 😉 ^^
-
26. Januar 2007 um 23:01 Uhr #662080
klafert
Teilnehmervamp und du denkst jetzt das die ati karte mit 20 w mehrverbraucht und laut den benches 20% mehrleistung net auf ein gleiches watt /fps verhältnis kommt?
-
30. Januar 2007 um 20:01 Uhr #662819
Deimhal
Teilnehmerhttp://www.pcgameshardware.de/?article_id=551761Ein Foto von einem R600 Kühler. Ein sehr langes Stück.
-
30. Januar 2007 um 20:01 Uhr #662821
steeve
TeilnehmerDeimhal said:
http://www.pcgameshardware.de/?article_id=551761
Ein Foto von einem R600 Kühler. Ein sehr langes Stück.
[SIZE=“1″][Bildquelle: pcgameshardware.de][/SIZE]Die komplette karte wird schon echt lang sein, wenn das bild stimmt. Aber man kann schon sehen [unten-links in der ecke], dass die karte an sich [PCB] deutlich kürzer ist.
-
31. Januar 2007 um 6:01 Uhr #662898
klafert
Teilnehmerich denk ma das da wo sonst der lüfter gesessen hat aufm pcb sind nun teile die gekühlt werden müssen (spawas)
-
4. Februar 2007 um 9:02 Uhr #663619
Deimhal
TeilnehmerEin verschwommenes Foto von der R600 Karte.
[[SIZE=“1″]quelle: http://www.pcgameshardware.de[/SIZE%5D%5DDas man so viel spekulieren muss.:roll: Es kommt so, nein es kommt so.
Und dann ein Foto vom Kühler und dann eins, welches verschwommen ist.Bring die verdammte Karte raus.x(
😀
-
4. Februar 2007 um 11:02 Uhr #663625
klafert
Teilnehmerna ist doch ganz klare taktik
die ham die karte und bringen für jedes foto das die bringen neue leute auf die site die sich das anschaun und machen damit durch werbung geld…
allerdings kann man schon was erkennen
heatpipe kühlung die bis auf den lüfter ger gforce ähnelt
dual slot2 mal 6er pci e anschluss
-
5. Februar 2007 um 8:02 Uhr #663817
Budsh
TeilnehmerSorry aber ich erkenn da irgendwie gar nischt…
Ich finde diese „Heckspoiler“ -Variante des neuen Kühlers für den R600 aber nicht wirklich klasse, ihr?
-
5. Februar 2007 um 13:02 Uhr #663845
klafert
Teilnehmerder spoiler kann glaub ich an der anderen seite festgemacht werden (frag mich net wie^^) zumindest hab ich das ma wo gelesen
-
5. Februar 2007 um 14:02 Uhr #663850
-666-
Teilnehmerist ja ein gewaltiges Teil der Kühler:o gefällt mir so jetzt nicht unbedingt
-
5. Februar 2007 um 17:02 Uhr #663880
klafert
Teilnehmerhmm wakü druff plastik weg und fertich ^^
in was für einem forum sind wir hier denn^^
-
5. Februar 2007 um 18:02 Uhr #663892
steeve
Teilnehmer-666- said:
ist ja ein gewaltiges Teil der Kühler:o gefällt mir so jetzt nicht unbedingtDas stimmt. Ich würde aber lieber abwarten. Die seite von welcher das bild stamm [vr-zone], ist schon für leichte neigungen zu nvidia bekannt.
Was ich bis jetzt gelesen habe [habs auch hier gepostet] ist, dass diese besonders lange version der X2800 nicht für desktopmarkt gedacht ist. Es kann aber natürlich auch passieren, dass genau diese karte doch im einzelhandel erscheint…
:kaffee:
-
5. Februar 2007 um 19:02 Uhr #663910
klafert
Teilnehmerjo mittlerweile gibt es so viele verschiedene spezifikationen die aufgetaucht sind da ist man echt verwirrt
AMD BITTE BEREITET DEM EIN ENDE MIT EURER PRÄSENTATION
31 tage noch
-
5. Februar 2007 um 22:02 Uhr #663945
-666-
Teilnehmersteeve;203040 said:
-666- said:
ist ja ein gewaltiges Teil der Kühler:o gefällt mir so jetzt nicht unbedingtDas stimmt. Ich würde aber lieber abwarten. Die seite von welcher das bild stamm [vr-zone], ist schon für leichte neigungen zu nvidia bekannt.
Was ich bis jetzt gelesen habe [habs auch hier gepostet] ist, dass diese besonders lange version der X2800 nicht für desktopmarkt gedacht ist. Es kann aber natürlich auch passieren, dass genau diese karte doch im einzelhandel erscheint…
:kaffee:
mal abwarten was im märz ist wenn es die karte zu kaufen gibt
-
5. Februar 2007 um 22:02 Uhr #663936
Käsetoast
TeilnehmerWas ich mich bei den Grafikkarten weiterhin frage ist, wieso die immer länger und teils auch höher werden, doch über übliche 80mm (also 75mm) Lüfter nie hinauskommen. Ich meine ich will ja keinen extravaganten 120er auf einer Karte sehen (naja – eigentlich schon 😉 ), aber ein 92er sollte doch problemlos realisierbar sein, ohne hier mehr Einschränkungen in Kauf zu nehmen, als durch die Länge sowieso schon bedingt…
Das würde Kühlleistung bzw. Lautstärke durchaus positiv beeinflussen…
Mahlzeit
Käsetoast -
5. Februar 2007 um 22:02 Uhr #663947
Neron
Administrator-666-;203111 said:
steeve;203040 said:
[QUOTE=-666-]ist ja ein gewaltiges Teil der Kühler:o gefällt mir so jetzt nicht unbedingtDas stimmt. Ich würde aber lieber abwarten. Die seite von welcher das bild stamm [vr-zone], ist schon für leichte neigungen zu nvidia bekannt.
Was ich bis jetzt gelesen habe [habs auch hier gepostet] ist, dass diese besonders lange version der X2800 nicht für desktopmarkt gedacht ist. Es kann aber natürlich auch passieren, dass genau diese karte doch im einzelhandel erscheint…
:kaffee:
mal abwarten was im märz ist wenn es die karte zu kaufen gibt[/QUOTE]
und die richtigen Test rauskommen.
Wobei cih mich eig. immer mehr wundere. Klar ist Grafikleistung pur einfach Klasse, aber man Versucht bei den heutigen CPUs (siehe AMD EE oder C2D) die Verlustleistung zu reduzieren und bei den Grafikkarten wächste dieser wieder dazu.
Finds i wie ein wenig suboptimal …
-
6. Februar 2007 um 6:02 Uhr #663981
McTrevor
TeilnehmerWas ich mich frage ist, warum die Karten immer größer werden… Die Dinger können ja schon gut mit Mainboards konkurrieren. Außerdem vergrößern sich doch auch die Signalwege, was bei den angepeilten Frequenzen ja auch schon kritisch werden kann. Das spricht eher für kleine Layouts…
Bis dann denn!
McTrevor
-
6. Februar 2007 um 6:02 Uhr #663984
klafert
Teilnehmerna nen graka ist ja schon fast so aufgebaut wien mainboard
spawas stromstecker
Ram
und die gpu^^ -
9. Februar 2007 um 16:02 Uhr #664665
Börni
Teilnehmerna geil. die karte auf dem bild ist eine 2800XTX und verbraucht 270W. bitte vorher lesen!zu dem stromverbrauch: ich dachte ich könnte mit meinem 460W enermax noch fahren, weil eine 8800GTX die ich von einem kumpel ausgeliehen habe problemlos auch auf vollast fährt, aber zu der, nein lieber nich, da kauf ich mir lieber G80
-
9. Februar 2007 um 16:02 Uhr #664657
steeve
TeilnehmerKlick für neue news. ^^[SIZE=“1″][Quelle: pcgameshardware.de][/SIZE]Die retailversion der X2800 XTX wird 24cm lang sein. Sie wird GDDR4 besitzen und 240W fressen [zum vergleich: 8800GTX 200W].Eine X2800 XT für OEM [31cm]:
[SIZE=“1″][Quelle: pcgameshardware.de][/SIZE]
-
9. Februar 2007 um 18:02 Uhr #664715
klafert
Teilnehmeralso vorher lesen @ börni genau^^
steeve hat gesagt das die retail version 240w fressen wird
das ist die die du einzeln kaufen kannstund dann steht da
ein bild einer x2800xtx für OEM
genau lesen
finde den stromverbrauch net schlimm und meinen wegen 40w ne g80 zu holen ist wohl mal besonders sinnfrei^^
-
9. Februar 2007 um 18:02 Uhr #664722
Käsetoast
TeilnehmerWenn die sich im Idle vernünftig runterfahren lässt, könnte man damit im Vergleich zum G80 sogar Strom sparen… \D/
Wobei ich die Werte vorerst mal nicht als endgültig ansehe – bevor ich nicht aus zuverlässiger Quelle eine Bestätigung dieses Wertes bekomme, bin ich noch skeptisch…
Mahlzeit
Käsetoast -
9. Februar 2007 um 20:02 Uhr #664750
vamp
TeilnehmerKäsetoast;203999 said:
Wenn die sich im Idle vernünftig runterfahren lässt, könnte man damit im Vergleich zum G80 sogar Strom sparen… \D/Wobei ich die Werte vorerst mal nicht als endgültig ansehe – bevor ich nicht aus zuverlässiger Quelle eine Bestätigung dieses Wertes bekomme, bin ich noch skeptisch…
Mahlzeit
KäsetoastDas würde nur was wirklich bringen wenn man die Spannung mit absenkt
-
9. Februar 2007 um 23:02 Uhr #664791
Käsetoast
Teilnehmervamp;204033 said:
Das würde nur was wirklich bringen wenn man die Spannung mit absenkt:-k
Sorry – verstehe dich nicht ganz. Das Problem bei den G80 Karten ist, dass eine Spannungsabsenkung wohl nicht vorgesehen war und die Karten daher auch im Idle noch sehr viel Strom schlucken. Habe zwar schon von ein paar Tricksereien gelesen, bei denen im Karten-BIOS was rumgeändert wurde, doch bislang scheinen die niedrigeren Spannungswerte nicht übernommen zu werden. Vor allem bei ATIs X1800er / X1900er Karten ließ sich das alles sehr schön per ATI-Tool rein über Software regeln – also sowohl Takt als auch Spannung ließ sich runterregeln (und zwar auch deutlich mehr als standardmäßig eingestellt). Daher meinte ich, dass trotz der zweifellos höheren Lastaufnahme des R600, dieser im Idle durchaus stromsparender sein könnte (es muss eben nur die bisherige Funktionalität beibehalten werden)…Mahlzeit
Käsetoast -
9. Februar 2007 um 23:02 Uhr #664792
Neron
AdministratorKäsetoast;204078 said:
vamp;204033 said:
Das würde nur was wirklich bringen wenn man die Spannung mit absenkt:-k
Sorry – verstehe dich nicht ganz. Das Problem bei den G80 Karten ist, dass eine Spannungsabsenkung wohl nicht vorgesehen war und die Karten daher auch im Idle noch sehr viel Strom schlucken. Habe zwar schon von ein paar Tricksereien gelesen, bei denen im Karten-BIOS was rumgeändert wurde, doch bislang scheinen die niedrigeren Spannungswerte nicht übernommen zu werden. Vor allem bei ATIs X1800er / X1900er Karten ließ sich das alles sehr schön per ATI-Tool rein über Software regeln – also sowohl Takt als auch Spannung ließ sich runterregeln (und zwar auch deutlich mehr als standardmäßig eingestellt). Daher meinte ich, dass trotz der zweifellos höheren Lastaufnahme des R600, dieser im Idle durchaus stromsparender sein könnte (es muss eben nur die bisherige Funktionalität beibehalten werden)…Mahlzeit
Käsetoast:+ Stromsparend bei den Karten muss relativ gesehen werden 😀 Wenn die im Idle noch 100Watt verbrauchen ist das schon einiges 😉
-
10. Februar 2007 um 1:02 Uhr #664807
Börni
Teilnehmermeine jetzige verbaucht bei vollast 50W….
-
10. Februar 2007 um 1:02 Uhr #664810
klafert
Teilnehmerwenn du deine lüfter draufpackst biste genauso weit….
ich warte auf die nächste pcgh da soll nämlich der test drin sein und dann ma schaun nech 😉
der e4400 schockt mich auch richtig an der macht mch wuschig
das der lüfter umgedreht wurde ist gut schließlich kann es vorkommen das andere karten den lüfter bedeckten könnten
-
11. Februar 2007 um 0:02 Uhr #665013
VJoe2max
TeilnehmerSchaut euch mal bitte die Aufschrift auf dem R600-Lüfter an: PCGH-Link
Wenn „AMP“ hier wirklich für Ampère steht, wäre das ein 24W-Lüfter! Ich kenne laute 3W Lüfter aus Servern aber ein 24W-Lüfter erfordert ja schon fast ne Wasserkühlung für die Statorwicklungen. Über die Lautstärke möchte ich da erst gar nicht spekulieren.
-
11. Februar 2007 um 1:02 Uhr #665015
klafert
Teilnehmerdas glaub ich aber eher weniger…
die werden garantiert keinen dusenjet verbauen
-
11. Februar 2007 um 1:02 Uhr #665017
Börni
Teilnehmerwär was für mich
-
11. Februar 2007 um 1:02 Uhr #665018
VJoe2max
Teilnehmerklafert;204361 said:
das glaub ich aber eher weniger…die werden garantiert keinen dusenjet verbauenWas beteutet denn deiner Meinung nach 2.00 AMP?Wenn es zwei Ampére sind, hat der Lüfter bei den angegebenen 12V Spannung 24W Leistung und geht somit vom Geräuschpegel her höchstwahrscheinlich deutlich in Richtung Strahl-Triebwerk. Diese Karte ist mit Abstand das mieseste Stück Hardware, was ich in letzter Zeit gesehen habe (vielleicht mal von dem Peltier-Netzteil abgesehen) x( . Wenn AMD nicht schleunigst gegensteuert und sich bei den folgenden Karten um niedrigere Verlustleistungen bemüht, verlieren die bei mir sämtliche Sympatiepunkte. Es kann nicht angehen, dass elektrische Standheizungen verkauft werden, nur um die schnellste karte auf dem Markt zu haben. Die Verlustleistungen sind einfach indiskutabel – sowohl aus Gründen des Resourcenverbrauchs, als auch aus Gründen der Kühlbarkeit.
-
11. Februar 2007 um 10:02 Uhr #665049
Deimhal
TeilnehmerNaja, Amper wird normal als A bezeichnet und nicht als AMP.Darum glaub ich nicht, dass es sich in diesem Fall um die Stromstärke handelt. Könnten auch Abnormale mentale Phänomene sein mit dem Faktor 2.00.:D
-
11. Februar 2007 um 10:02 Uhr #665060
allo
Teilnehmerist euch aufgefallen das die oem karte garkeine 31cm groß ist. das ist nur der lüfter der hinten dran geschraubt ist.
vom stromverbrauch will ich garnicht erst anfangen. meine karte verbraucht unter last max 70W, und genau da ist für mich die fahnenstange schon erreicht.
mal davon abgesehen das ich den 240W sowieso skeptisch gegenüber stehe -
11. Februar 2007 um 11:02 Uhr #665065
VJoe2max
TeilnehmerDeimhal;204399 said:
Naja, Amper wird normal als A bezeichnet und nicht als AMP.Darum glaub ich nicht, dass es sich in diesem Fall um die Stromstärke handelt. Könten auch Abnormale mentale Phänomene sein mit dem Faktor 2.00.:DAbnormale mentale Phänomene 😆 Hast schon recht, normalerweise wird die nominale Stromstärke in A bzw. mA bei Kleingeräten angegeben. Nichts desto trotz habe ich auch schon die Angabe AMP für die Stromstärke auf so manchem fernöstlichen Produkt gesehen.
-
11. Februar 2007 um 12:02 Uhr #665098
steeve
Teilnehmerallo said:
ist euch aufgefallen das die oem karte garkeine 31cm groß ist. das ist nur der lüfter der hinten dran geschraubt ist.Genau. Bei der retail karte wird ehe ein anderer kühler verwendet, deswegen wird die karte genauso lang sein wie das PCB. Bis jetzt war die rede von 24cm länge für die X2800XT retail.
allo said:
mal davon abgesehen das ich den 240W sowieso skeptisch gegenüber steheDiese zahlen klingen auch mir bisschen komisch. 240W muss erst ein luftkühler abführen können und das wird nicht so einfach sein. :kaffee:
-
11. Februar 2007 um 12:02 Uhr #665099
Neron
Administratorwas ist bitte schön der unterschied zwischen oem und retail wenn cih das mal fragen darf…240w mit nem luftkühler abführen… wird ne laute sache ö.O
-
11. Februar 2007 um 13:02 Uhr #665107
steeve
TeilnehmerNeron said:
was ist bitte schön der unterschied zwischen oem und retail wenn cih das mal fragen darf…OEM – für die unternehmen, die fertigpcs bauen.Retail – für die endverbraucher entwickelt, desktopbereich.
-
12. Februar 2007 um 14:02 Uhr #665321
klafert
Teilnehmerwieso laut
der g80 hatt immerhin 200w und ist leiser sie ne 7950gt…..
ou man außerdem gab es noch keine angabe in sone wie laut der lüfter ist
und 240w werden nur bei volllast erreicht..
-
14. Februar 2007 um 15:02 Uhr #665733
steeve
Teilnehmer[SIZE=“5″]ATi R600-Serie: Modelle, Ausstattung und Preis[/SIZE] :d:[Quelle: computerbase.de]Insgesamt wird es 12 modelle geben. Preise bewegen sich zwischen 59€ und 599€.Sonst habe ich nicht viel zu sagen. Guckt euch die news an, es wird sich lohnen. :d: [Quelle: computerbase.de]Mal sehen wer diesmal schneller ist.:kaffee:
-
14. Februar 2007 um 18:02 Uhr #665765
Neron
AdministratorDie erste, 80 nm gefertigte Radeon X2800 (R600) soll Mitte März vorgestellt werden. Die in 65 nm gefertigten Radeon X2600- und X2300-Serien sollen im April ankündigt werden und sollen ab Mai verfügbar sein. Diese Karten werden je nach Modell HDMI unterstützen.
[Quelle Computerbase.dena da kann man ja mal gespannt sein…wobei ich bei den kleinen grafikschips ehe etwas abstand nehme, hört sich nach ncihts vernünftigen an, da es wohl einige andere karten gibt die diese vom markt verdrängen, vilt nicht preislich, aber von der preis/leistung her.Gruß Neron
-
14. Februar 2007 um 19:02 Uhr #665773
klafert
Teilnehmershice ist das teuer
-
14. Februar 2007 um 20:02 Uhr #665782
braeter
TeilnehmerDie sollen ruhig etwas strom brauchen. Die paar Std wo die volllast laufen und meine Füsse frieren auch… 😀
-
14. Februar 2007 um 20:02 Uhr #665778
VJoe2max
Teilnehmerklafert;205246 said:
shice ist das teuerWas hast du denn erwartet? Neue Grakas sind doch immer so teuer am Anfang. Bei den DIE-Größen ist das auch kein Wunder.
Ich find das sehr angenehm mit den aktuellen Heizkraftwerken. Da kommt man schon nicht in die Versuchung sich ne neue Graka zu kaufen.
Waiting for next generation :kaffee:
-
14. Februar 2007 um 20:02 Uhr #665789
klafert
Teilnehmerma gucken welche karten gleich zu anfang kommen
-
15. Februar 2007 um 16:02 Uhr #665933
-
15. Februar 2007 um 17:02 Uhr #665950
klafert
Teilnehmerähm die 34 cm karte geht an oem händler und die werden schon gehäuse dafür auslegen das die reinpasst
und 24cm ist nicht lang wenn ich mir die 31 cm der 7950gx2 so anschaue…
wird auch net schwerer sein als die 8800 gtx…
-
15. Februar 2007 um 17:02 Uhr #665947
dooz
Teilnehmermal was anderes, wer hat nen gehäuse wo sone karte reinpasst? gescheige denn 2? o.0
also meine karte ist ~24cm lang und das finde ich schon heftig. aber 30cm+ ist doch mal extremst derbe.
und wenn man auf ne lanparty geht hebt man sich zudem noch nen bruch. wie schwer das teil wohl sein mag??? hat ja doch nen stattlichen kühler drauf.
um das teil mit na wakü zu kühlen braucht man sicherlich nen eigenen kreislauf xDbin mal gespannt was die ende des jahres kosten… da würd mich sonen teil ja doch mal reizen ^^
-
15. Februar 2007 um 18:02 Uhr #665971
Deimhal
TeilnehmerAber man hat jeden Tag Nachrichten.:D
-
15. Februar 2007 um 18:02 Uhr #665968
klafert
Teilnehmernaja der quelle glaub ich mittlerweile überhaupt nichts mehr
^^ -
15. Februar 2007 um 18:02 Uhr #665966
-
15. Februar 2007 um 19:02 Uhr #665989
klafert
Teilnehmerrichtig^^
man shcau sich nur die gerüchte um den g80 an^^
-
17. Februar 2007 um 13:02 Uhr #666230
-
17. Februar 2007 um 18:02 Uhr #639228
Deimhal
Teilnehmer700000000 Transistoren. Ich werd verrückt. 😡
-
17. Februar 2007 um 18:02 Uhr #639229
al3x
TeilnehmerSolange es den G80 Platt macht ist es i.O. 😀
-
17. Februar 2007 um 18:02 Uhr #639150
vamp
Teilnehmeral3x;205828 said:
Solange es den G80 Platt macht ist es i.O. 😀Dadurch wird G80 nicht langsamer 😀
ps: jetzt ist das schon 30 März statt 8 😆
Wie war das nochmal mit warte mit dem Kauf von 8800 noch n Monat ?
-
18. Februar 2007 um 12:02 Uhr #580718
klafert
Teilnehmeres geht net um 700 mio transistoren sondern um die angebliche kompressor!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!kühlung auf der retail version
-
18. Februar 2007 um 16:02 Uhr #666301
steeve
TeilnehmerIch will langsam tests sehen … ^^
-
18. Februar 2007 um 17:02 Uhr #666325
Poweruser
TeilnehmerPCGH said:
Die OEM Version wird über die volle Länge von 12 Zoll (30,48 Zentimeter) und den großen Luftkühler verfügen. Bei der Retail Variante wird durch eine Kompressorkühlung die Länge wesentlich verkürzt, auf 9 Zoll (24,13 Zentimeter) – belegt aber zwei Slots.Da hat jemand bei pcgh seine lustigen fünf Minuten:lol:
-
18. Februar 2007 um 17:02 Uhr #666321
klafert
Teilnehmerimmer langsam^^
-
19. Februar 2007 um 1:02 Uhr #666418
stimpy
TeilnehmerPoweruser;206130 said:
PCGH said:
Die OEM Version wird über die volle Länge von 12 Zoll (30,48 Zentimeter) und den großen Luftkühler verfügen. Bei der Retail Variante wird durch eine Kompressorkühlung die Länge wesentlich verkürzt, auf 9 Zoll (24,13 Zentimeter) – belegt aber zwei Slots.Da hat jemand bei pcgh seine lustigen fünf Minuten:lol:
in den Kommentaren zu dem Artikel heißt es:
ruyven_macaran said:
darunter ist ein übersetzungsfehler zu verstehen – bzw. der red hat vermutlich schlicht zuwenig ahnung von kühlmechanismen, schließlich sollte einem auffallen, dass eine kompressorkühlung auf einer grafikkarte keinen platz haben dürfte.im orginial handelt es sich um einen „vapor chamber cooler“, also eine kühler mit verdampferkammer – dafür braucht man keinen kompressor.
( dein freund und helfer )beispiel wäre z.b. der vapochill micro
im prinzip handelt es sich dabei um nichts weiter als eine komplexer geformte heatpipe, in den bisherigen ausführungen waren die kühler allerdings immer stark schwerkraftabhängig, da -wie bei billigen oder sehr leistungfähigen heatpipes- kein kapillargeflecht zur rückführung der kühlflüssigkeit eingesetzt wurden.
-
19. Februar 2007 um 6:02 Uhr #665752
klafert
Teilnehmerjo hab auch an nen übersetzungsfehler gedacht wäre sehr extrem gewesen^^ aber als ich den org text gelesen hab naja^^
aufwändig deshalb weil solche kappilarsystem heatpipes nahc der prodution nicht mehr geformt werden können
-
19. Februar 2007 um 18:02 Uhr #666499
VJoe2max
Teilnehmerklafert;206367 said:
[quelle: siehe bild]die fangen schon wieder mit puzzeln an -.-sry aber irgendwie wollte er grad kein edit annehmen …
Reichen wohl nichtmal 2 SLI-Stecker für den Stromhunger der Karte? Irgendwie seh ich die Karte vor meinem geistigen Auge schon in die ewigen Jagdgründe eingehen. Die Zeichen stehen auf Flop – Ein neues Netzteil werden sich nur wenige kaufen nur um eine R600 in Betrieb nehmen zu können. Hoffentlich werden wenigstens die Midrange-Karten was. Erinnert mich irgendwie an eine gewisse FX5800 Ultra 😀 – nur verbraucht die hier noch mehr als das vierfache wenn ich mich nicht irre.
-
19. Februar 2007 um 18:02 Uhr #666504
Käsetoast
TeilnehmerVJoe2max;206369 said:
Reichen wohl nichtmal 2 SLI-Stecker für den Stromhunger der Karte?Irgendwie seh ich die Karte vor meinem geistigen Auge schon in die ewigen Jagdgründe eingehen. Die Zeichen stehen auf Flop – Ein neues Netzteil werden sich nur wenige kaufen nur um eine R600 in Betrieb nehmen zu können. Hoffentlich werden wenigstens die Midrange-Karten was.
Habe mich auch zuerst gewundert, aber wahrscheinlich ist diese Umsetzung gar nicht so dumm. Irgendwo habe ich gelesen, dass man auf den 8pol-Anschluss auch einen herkömmlichen PCIe-Stecker aufsetzen kann (wird wohl Adapter fällig sein). Indem man einen der beiden Stromanschlüsse nun aber 8poilg macht, könnte man durchaus EPS-Netzteilen entgegenkommen. Ich bin bei deren Steckerausstattung jetzt nicht wirklich gut informiert, aber ich könnte mir vorstellen, dass es hier sehr praktisch ist, da man den EPS-Stecker und AGPPro-Stecker (ich nehme mal an der ist kompatibel mit dem PCIe-Stecker) direkt verwenden könnte…
Mahlzeit
Käsetoast -
19. Februar 2007 um 18:02 Uhr #666497
klafert
Teilnehmer[quelle: siehe bild]
die fangen schon wieder mit puzzeln an -.-
sry aber irgendwie wollte er grad kein edit annehmen …
-
19. Februar 2007 um 18:02 Uhr #666506
VJoe2max
TeilnehmerKäsetoast;206377 said:
Habe mich auch zuerst gewundert, aber wahrscheinlich ist diese Umsetzung gar nicht so dumm. Irgendwo habe ich gelesen, dass man auf den 8pol-Anschluss auch einen herkömmlichen PCIe-Stecker aufsetzen kann (wird wohl Adapter fällig sein). Indem man einen der beiden Stromanschlüsse nun aber 8poilg macht, könnte man durchaus EPS-Netzteilen entgegenkommen. Ich bin bei deren Steckerausstattung jetzt nicht wirklich gut informiert, aber ich könnte mir vorstellen, dass es hier sehr praktisch ist, da man den EPS-Stecker und AGPPro-Stecker (ich nehme mal an der ist kompatibel mit dem PCIe-Stecker) direkt verwenden könnte…Der 8polige EPS-Stecker wird aber meist schon fürs Mainboard verwendet (bin jetzt aber auch nicht ganz sicher, ob EPS das gleiche ist wie EATX ist).
-
19. Februar 2007 um 19:02 Uhr #666525
klafert
Teilnehmerhahahahalt mal langsam hier jungs
nix da der mainboardstecker wird net in eine grafikkarte gesteckt
das ja wie nen esel mit nem pferd
es gibt adapter vom 6 pol auf 8 pol und andersrum
die infinitiy serie hat z.b. schon einen 8 pol und einen 6erglaub sogar welche von 2x 4 pol ide auf den 8 pol pci
naja das problem wird es net sein und man wird immer noch mit nem 400 w netzteil auskommen wenn man keinen p4 preschrott extreme drinne hat mit 125W^^
aktuelle g80 mit x6800er brauchen 350 w und 50 w drauf das reicht immer noch
-
21. Februar 2007 um 14:02 Uhr #666758
-
21. Februar 2007 um 15:02 Uhr #666762
Käsetoast
TeilnehmerMacht Sinn wie ich finde. Auf der einen Seite überlässt man NVIDIA natürlich ein wenig länger die unangefochtene Leistungskrone, doch zu den prophezeiten Preisen hätte eh keiner den R600 gekauft (da ich nicht davon ausgehe, das es eine sooo große Mehrleistung gibt, die je nachdem einen doppelten Preis rechtfertigt). Von daher ist Warten und ein Release mit vernünftigen Preisen eigentlich gar nicht so schlecht. Ist man von ATI inzwischen ja eh schön gewöhnt (vergleiche Release der X1800er). Vielleicht gibt’s dann drei Monate später auch gleich wieder den Refresh dazu… 😀
Mahlzeit
Käsetoast -
22. Februar 2007 um 11:02 Uhr #666908
-666-
TeilnehmerNachdem gestern noch vertrauliche AMD/Ati-Unterlagen zum R600 aufgetaucht sind, scheint sich der heiß erwartete Launch des R600-Grafikchips von AMD/Ati, der sich zur CeBIT abzeichnete, wohl doch zu verzögern. Hier das Original-Statement der Pressestelle:
„To better align our strategy with current market opportunities, we’ve changed the launch plan for R600. We are going to deliver a competitive configuration to market with an extremely attractive combination of performance, features and pricing, targeting a broader market segment in Q2. With the revised strategy, AMD will be better able to capitalize on the broad appeal of 3D graphics and DirectX 10, being driven in part by the growing popularity of Windows Vista.“
Unsere Übersetzung:
Um unsere Strategie besser mit den aktuellen Marktbedingungen abstimmen zu können, haben wir uns entschlossen, den Markteintritt des R600 zu ändern. Wir werden im zweiten Quartal eine sehr konkurrenzfähige Lösung am Markt platzieren, die aus einer äußerst attraktiven Kombination aus Leistung, Merkmalen und Preis besteht und ein größeres Marktsegment abdeckt. Mit dieser überarbeiteten Strategie wird AMD die zum Teil auch durch die wachsende Popularität von Windows Vista vorangetriebenen, breitgefächerten Möglichkeiten von 3D-Grafik und Direct X 10 besser nutzen können.Quelle: PCGamesHardware
na das ja wieder klassex(
-
22. Februar 2007 um 13:02 Uhr #666913
klafert
Teilnehmerdas is oben schoin verlinkt 😉
klasse ist es allemal^^
-
22. Februar 2007 um 14:02 Uhr #666919
-666-
Teilnehmer^^ mein Quad soll sich ja nicht langweilen:o
-
22. Februar 2007 um 15:02 Uhr #666928
Neron
Administrator-666-;206903 said:
^^ mein Quad soll sich ja nicht langweilen:oja du ^^ :+
-
22. Februar 2007 um 16:02 Uhr #666931
steeve
TeilnehmerVJoe2max said:
Erinnert mich irgendwie an eine gewisse FX5800 Ultra 😀 – nur verbraucht die hier noch mehr als das vierfache wenn ich mich nicht irre.Genauer gesagt verbraucht sie das dreifache. 😉 Die 5800 Ultra hat damals mehr als 70W verbraucht [und das noch vor ~3 jahren, wo die vergleichbare ATI ~50W verbrauchte].Das einzige, was ich bei DX10 wirklich genial finde ist, dass die cpu deutlich weniger beansprucht wird. Ich weiß jetzt nicht genau um welchen faktor es sich handelt, aber jetzt wird es auch in den kleineren auflösungen kaum eine rolle spielen, welche cpu man im rechner hat.Im klartext heißt das, dass ich beim nächsten update vielleicht nur die karte tausche soll, da die cpu schon mehr als ausreichend für diese spiele wird. ^^
-
2. März 2007 um 10:03 Uhr #668178
stimpy
Teilnehmer„Ati R600: Brandneue Bilder und Informationen erschienen“
„Es soll sich (bei der Karte auf den Fotos) um einen Prototypen handeln – einen sehr langen. Rückblickend auf frühere Informationen wird so vermutlich die OEM-Version aussehen, ausgestattet mit einem extra langen Kühler, der die eigentliche Platine deutlich überragt. Die Retail-Version soll ein kürzeres Modell bekommen. Die Bilder finden sie unter diesem Text.
Die VR-Zone will überdies erfahren haben, dass das finale R600-Flaggschiff einen Chiptakt von über 800 MHz haben wird. Das weicht etwas von den bisherigen Daten ab, die ihm 700 bis 800 MHz attestierten. Weiterhin soll die „Radeon X2900 XTX“ nur in geringen Stückzahlen erhältlich sein. Ob das einer strengen Selektion oder einem geplanten raschen Verschwinden dieser Karten geschuldet ist, bleibt offen. Die Zahl „200“ im Zusammenhang mit dem Stromverbrauch deckt sich mit bekannten Daten. Doch wie immer gilt, dass man diese Angaben mit einer gesunden Portion Skepsis aufnehmen sollte.“
[Quelle: PCGH]
-
2. März 2007 um 11:03 Uhr #668186
bluefisch200
TeilnehmerR600 NewsDas mal lesen weiter unten steht das sie 24-30 cm lang sein sollen( 2 Modelle X2900 XTX). Die „kleinere“ besitzt eine spezielle kühlung und wird somit vermutlich teurer als die andere.Ich persönlich werde mir eine nVidia Graka holen da ich denke das die einfach besser sein werden nVidia 8950 gt und 8950 x2
-
2. März 2007 um 13:03 Uhr #668198
klafert
Teilnehmerdeine news sind älter 😉
desweiteren ist alles bereits bekannt
allerdings ist teraflop im cf gespann garnet mal so schlecht^^
-
7. März 2007 um 15:03 Uhr #668725
stimpy
Teilnehmersteeve;209467 said:
Bin echt gespannt wie leistungsstark die karten werden.Und wieviel Leistung die Mittelfeld-Karten verbraten werden.
Ich hoffe nur Release und Takt werden geschoben um die Konkurenz in Grund und Boden zu stampfen und nicht um nur mithalten zu können. [-o<
-
7. März 2007 um 15:03 Uhr #668711
steeve
Teilnehmer[SIZE=“5″]R600 Clocks Higher Than 800MHz[/SIZE][SIZE=“1″][Quelle: vr-zone.com][/SIZE]Und wieder gibt es neue nachrichten zu kommender AMD-karte …R600 (X2800) wird mit einem GPU-takt von über 800 MHz betrieben. PCB wird aus, je nach version, 12-16 layern gefertigt.Jetztige boardrevision lautet A13 und es gibt keine andere.Alle pseudo-benchmarks, die bis jetzt erschienen sind, waren einfache fakes.Die karten werden auf der CeBit vorgestellt … in den handel werden die karten anfang-mitte mai, in der ausführung mit GDDR3 und GDDR4, erscheinen.Bin echt gespannt wie leistungsstark die karten werden.:kaffee:
-
16. März 2007 um 12:03 Uhr #669873
klafert
Teilnehmerhmm die quelle dürfte wohl zu einer der sicheren gehören
-
16. März 2007 um 14:03 Uhr #669892
-
16. März 2007 um 14:03 Uhr #669889
braeter
TeilnehmerDie grossen will ich sehn. Nicht die kleinen Stromverschoner.Noch kein Release bekannt? 🙁
-
16. März 2007 um 19:03 Uhr #669972
klafert
Teilnehmermai
ich denke das wir hinkommen die großen haben zu viele aufkleber
zensur der quellen halt^^
-
16. März 2007 um 20:03 Uhr #669976
Neron
AdministratorJo zensur der Qulle wird wohl sein.Ich frag mich warum man kein Standard – Layout für eine Graka Platine nimmt. Wäre doch viel einfacher in der Produktion und Kühler Entwicklung….
-
19. März 2007 um 16:03 Uhr #670480
steeve
Teilnehmer.Etwas sehr interessantes hört sich so in den letzten tagen:[SIZE=“4″]Kommt der AMD/ATI R600 gleich in 65 nm?[/SIZE][SIZE=“1″][Quelle: planet3dnow.de][/SIZE]Ganz interessant hört sich die stelle:
… der Grund für die Verzögerungen ist ein Umschwenk auf den 65 nm Herstellungsprozess. Damit soll es möglich sein, die über 720 Millionen Transistoren starke GPU mit über 1 GHz Taktfrequenz arbeiten zu lassen, ohne – wie offenbar momentan noch – Probleme mit Stromverbrauch und Wärmeentwicklung zu bekommen.
… Demnach sollen die Karten ausschließlich in der 65 nm Version in den Handel kommen und über ein Drittel weniger Strom verbrauchen, als die 80 nm Karten der Vorserien-Generation.
Das würde theoretisch heißen, dass die X2800XT weniger strom verbrauchen würde als die X1900XT (~120W – 1/3 = 80W ?!).Da warte ich lieber länger und bekomme dafür ne echte rakete aus allen perspektiven gesehen. :d:Bin echt gespannt wie es in paar wochen auf dem benchmarkt aussieht.:kaffee:
-
19. März 2007 um 18:03 Uhr #670535
kosh
TeilnehmerIn dem Fall könnte es wirklich zugunsten von ATi/AMD ausgehen. Wäre eine äußerst lobenswerte Sache. Ich hoffe, das Zeug kommt raus, bevor ich mir einen neuen PC kaufe.
-
20. März 2007 um 15:03 Uhr #670757
steeve
TeilnehmerMit kommenden AMD produkten wird das wort HD-gaming neue maßen bekommen. 😉
[Quelle: pcgameshardware.de] -> Auf das bild klicken, um zu den news zu gelangen.Die ganze sache hört sich schon interessant an.
PCGH said:
Da AMD aber zu anderen Anlässen bereits mit verdoppelter R580-Leistung warb, lässt sich aus diesen Angaben ebensogut ablesen, dass der R600 ein wahres Effizienzmonster zu werden scheint, wenn er aus 40 Prozent höherer Rohleistung 100 Prozent mehr Spiele-Fps herausholt.Zum Vergleich: Die G80 holt aus etwa 50 Prozent höherer Rohleistung ebenfalls die doppelte Spieleleistung einer 7900 GTX heraus.Und nebenbei muss man auch sagen, dass R580 schneller war/ist als G71.
-
20. März 2007 um 17:03 Uhr #670792
kosh
TeilnehmerKönnte mir jemand das so erklären, dass auch ich verstehe was damit gemeint ist?Geht’s hier um Crossfire oder was genau ist da gemeint?
-
20. März 2007 um 17:03 Uhr #670795
al3x
TeilnehmerLangsam platzt mir der Kragen. Ich will keine Gerüchte oder sonstwas mehr von aTI haben. Ich will Fakten!
Oder mehr noch, endlich die R600 im Handel zu sehen 😥
-
22. März 2007 um 22:03 Uhr #671426
braeter
TeilnehmerJa da siehst mal wie man sich irren kann wenn man auf AMD setzt…. (denen alleine geb ich die schuld)Das gute dran ist das die GTX und GTS Preis nun schön tief sind. Das warten hat also doch nicht nur negative seiten.
-
22. März 2007 um 22:03 Uhr #671424
vamp
TeilnehmerDer Termin war für mitte bis ende Januar. Wo sind die Leute nochmal die schrien, 8800 jetzt nicht kaufen. Warte doch noch ein Monat bis die R600 da ist
-
22. März 2007 um 22:03 Uhr #671421
braeter
Teilnehmersteeve;212292 said:
Mit kommenden AMD produkten wird das wort HD-gaming neue maßen bekommen. 😉[Quelle: pcgameshardware.de] -> Auf das bild klicken, um zu den news zu gelangen.Die ganze sache hört sich schon interessant an.
PCGH said:
Da AMD aber zu anderen Anlässen bereits mit verdoppelter R580-Leistung warb, lässt sich aus diesen Angaben ebensogut ablesen, dass der R600 ein wahres Effizienzmonster zu werden scheint, wenn er aus 40 Prozent höherer Rohleistung 100 Prozent mehr Spiele-Fps herausholt.Zum Vergleich: Die G80 holt aus etwa 50 Prozent höherer Rohleistung ebenfalls die doppelte Spieleleistung einer 7900 GTX heraus.Und nebenbei muss man auch sagen, dass R580 schneller war/ist als G71.
Diese Affenbande wird, wenn sie so weiter machen ihren beutel packen können und hausieren gehn.Thema R600 is für mich durch.Jetzt heissts ende April / Anfang Mitte Mai.War der 30. März ja schon fest. :(Die sollen mit Ihren R600 karten auf Mückenjagd gehn und so mit Ihren Samples was sinnvolles anstellen statt die leute über n viertal Jahr zu verarschen. Grosse klasse. Sauberer umgang mit den News und der gutgläubigkeit der kundschafft die sich hinter ATi stellte. AMD hats geschafft. :respekt:Ich sag von ATI auf jeden fall mal „Servus, war schön aber jetzt könnts mi mol, baura…“Edit: Die R600 geschichte is nicht mal das was mich am meisten aufregt. Was is mit der X1950 Pro Dual??? Die sollte schon vor zwei Monaten rauskommen. Ging nur unter wegen dem R600. Die sollen nur weiter machen wie bisher….
-
23. März 2007 um 17:03 Uhr #671578
klafert
Teilnehmerjo ich gebe ebenfalls der fimrenpolitik AMD die schuld
man weiß ja nie was genua gelaufen ist
einzigster vorteil wird sien das gleich die komplette pallete von low bis high da ist
-
26. März 2007 um 3:03 Uhr #672116
jhonnyX
TeilnehmerOch menno dann muss ich’s ja doch noch irgendwie hinbekommen meine X1900GT freizuschalten…
-
29. März 2007 um 22:03 Uhr #672446
braeter
Teilnehmer -
30. März 2007 um 10:03 Uhr #672514
stimpy
Teilnehmerfudzilla.com said:
We managed to get some early numbers from the R600 and this baby scores 11400+ in 3Dmark06. The test bed included Quad coreQX6700 Intel CPU and 2 GB memory.The drivers are not final but the score is not that bad either. The score is very competitive to G80 score.
In our lab non overclocked Geforce 8800 GTX card scores 10600 while the overclocked 11100 with the overclocked G80 card.
[Quelle: ]Fudzilla – R600 scores 11400+
Keine Ahnung ob die Werte stimmen und wie der Unterschied nachher in der Spielepraxis ist. Und was bedeutet das + hinter der 11400? Aber 800 Punkte Differenz entsprechen hier etwa 7,5 %, die der R600 schneller wäre. – Ist das jetzt gut oder schlecht?
-
30. März 2007 um 11:03 Uhr #672531
kosh
Teilnehmerstimpy4ever;214897 said:
fudzilla.com said:
We managed to get some early numbers from the R600 and this baby scores 11400+ in 3Dmark06. The test bed included Quad coreQX6700 Intel CPU and 2 GB memory.The drivers are not final but the score is not that bad either. The score is very competitive to G80 score.
In our lab non overclocked Geforce 8800 GTX card scores 10600 while the overclocked 11100 with the overclocked G80 card.
[Quelle: ]Fudzilla – R600 scores 11400+
Keine Ahnung ob die Werte stimmen und wie der Unterschied nachher in der Spielepraxis ist. Und was bedeutet das + hinter der 11400? Aber 800 Punkte Differenz entsprechen hier etwa 7,5 %, die der R600 schneller wäre. – Ist das jetzt gut oder schlecht?
Das Plus hinter den 11400 steht vermutlich dafür, dass sie mehrere Testdurchläufe gemacht haben und die 11400 der niederste Wert waren. Außerdem haben sie mit Beta Treibern gearbeitet, was auch noch einmal Spielraum nach oben offen lässt.
Rein theoretisch gesehen sind die 7,5% natürlich besser, aber bei so kleinen Werten ist immer die Frage ob du als Spieler was davon merkst. Die Frage ist natürlich auch, wie teuer diese Karten dann im Endeffekt sein werden. Dann kommt es noch auf die Spiele an, ob die gut mit der Karte zusammenarbeiten und dergleichen.
Im Endeffekt würde ich sagen, dass laut diesem Test der R600 auf G80 Niveau liegt, aber genaueres werden wir erst wissen, wenn die Karten endlich mal im Handel erhältlich sind. -
30. März 2007 um 11:03 Uhr #672518
Spicy_Ice
TeilnehmerHallo
ICh denke das Plus hinter der Zahl bedeutet.das die Karte noch nicht übertaktet wurde und somit der Wert noch nach oben gehen kann.da ja die G80 11100 im übertakteten Zustand erreicht hat laut dieser Site.
Gruß Spicy ICe
-
4. April 2007 um 16:04 Uhr #673905
bluefisch200
TeilnehmerDas hört sich ja alles ganz toll an mich nervts nur immer das sie das Erscheinungsdatum immer schieben…..<(^^,)>
-
12. April 2007 um 16:04 Uhr #675711
Matze/O²
TeilnehmerHi,verdammt sieht das hässlich aus! Dieses schwarze Ding was hinten übersteht, meine ich! 😥 Aber mit einem schönen EK Waterblock! 🙂 Hoffendlich kommen da dann auch schnell welche!MFG Matze
-
12. April 2007 um 16:04 Uhr #675710
kosh
Teilnehmer*aufwärm*Guckst du:ComputerBase – ATis Schützling R600 in 15 Bildern
-
12. April 2007 um 16:04 Uhr #675714
Börni
Teilnehmerhabt ihr schonmal die spezifikationen von PCIe 2.0 angeschaut? da ist ein neuer stromstecker, udn siehe da ein 8 poliger, vielleicht ist R600 auch PCIe 2.0 fähig, aber anscheinend wegen dem 6 pol. stecker auch abwärtskompatibel
-
12. April 2007 um 16:04 Uhr #675712
Orikson
TeilnehmerATI R650 mit nur 100 Watt verbrauch?
Das wäre natürlich dann eine absolute Must-Buy Karte :d:
-
12. April 2007 um 16:04 Uhr #675713
Matze/O²
TeilnehmerHi,
also wenn ich mir die Stromstecker anschau, dann is da nix mit 100Watt!
Braucht man jetzt auch wieder neue NTs?
Weil die Karte hat ja einen 6Pin und einen 8Pin Stecker!MFG Matze
-
12. April 2007 um 17:04 Uhr #675719
Orikson
TeilnehmerMatze/O²;218607 said:
Hi,
also wenn ich mir die Stromstecker anschau, dann is da nix mit 100Watt!
Braucht man jetzt auch wieder neue NTs?
Weil die Karte hat ja einen 6Pin und einen 8Pin Stecker!MFG Matze
Wer lesen kann… Das bezieht sich auf den R650, der dann bald nach dem erscheinen des R600 rauskommen soll. Und da der in 65µm gefertigt wird, kann man so nen geringen Verbrauch erziehlen. Mir solls recht sein 🙄
-
12. April 2007 um 17:04 Uhr #675736
Deimhal
TeilnehmerWann kommt die Karte endlich raus? Es dauert viel zu lange. Verdammt.
-
12. April 2007 um 17:04 Uhr #675730
Matze/O²
TeilnehmerHi,
gut ich muss gestehen, das ich den Link garnicht angeschaut habe! 🙁Aber der R650 wird ja erst später erscheinen? Je nach dem wann AMD/ATI auf 65nm umstellen kann.
MFG Matze
-
12. April 2007 um 17:04 Uhr #675717
Matze/O²
TeilnehmerHi,
wo gibts diese spezifikationen?
Also gibts dann wieder neue NTs mit „PCI Express 2.0 Support“ oder wie?Finde ich ja mal ganz toll!
Aber wie genau geht das, mit dem abwärtskompatibel? Was is bei PCIe 2.0 noch anders?Schon mal THX!
MFG Matze
-
12. April 2007 um 17:04 Uhr #675722
Matze/O²
TeilnehmerHi,
klar und deshalb der 8Pol Stecker? Das wiederspricht sich aber schon!MFG Matze
-
12. April 2007 um 17:04 Uhr #675733
Käsetoast
TeilnehmerIch kann mir gut vorstellen, dass das wie bei der X1800er Serie läuft:
Verspätung bis zum geht nicht mehr und nach 2-3 Monaten ist der Refresh da… 😉Mahlzeit
Käsetoast -
12. April 2007 um 17:04 Uhr #675726
Orikson
TeilnehmerDer 8-Polige Stecker ist ja auf der OEM Variante mit R600 drauf (~270 Watt Verbrauch), die lange mit dem Griff. Dann gibt es noch die „normale“ R600 Version (bis 250 Watt) ohne Griff, und etwas kleinerem PCB. Und dann wird es noch die R650 geben, von der aber noch keine bilder existieren…
-
12. April 2007 um 18:04 Uhr #675744
braeter
TeilnehmerDie solln alle verrecken…
-
12. April 2007 um 18:04 Uhr #675738
Käsetoast
TeilnehmerDeimhal;218630 said:
Wann kommt die Karte endlich raus? Es dauert viel zu lange. Verdammt.Anfang Mai halt – ab dem 1. kommen die wohl offiziell raus, aber größere Mengen wird’s erst ab Mitte Mai zu kaufen geben…
Mahlzeit
Käsetoast -
12. April 2007 um 18:04 Uhr #675748
ToBü
Teilnehmer*auchsoeinehabenwill* … die Frage ist nur, welche Bank ich ausraube um sie mir leisten zu können^^.
-
13. April 2007 um 23:04 Uhr #676038
stimpy
Teilnehmerbraeter;218638 said:
Die solln alle verrecken…Das bist alles DU schuld!
braeter;195184 said:
Die sollen sich zeit lassen.
Meine 1950Pro is nach erscheinen noch weniger wert, und die sind noch nichtmal alt…..März sollts mindeste sein….OK, das Zitat ist aus’m Januar aber ich wette danach hieß es bei ATI/ AMD: „Jungs, braeter sagt wir sollen’s ruhig angehn.“ 😉
Käsetoast;218632 said:
Anfang Mai halt – ab dem 1. kommen die wohl offiziell raus, aber größere Mengen wird’s erst ab Mitte Mai zu kaufen geben…Wenn’s so kommt, war das Gerede von „Es dauert länger weil wir keinen Paper-Lunch wollen“ auch nur eine Ausrede. 🙁
-
14. April 2007 um 11:04 Uhr #676070
kosh
Teilnehmer*wieder was zum lesen reinwerf*ComputerBase – Weitere Details zur R600-Familie bekannt
-
15. April 2007 um 20:04 Uhr #676431
kosh
TeilnehmerInteressante Spekulationen:AMDs Ostermärchen: Warum verschiebt AMD den Launch der R600 Serie um ein Quartal? – athlon.de
-
15. April 2007 um 20:04 Uhr #676439
kosh
TeilnehmerWie gesagt, es geht um die Geschäftsbeziehungen zu Nvidia. AMD ist in der Hinsicht ein wenig abhängig. Aber wie gesagt, reine Spekulation, man kann damit konform gehen oder auch nicht. Es ist auf jeden Fall eine interessante Betrachtungsweise.
-
15. April 2007 um 20:04 Uhr #676435
Matze/O²
TeilnehmerHi,
also das ATI/AMD nVidia den Vorsprung absichtlich gibt, kann ich mir nicht vorstellen.Der Vorteil in dem CPU Markt von AMD ist sicher nicht so groß wie der Verkauf von dem R600!
Aber ich warte lieber auf Fakten.
Doch an stelle von ATI/AMD verstehe ich nicht ganz warum sie nicht schon längst mit Benchmarkergebnissen rausrücken. Da muss ja eher was in der Fertigung nicht stimmen.
Naja abwarten und :kaffee: trinken
MFG Matze
-
15. April 2007 um 21:04 Uhr #676471
JonnyBischof
TeilnehmerIch habe gehört dass die Verkaufsversionen einen anderen Kühler kriegen sollen, ohne den bescheuerten Anbau hinter der Platine. Die R600 sollte dann nur noch etwa so klein sein wie ne 8800GTX ^^Edit:ROFL!!!!!!Hier ComputerBase – Weitere Details zur R600-Familie bekannt (Update) (oben bereits verlinkt)auf einem Bild ist mir gerade die Lüfterspec aufgefallen:12V bei 2.00ANatürlich ist das wohl der Maximalwert, aber 2 Ampere???? Klingt nach einem bösen Schreihals wenn ihr mich fragt…
-
15. April 2007 um 21:04 Uhr #676469
Lemmy
Teilnehmermal ne frage zwischen durch wie groß ist das ding?? das ist ja riesig wo sonn man die den in nem midi atx hinpachen?? 😡
-
24. Mai 2007 um 2:05 Uhr #682617
-666-
Teilnehmeralso ich bin gespannt ob das gerücht mit den 56db unter Last stimmt.
karte soll an der Rückseite auch bis zu 60c war werden mit dem Stockkühler -
24. Mai 2007 um 7:05 Uhr #682622
Börni
TeilnehmerComputerBase – Test: ATi Radeon HD 2900 XTein schöner test der zeigt das die ATi karten doch net so gut sind
-
24. Mai 2007 um 8:05 Uhr #682637
Clarinz
TeilnehmerNaja, mal abwarten. NVIDIA hat auch etas gebraucht bis sie gescheite Treiber für die 88er hatten.
Denke, so wirklich kann man das erst in 1-2 Monaten sagen.
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.