Die ersten Benchmarks von ATIs R600?
Willkommen in der Mk-Community › Foren › Hardware › PC Komponenten › Grafikkarten › Die ersten Benchmarks von ATIs R600?
- Dieses Thema hat 197 Antworten und 34 Teilnehmer, und wurde zuletzt aktualisiert vor 16 Jahren, 10 Monaten von Clarinz.
-
AutorBeiträge
-
-
2. Januar 2007 um 18:01 Uhr #653133braeterTeilnehmer
Ich würd sagen, da wir keinen reinen R600 Thread haben, wird der hier zu dem.Das andere Topic is allgemein umfassend.Hier dann also nur über den R600. Was das Netz so hergibt und eure zukünftigen erfahrungen mit den monstern.
-
2. Januar 2007 um 18:01 Uhr #476219DeimhalTeilnehmer
http://www.pcgameshardware.de/?article_id=540462
Quelle: http://www.pcgameshardware.de:amazed:
Wer will dann noch eine 8800GTX/GTS haben?:D -
2. Januar 2007 um 18:01 Uhr #656483DeimhalTeilnehmer
Sry. Hab ich nicht gewusst.
Kann dann geschlossen werden, wenn kein Bedarf.:+ -
2. Januar 2007 um 18:01 Uhr #577000
-
3. Januar 2007 um 7:01 Uhr #641028NeptunModerator
gute Idee Braeter
-
3. Januar 2007 um 9:01 Uhr #555610ClarinzTeilnehmer
Mich würde lieber mal interessieren wann die Dinger rauskommen 🙄
-
3. Januar 2007 um 18:01 Uhr #578325DeriCTeilnehmer
so wie ich grad gehört hab evtl auch erst später, da schwerwiegende Fehler aufgetreten sind und die fertigen Karten nochmal überarbeitet werden müssen. Angeblich gibts die R600er dann erst zur diesjährigen Cebit. Die Benchmarks die aufgetaucht sind sollen angeblich auch nur gefaked sein, der Herausgeber weigert sich bspw aussagekräftige Screenshots der angeblich getätigten Benchmarks herauszugeben. Auf die Frage woher er schon nen r600 hat, gab es auch nur wenig glaubhafte Statements
-
3. Januar 2007 um 18:01 Uhr #578321klafertTeilnehmer
mitte februar glaube ich gelesen zu haben
-
3. Januar 2007 um 18:01 Uhr #578220DeimhalTeilnehmer
Gerüchte, Gerüchte, Gerüchte.
Es bleibt nur abwarten. -
3. Januar 2007 um 19:01 Uhr #578191DeriCTeilnehmer
aha hat die Unvernunft doch wieder gesiegt, wolltest dich dem AufrüstWahn ja ne zeitlang nicht mehr hingeben, wusste aber dass du das nicht einhalten wirst 😉
Cebit ist vom 15.-21. März
-
3. Januar 2007 um 19:01 Uhr #578188braeterTeilnehmer
Die sollen sich zeit lassen. Meine 1950Pro is nach erscheinen noch weniger wert, und die sind noch nichtmal alt…..März sollts mindeste sein….Kentsfield und R600 Träum Träum …. so n prolliges Sys das jeder vernunft trotzt :DWie werden die R600 jetzt heissen?Wirds da mit X2900 und X2600 weitergehn (Da reagiert google mit ergebnissen drauf, aber was festes find ich nicht.)Wann is die Cebit?
-
3. Januar 2007 um 20:01 Uhr #578125braeterTeilnehmer
Ja März wär mir grad recht :d:…und ich hab nichts angekündigt. Ich träume nur ;)Sind bisher nur die Tests aufgetaucht? (Sry bin Netzmäsig mehr schlecht wie recht unterwegs.)Ich mein THG hatte lange vor Release des C2D eine solche CPU am start. (Mir ziehts die backen wieder hoch, jetzt wo ich dran denke wie sich hingestellt haben bzw was für n akt es war die CPU zu ergattern :lol:)
-
13. Januar 2007 um 2:01 Uhr #659691braeterTeilnehmer
Die Karten werden wie vermutet mit dem Namen X2xxx auf dem merkt erscheinen, wenns nach Hartware.net geht. Die neuen Treiber haben deren unterstützung schon drin. Interessant für die Linuxuser die sich immer über ATI`s Treiberunterstützung aufgeregt haben. Es gibt jetzt schon n Linuxtreiber.http://www.hartware.de/news_41322.htmlStromverbrauch wird wohl doch deutlich unter 250Watt liegen wenns nach Gamestar / Techpower.up geht.http://www.gamestar.de/news/pc/hardware/ati/1464811/ati.htmlIch muss mich ranmachen und ordentlich Kartons verscherbeln 😀
-
13. Januar 2007 um 2:01 Uhr #659694BörniTeilnehmer
Deimhal;194886 said:
Wer will dann noch eine 8800GTX/GTS haben?:Dich
-
13. Januar 2007 um 9:01 Uhr #659702DeimhalTeilnehmer
Es sollen angeblich in Juni die R610 und R630 Karten kommen. Das wird die abgespeckte Version des R600 Chips sein.
-
13. Januar 2007 um 18:01 Uhr #659811klafertTeilnehmer
der gamestar artikel ist älter
der name war wohl klar die nächste generation wird auch wohl stat ati amd radeon X3XXX heißen ^^
naja ich warte bis zur veröffentlichung
-
20. Januar 2007 um 13:01 Uhr #661115steeveTeilnehmer
So bin wieder auf einige infos über R600 gestoßen. AMD hat vier verschiedene PCB-layouts gefertigt für verschiedene modelle. Bis jetzt ist bekannt, dass es drei karten geben wird: X2200, X2400, X2800.
Die stärkste karte wird X2800XTX sein und ist 30cm lang. Sie wird wahrscheinlich zwei 6-pin-anschlüsse haben wie die 8800GTX. Dann:
– 1GB GDDR4
– 512 Bit speicheranbindung
– 2.4GHz speichertakt [1.2GHz real]
– 153.6 GB/s speicherbandbreite [8800GTX – 86.4 GB/s]Dann wird es eine X2800XT geben. Die ist fast die gleiche wie die XTX. Sie wird viel kompakter sein und wird 22cm lang sein. Dann:
– die taktraten werden nur bisschen niedriger sein
– 512MB GDDR4Dann wird es auch eine X2800XL geben. Die PCB wird gleich lang sein, aber wird anderes layout haben, nicht das gleiche wie XT-variante. Die taktraten werden durchschnittlich sein. Diese karte wird auch an die OEMs geliefert.
Und die X2800GT wird auch nicht fehlen. Das werden dann wie immer die karten, bei denen der “halb-kaputte” XT-chip verbaut wird. Auch da wird eine andere PCB benutzt. Und bei der karte wird GDDR3 verbaut und nicht GDDR4 wie bei den anderen.
Dazu wurde noch gesagt, dass die karten, die für den professionellen markt hergestellt werden [FireGL], mit 2GB VRAM speicher bestückt werden.
[SIZE=”1″][Quelle: theinquirer.net][/SIZE]
-
22. Januar 2007 um 14:01 Uhr #661373steeveTeilnehmer
Es gibt wieder mal interne news:R600 hat ein neues stepping [vr-zone.com] bekommen [A15] mit dem man 1GHz taktrate für die GPU erreichen kann, altes stepping was A12.Die karte X2800 kommt am 8. märz raus, also ungefähr in einem monat und 1-2 wochen.Irgendwo sommer-herbst kommt dann der refreshchip R680 mit der bezeichnung X2850. Bei der karte wird die GPU noch höher getaktet als 1GHz.
-
22. Januar 2007 um 15:01 Uhr #661383steeveTeilnehmer
Mich interessiert der stromverbrauch. Und wie die mittelklassekarten aussehen werden [leistung, stromverbrauch]. Aber wenn man sich letzte zwei posts von mir anschaut, hat man ein sehr sicheres gefühl, dass diese runde wieder an ATI geht.Abwarten :kaffee:Ich persönlich werde aber höchstwahrscheinlich jetztige generation überspringen, da die nächste generation absolut anders aussehen wird. Es wird keine ultrastarke GPUs mehr geben, sondern eine und je nach leistungklasse wird es unterschiede in der zahl dieser GPUs geben [G90 und R700].Bei AMD war die rede von 1,4,8,16 kerne für einsteiger [z.b 1 kern für surfrechner], mittelklasse bis untere oberklasse [4 bzw 8 kerne für gelegnheitsspieler und spieler die nicht viel ausgeben wollen] und die oberklasse [für die hardcorespieler sozusagen].
-
22. Januar 2007 um 15:01 Uhr #661379klafertTeilnehmer
i wanna see pics
der kerl hat meine wünsche erfasst^^
8. märz ist ja noch relativ passabel wenn schon von april die rede war^^
aber sehr interressant
-
22. Januar 2007 um 16:01 Uhr #661387BudshTeilnehmer
Ich warte auch schon sehr gespannt auf ATI’s R600 und deren Preis!
Aber auch eine mögliche 8600GT oder Ultra wäre sehr interessant für mich..!Ich humpel derzeit wieder mit ner 6600GT durch’s leben… =)
Bleibt nur: warten…warten…warten… *schnarch*
-
22. Januar 2007 um 16:01 Uhr #661397PattyTeilnehmer
die benchmarks sehen schonmal nicht schlecht aus, die oben genannten daten klingen vielversprechend! 🙂
leistung/stromverbrauch würden mich auch sehr interessieren. -
22. Januar 2007 um 17:01 Uhr #661402vampTeilnehmer
steeve;199373 said:
So bin wieder auf einige infos über R600 gestoßen. AMD hat vier verschiedene PCB-layouts gefertigt für verschiedene modelle. Bis jetzt ist bekannt, dass es drei karten geben wird: X2200, X2400, X2800.Die stärkste karte wird X2800XTX sein und ist 30cm lang. Sie wird wahrscheinlich zwei 6-pin-anschlüsse haben wie die 8800GTX. Dann:
– 1GB GDDR4
– 512 Bit speicheranbindung
– 2.4GHz speichertakt [1.2GHz real]
– 153.6 GB/s speicherbandbreite [8800GTX – 86.4 GB/s]Dann wird es eine X2800XT geben. Die ist fast die gleiche wie die XTX. Sie wird viel kompakter sein und wird 22cm lang sein. Dann:
– die taktraten werden nur bisschen niedriger sein
– 512MB GDDR4Dann wird es auch eine X2800XL geben. Die PCB wird gleich lang sein, aber wird anderes layout haben, nicht das gleiche wie XT-variante. Die taktraten werden durchschnittlich sein. Diese karte wird auch an die OEMs geliefert.
Und die X2800GT wird auch nicht fehlen. Das werden dann wie immer die karten, bei denen der “halb-kaputte” XT-chip verbaut wird. Auch da wird eine andere PCB benutzt. Und bei der karte wird GDDR3 verbaut und nicht GDDR4 wie bei den anderen.
Dazu wurde noch gesagt, dass die karten, die für den professionellen markt hergestellt werden [FireGL], mit 2GB VRAM speicher bestückt werden.
[SIZE=”1″][Quelle: theinquirer.net][/SIZE]
Die genannte Werte klingen viel zu gut um wahr zu sein
-
22. Januar 2007 um 17:01 Uhr #661403r00tTeilnehmer
für fast das doppelte an speicherbandbreite sind die benchmarks aber schon ernüchternd!aber gut wer weis schon ob die benchmarks 100%ig richtig sind!
-
22. Januar 2007 um 17:01 Uhr #661405L!B3RTYTeilnehmer
aber gut wer weis schon ob die benchmarks 100%ig richtig sind!
vllt. so ähnlich wie bei den ersten C2D Benches, wer weiss…..
Und in Bezug auf die Speicherbandbriete, dass hängt dann ganz davon ab wie gut die Treiber optimiert sind und welche Anwendungen abgearbeitet werden….
-
22. Januar 2007 um 18:01 Uhr #661420klafertTeilnehmer
die bandbreite kann ja auch heißen das bei 100 gb/s maximun erreicht ist bei den benches und 53gb ungenutzt bleiben….
die c2d benchmarks vom idf waren auch richtig….
naja für mich wäre eine 2800 xt spannend …kommt voll auf den mehrpreis für den doppelten speicher an
-
22. Januar 2007 um 20:01 Uhr #661452vampTeilnehmer
Spicy_Ice;200019 said:
HalloDas sieht ja wirklich gut aus bis jetz,aber erst mal abwarten was kommt.Was mich allerdings wundert.Ein ATI Crossfire Gespann ist in machnen Benches schneller wie ne 8800GTX.Das find ich schon lustig.Will nicht wissen wie die 2800XTX im Crossfiremodus abgeht^^.
Gruß Spicy
😮 wieso ist das lustig wenn 2 GK schneller sind als 1 ? Ausserdem sind die Treiber für die 8te Reihe auch alles andere als gut. Desweiteren setzt Nvidia diesmal nicht auf die “simple” Technik von gestern an, sondern auf Shader 4.0 und das kommt doch erst 😉
-
22. Januar 2007 um 20:01 Uhr #661441Spicy_IceTeilnehmer
Hallo
Das sieht ja wirklich gut aus bis jetz,aber erst mal abwarten was kommt.Was mich allerdings wundert.Ein ATI Crossfire Gespann ist in machnen Benches schneller wie ne 8800GTX.Das find ich schon lustig.Will nicht wissen wie die 2800XTX im Crossfiremodus abgeht^^.
Gruß Spicy
-
22. Januar 2007 um 21:01 Uhr #661456Spicy_IceTeilnehmer
Hallo
Ich weiss nicht was mit den 8800 Treibern sein soll ^^.Ich fahre solche Sachen leider nicht auf meinem System.Und eine sagenhaft neue Karte wird von 2 älterern in nem Benchmark versägt wundert mich halt schon.Da ist ja ältere Technik drin.Naja egal
Irgendwo gabs mal nen Benchmark von einem Spiel,da war sogar eine X1950 schneller als die GTX.Das hatte mich echt gewundert,aber was solls.Mir schnuppe.Solangs ich gescheit damit spielen kann.kann se noch so schnell sein ^^
Gruß SPicy
-
22. Januar 2007 um 21:01 Uhr #661468klafertTeilnehmer
der g80 ist wegen der gpu so schnell unified shader und einige viele neuerungen
in manchen benchmarks ist halt ein cf verbund noch etwas besser ausgenutzt als eine 8800 gtx…
-
22. Januar 2007 um 21:01 Uhr #661461vampTeilnehmer
Na du denkst dir aber Sachen aus, 1950 schneller als 8800GTX 🙄
Und die X1950XTX ist gar nicht alt. August oder September ist der Monat in dem die Karte erschienen ist und im Vergleich zu 8 Dezember (8800) sind es gerade mal 2-3 Monate 😉
-
22. Januar 2007 um 21:01 Uhr #661469vampTeilnehmer
Ja, und das liegt eben an den Treibern. Die X19XXX Serie ist ja schon länger auf dem Markt.
-
22. Januar 2007 um 21:01 Uhr #661465vampTeilnehmer
Die 8800GTX/GTS ist nicht des Speichers wegen so schnell 😉
-
22. Januar 2007 um 21:01 Uhr #661464Spicy_IceTeilnehmer
Hallo Vamp
Ok da hab ich mich geirrt habe die Seite gefunden.Da ist die X1950 im CF verbund ^^,war doch ned einzelnUnd alt im dem Sinne das die Technik die verbaut ist älter ist wie die in der GTX.Obwohl der Speicher ja besser ist wie bei der GTX ^^
Isch werde warten und Tee trinken
Gruß Spicy
-
23. Januar 2007 um 17:01 Uhr #661560klafertTeilnehmer
ich mein welches spiel braucht schon eine bandbreite von 153gb/s???
das ist wahnsinnnaja wie eine strucktur ausgenutzt wird liegt schon am treiber für das jeweilige spiel
ich denke das bei der g80 auch noch so min 10% mehrleistung drin sind
das wird beim r600 auch so sein -
23. Januar 2007 um 21:01 Uhr #661615braeterTeilnehmer
März/Cebit is doch bekannt gewesen?Is mir grad recht 😀
-
23. Januar 2007 um 21:01 Uhr #661613L!B3RTYTeilnehmer
die c2d benchmarks vom idf waren auch richtig….
die aus den Zeitschriften waren aber anders als die vom idf, so war das gemeint…
-
23. Januar 2007 um 21:01 Uhr #661612vampTeilnehmer
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/januar/atis_radeon_x2k_8_maerz/
Wie zu erwarten war, kommt die neue GK wesentlich später raus
-
24. Januar 2007 um 23:01 Uhr #661830braeterTeilnehmer
steeve;200464 said:
Auf dem ersten blick, vielleicht weil die qualität der bilder nicht so gut ist, merkt man die unterschiede nicht. Aber wenn man sich die bilder bisschen besser anschaut, merkt man schon, dass das obere bild besser aussieht.Beim ersten Bild muss ich der versuchung wiederstehn meinem Moni die Zunge reinzuschieben. 😀
Da schreibst du von “bisschen”.
Das is n unterschied wie tag und nacht in meinen Augen.
-
24. Januar 2007 um 23:01 Uhr #661772steeveTeilnehmer
Im netz findet man mittlerweile auch ein bild einer demo, die zeigt was R600 kann:R600 – DX10[SIZE=”1″][Bildquelle: pcgh.de][/SIZE]X1800/X1900 – DX9[SIZE=”1″][Bildquelle: pcgh.de][/SIZE]Auf dem ersten blick, vielleicht weil die qualität der bilder nicht so gut ist, merkt man die unterschiede nicht. Aber wenn man sich die bilder bisschen besser anschaut, merkt man schon, dass das obere bild besser aussieht.
-
24. Januar 2007 um 23:01 Uhr #661832HoästTeilnehmer
braeter;195184 said:
.
Kentsfield und R600 Träum Träum …. so n prolliges Sys das jeder vernunft trotzt 😀Aber jeder sich die Finger nach leckt. Sabber Sabber auch haben will^^
-
25. Januar 2007 um 0:01 Uhr #661837steeveTeilnehmer
braeter said:
steeve said:
Auf dem ersten blick, vielleicht weil die qualität der bilder nicht so gut ist, merkt man die unterschiede nicht. Aber wenn man sich die bilder bisschen besser anschaut, merkt man schon, dass das obere bild besser aussieht.Beim ersten Bild muss ich der versuchung wiederstehn meinem Moni die Zunge reinzuschieben. :DDa schreibst du von “bisschen”.Das is n unterschied wie tag und nacht in meinen Augen.
Ja, ich meinte aber bisschen besser das bild anschauen und nicht, dass das bild bisschen besser aussieht. ;)Das bild mit dem DX10-effekt sieht einfach klasse aus. Das bild hat mich sogar mehr umgehaut als die demo von diesem modell die vom G80 dargestellt wurde.Jetzt bin ich noch mehr auf ein leistungvergleich R600 vs G80 gespannt.Nur noch ein monat und einige tage :kaffee:
-
25. Januar 2007 um 0:01 Uhr #661838braeterTeilnehmer
Ja is mir schon klar.Schau dir die Lippen und das glänzen an.Das untere Pic ist wohl mit ner anderen Helligkeitseinstellung gemacht worden, würde aber nie an den Glanz und das Feine der R600 rankommen.Das Detail is deutlich besser. Das Muttermal is viel natürlicher.Schade das auf unterem Bild der Kragen nicht zu sehn ist. Das würds viel deutlicher machen.
-
25. Januar 2007 um 0:01 Uhr #661839steeveTeilnehmer
braeter said:
Das Detail is deutlich besser. Das Muttermal is viel natürlicher.Auf jeden fall. Ich hoffe was die grafik angeht, dass Crysis erst der anfang ist. 😉
-
25. Januar 2007 um 14:01 Uhr #661875ThomasTeilnehmer
braeter;200486 said:
Schade das auf unterem Bild der Kragen nicht zu sehn ist. Das würds viel deutlicher machen.
Der Kragen?
Ich hät nichts dagegen, wenn das Bild erst ‘ne ganze Ecke südlicher enden würde… -
25. Januar 2007 um 17:01 Uhr #661885steeveTeilnehmer
klafert said:
hallo das obere grenzt fast an fotorealismus! ein bisschen besser tztztzNochmal. Ich meinte bisschen besser das obere bild anschauen und nicht, dass das bild bisschen besser aussieht. 😉
Käsetoast said:
Ich nehme einfach mal an, dort wurde die “Radeon Frau” aus der DX9-Demo mit einer neuen aus einer neuen DX10-Demo verglichen. Über die Mehrleistung des R600 würde das nicht viel Aussagen…Sie heißt Ruby. Keiner hat von der leistung gesprochen, auf den beiden bildern wird nur die bildqualität verglichen bzw DX9 -> DX10 effekt.
-
25. Januar 2007 um 17:01 Uhr #661884KäsetoastTeilnehmer
Halte die Bilder doch für arg fragwürdig und würde sogar sagen, dass die Darstellung der X1900er Karten hier doch absichtlich zurückgedrosselt wurde. Außerdem zeigen sie doch gar nicht dasselbe, oder? Zum Einen fehlt unten der Federkragen und auf dem angeblichem DX9 bild, hat die Frau links neben der Nase noch zwei kleine Muttermale, die sich im DX10 Bild nicht mehr wiederfinden…
Ich nehme einfach mal an, dort wurde die “Radeon Frau” aus der DX9-Demo mit einer neuen aus einer neuen DX10-Demo verglichen. Über die Mehrleistung des R600 würde das nicht viel Aussagen…
Mahlzeit
Käsetoast -
25. Januar 2007 um 17:01 Uhr #661883klafertTeilnehmer
geht hier um die karte und die grafik die sie erzeugt
net um welche tuse es sich handelt ….
hallo das obere grenzt fast an fotorealismus! ein bisschen besser tztztz
-
25. Januar 2007 um 17:01 Uhr #661890KäsetoastTeilnehmer
steeve;200558 said:
Käsetoast said:
Ich nehme einfach mal an, dort wurde die “Radeon Frau” aus der DX9-Demo mit einer neuen aus einer neuen DX10-Demo verglichen. Über die Mehrleistung des R600 würde das nicht viel Aussagen…Sie heißt Ruby. Keiner hat von der leistung gesprochen, auf den beiden bildern wird nur die bildqualität verglichen bzw DX9 -> DX10 effekt.
Vielleicht schlecht ausgedrückt – du sprachst davon, dass das Bild zeigt, was der R600 kann. Der Vergleich ist aber ziemlich unsinnig, da beide Bilder offensichtlich zwei verschiedene Demos zeigen (eben einmal die schon bekannte Demo und eben einmal eine neue, die zum Präsentieren der neuen Serie dient). Somit kann man also nicht sagen, inwiefern der R600 mit seinen DX10 Effekten mehr zu leisten im Stande ist -> Mehrleistung…
Bevor man sich nun ein Urteil über die Vorzüge der neuen Karte erlaubt, sollte man vielleicht erstmal auf Bilder warten, die auch dasselbe zeigen… 😉
Mahlzeit
Käsetoast -
25. Januar 2007 um 20:01 Uhr #661933klafertTeilnehmer
doch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00
die dx9 effekte werden auch genutzt beim zweiten bild…
sie verblassen nur im vergleich zu dx10 und sm4
das bild zeigt auch was der r600 drauf hat und zwar bildqualitättechnisch
es steht auch nirgendwo was von mehrleistung mit fps…
was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehen
allerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen können
hmm grad ma gefunden ob man das glauben soll ka…
-
25. Januar 2007 um 20:01 Uhr #661943braeterTeilnehmer
hmm dann wär n neues Case fällig… :DDa kann ich n Mod/Umbau ja gleich einstellen…
-
25. Januar 2007 um 20:01 Uhr #661939DeimhalTeilnehmer
Habe grad bei PCGH gelesen, dass das Topmodel eine Länge von 34cm haben soll. 😡
-
25. Januar 2007 um 20:01 Uhr #661948BörniTeilnehmer
braeter;200633 said:
hmm dann wär n neues Case fällig… 😀
Da kann ich n Mod/Umbau ja gleich einstellen…nene, da warte ich lieber auf 8900GTX
-
25. Januar 2007 um 20:01 Uhr #661941BörniTeilnehmer
tja, das würde gerade einmal (2cm restplatz) in meinen SERVERTOWER addtronics CL7220A reinpassen! in dem selbst ein E-ATX board platz hat(www.addtronics.com)
-
25. Januar 2007 um 20:01 Uhr #661938BörniTeilnehmer
das ist ja das beste für midi und barebone gehäuse, ich glaub die 8800 is kürzer, oder?
-
25. Januar 2007 um 20:01 Uhr #661944KäsetoastTeilnehmer
klafert;200620 said:
doch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00die dx9 effekte werden auch genutzt beim zweiten bild…sie verblassen nur im vergleich zu dx10 und sm4das bild zeigt auch was der r600 drauf hat und zwar bildqualitättechnisches steht auch nirgendwo was von mehrleistung mit fps…was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehenallerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen könnenDas Problem an dem Ganzen ist nur, dass es (ziemlich offensichtlich) nicht dieselbe Demo zeigt, weshalb man das nicht vergleichen kann. Das Einzige, das man sicher sagen kann ist, dass die neue R600er Demo sehr schick aussieht, doch wie sie sich im Fallback Modus schlägt, darüber lässt sich höchstens spekulieren. Wäre genau dasselbe, als wenn ich sagen würde: Boah guck’ mal hier: Das kann der R600!(http://www.computerbase.de/bild/news/15645/7/)Und hier nun das DirectX9 Bild:(http://www.computerbase.de/bild/news/10826/4/)Sieht man doch schön wie geil der neue R600 und DirectX10 ist, nicht war? :ironie:Von fps habe ich übrigens auch gar nicht geredet… :tongue:EDIT:Habe jetzt auch mal den Artikel bei der PCGH gelesen und meine Augen haben sich nicht getäuscht – das DX9 Bild zeigt tatsächlich die alte Ruby Demo…MahlzeitKäsetoast
-
25. Januar 2007 um 20:01 Uhr #661950vampTeilnehmer
klafert;200620 said:
….
hmm grad ma gefunden ob man das glauben soll ka…
Sieht ja wie G80 aus, mit RadialLüfter
Börni;200638 said:
braeter;200633 said:
hmm dann wär n neues Case fällig… 😀
Da kann ich n Mod/Umbau ja gleich einstellen…nene, da warte ich lieber auf 8900GTX
Besser auf die 9900GTX warten 🙄 Mal im ernst, die Argumentation kann man zu jeden Zeitpunkt und auf fast jedes Hardwareteil übertragen 😉
-
25. Januar 2007 um 21:01 Uhr #661959DeimhalTeilnehmer
Genau, mit einem CEE Stecker.
-
25. Januar 2007 um 21:01 Uhr #661955BörniTeilnehmer
vielleicht könnte man Computer jetz auf Wechsel oder Drehstrombasis bauen??
-
25. Januar 2007 um 21:01 Uhr #661969klafertTeilnehmer
wer meint die 8800gtx ist sparsamer als die ati
dann hat man sich getäuscht also 30w….
ich habe auch gesagt hobbys müssen nicht vernünftig sein
(wer auf strom achtet darf sich beide nicht kaufen…)will man darauf hinaus diese mal sli fähig zu machen sollte man nen nforce 5 chip mb haben^^
und über den stromverbrauch eines mainboards dieser klasse im gegensatz zum amd rx580 wollen wir nicht reden
zur länge GENIAL
hinten heiße luft raus und vorne kann er sich die kalte luft holn^^
pc auf wechselstrom ist auch ent schlecht
doppelte taktraten^^
käsetoast
doch klar sieht man da wie die bildquali sich mit dx10 und sm 4 verbessert -
25. Januar 2007 um 21:01 Uhr #661952Spicy_IceTeilnehmer
Hallo
Die Bilder die Käsetoast gezeigt hat ,zeigen auch viel Glanz.SIe wollen es so realistisch wie möglich machen.Aber meine Herren.Wer von euch hat den nen pieko bello Dschungel schonmal gesehen.Wo glänzt da so ein Blatt wie ein Spiegel.Wenn so realistisch dann aber bitte mit Staub auf den Blätter ^^Gruß Spicy
-
25. Januar 2007 um 21:01 Uhr #661953PoweruserTeilnehmer
…und da haben sich alle augeregt, als mit der Geforce fx5800 zum ersten mal ein richter Föhn ins Case kam 😡
Ich finde die prognistizierten Stromverbrauchswerte allerdings auch schon ziehmlich heftig – Leistung hin oder her, da muss denen langsam mal was einfallen. Intel hat den NetburstP4 ja auch eingestellt, als der Stromhunger in keiner vernünftigen Relation zur erzielten Mehrleistung stand.
-
25. Januar 2007 um 21:01 Uhr #661963steeveTeilnehmer
Poweruser said:
Intel hat den NetburstP4 ja auch eingestellt, als der Stromhunger in keiner vernünftigen Relation zur erzielten Mehrleistung stand.Mit dem jetztigen quadcore-prozessor von Intel [z.b. Q6600] kommt man wieder in diese bereiche wo der alte Prescott war [bei Intel: quadcore=2xdualcore].Und stromverbrauch bei der X2800er wird sich im bereich zwischen 200W-230W bewegen. Für die ultra-hardcore-gamer ist das eigentlich unwichtig, da die jetztige 8800GTX auch bis zu 200W frisst und wenn die X2800 220W verbraucht, dann sind die 20W auch nicht die welt.Ich werde auf jeden fall, wie schon einige male erwähnt, diese generation überspringen und die übernächste abwarten, die auf multi-GPU basiert. Und natürlich da werde ich erst zugreifen, wenn die karten wieder unter 100W verbrauchen.[SIZE=”1″][Bildquelle: computerbase.de][/SIZE]Das bild stellt die X2800 in der ausführung dar, die für workstations hergestellt wird, sie wird 30cm lang sein [8800GTX = 28cm]. Die X2800 für desktopbereich wird andere kühllösung haben und wird 23cm lang sein.Also bevor infos verbreitet werden, richtig informieren und nachprüfen, falls möglich. 😉
-
25. Januar 2007 um 21:01 Uhr #661956PoweruserTeilnehmer
Im Sommer wirds sicherlich lustig mit dem R600 an Board 😉
@Drehstrom: Ca 4500W~ kommen aus der Steckdose… Allerdings kann man dann nurnoch bei geöffnetem Fenster arbeiten 😉
-
25. Januar 2007 um 22:01 Uhr #661985klafertTeilnehmer
doch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00
die dx9 effekte werden auch genutzt beim zweiten bild…
sie verblassen nur im vergleich zu dx10 und sm4
das bild zeigt auch was der r600 drauf hat und zwar bildqualitättechnisch
es steht auch nirgendwo was von mehrleistung mit fps…
was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehen
allerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen können
-
25. Januar 2007 um 22:01 Uhr #661991steeveTeilnehmer
klafert said:
doch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00die dx9 effekte werden auch genutzt beim zweiten bild…sie verblassen nur im vergleich zu dx10 und sm4das bild zeigt auch was der r600 drauf hat und zwar bildqualitättechnisches steht auch nirgendwo was von mehrleistung mit fps…was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehenallerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen könnenHabs ich so einen post schon mal gelesen oder habe ich nur so ein gefühl? : / 😀 Aber die aussage stimmt so nicht ganz …
-
25. Januar 2007 um 22:01 Uhr #661972DeimhalTeilnehmer
steeve;200659 said:
Also bevor infos verbreitet werden, richtig informieren und nachprüfen, falls möglich. 😉
Also, wenn du meinen Post meinst, bitte http://www.vr-zone.com
Von der selben Seite wie dein Foto. -
25. Januar 2007 um 22:01 Uhr #661975steeveTeilnehmer
Deimhal said:
Also, wenn du meinen Post meinst, bitte http://www.vr-zone.comVon der selben Seite wie dein Foto.Ich meinte nicht deinen post. Ich habs nur gesagt, welche graka das genau ist, weil hier wurde nur das bild gepostet und daüber stand R600, also falsch, weil das die workstation version ist. Das bild habe ich aber noch vor mehreren wochen irgendwo im netz gefunden mit den wenigen infos die ich in einem der letzten posts bereits gepostet habe.
-
25. Januar 2007 um 22:01 Uhr #661977DeimhalTeilnehmer
Ach so. Hab wohl falsch verstanden. Sry. :+
-
25. Januar 2007 um 23:01 Uhr #661997KäsetoastTeilnehmer
klafert;200665 said:
käsetoast
doch klar sieht man da wie die bildquali sich mit dx10 und sm 4 verbessertWie du das ohne DX9 Vergleichsbild feststellen willst ist mir schleierhaft… 😀
klafert said:
doch es zeigt welche grafischen fähigkeiten die x2x00 hat im gegensatz zur x1x00die dx9 effekte werden auch genutzt beim zweiten bild…
sie verblassen nur im vergleich zu dx10 und sm4
[…]
was erwartest du davon ein dx9 bild auf der karte zu sehen -.- das wird nichts bringen dx9 ruby wird auf r500 optimiert sein und auf dem r600 nicht besser aussehen
allerdings wirst du dx10 ruby nicht auf einer dx9 karte sehen können
Ich glaube du überschätzt DX10 da etwas… 😉
Was wir auf dem neuem Demo-Bild zu sehen bekommen ist hauptsächlich Kunst at its Best: Ein schöner Mesh mit hervorragenden Texturen. Was man da von DX10 sieht wird hauptsächlich das tolle HDR sowie je nachdem ein paar Vertex Progrämmchen, die die Federn sich bewegen lassen (was man auf dem Bild natürlich nicht sieht) sein…“Die Ruby auch auf einer DirectX9-Karte zu sehen” ist kein Problem: Mesh, Color-Map, Specular-Map, Env-Map (falls vorhanden) und auch Normal bzw. Relief-Map wird man 1:1 übernehmen können. Auszutauschen wäre je nachdem die Art des Normal / Parallax / Relief Shaders (je nachdem was da genutzt wird) und je nach Bedarf auch bei den restlichen Shader-Routinen. Nicht ganz so gute Resultate wird man wohl bei er Beleuchtung und eben der sich bewegenden Federn (falls sie das wirklich tun) erhalten – ansonsten gibt es mit dem auf dem Bild gezeigtem Inhalt auch auf DX9 Karten keinerlei Probleme – die üblichen Fallback Methoden halt wie sie bei Crysis kommen werden und wie man sie bisher ja auch schon oft genug zwischen SM3, SM2 und SM1 gesehen hat…
Mahlzeit
Käsetoast -
26. Januar 2007 um 7:01 Uhr #621543BudshTeilnehmer
da werde ich erst zugreifen, wenn die karten wieder unter 100W verbrauchen….
…hab hier noch ne 9500er rum liegen, kannst gerne haben wenn du willst 🙂 ne war nen schertz…
Glaub aber ehrlich gesagt auch nicht drann, dass die nächste bzw. übernächste Gen Grakas weniger als 100W verbraucht.
Wäre aber löblich! Back to the roots!!!! =) -
26. Januar 2007 um 7:01 Uhr #621541vampTeilnehmer
steeve;200659 said:
…
Ich werde auf jeden fall, wie schon einige male erwähnt, diese generation überspringen und die übernächste abwarten, die auf multi-GPU basiert. Und natürlich da werde ich erst zugreifen, wenn die karten wieder unter 100W verbrauchen….:-k 😡 😀
-
26. Januar 2007 um 12:01 Uhr #659804KäsetoastTeilnehmer
Nun ja – zumindest ATI hat ja gesagt in Zukunft auf den Stromverbrauch deutlich mehr Wert zu legen als jetzt und mit dem mehrkernigem Aufbau sollten ja zumindest im Idle schonmal geringe Leistungsaufnahmen garantiert sein… 😉
Ansonsten finde ich die 100 Watt-Grenze gar nicht sooo unrealistisch, wenn der Verbrauch in Zukunft denn auch tatsächlich zurückgeht und man nicht unbedingt die supertollste XTX / GTX Karte braucht, sondern auch mit dem gehobenem Mittelfeld zufrieden ist…
Mahlzeit
Käsetoast -
26. Januar 2007 um 13:01 Uhr #636143klafertTeilnehmer
es komtm ja noch 45 nm also den stromverbrauch bekommen die auch noch in den griff
-
26. Januar 2007 um 14:01 Uhr #649106vampTeilnehmer
Die GPU der G80 hat doch mehr als das doppelte Anzahl an Transistoren als die beiden Kerne der C2D zusammen. Dazu kommt noch der Speicher und die Spannungswandler.
Also denk ich mal kann man die Werte der CPU nicht mit der der GK vergleichen 😉ps: Desweiteren ist die Grafikleistung/Watt bei 8800GTX nicht schlechter ist als die der 1950XTX oder 7900GTX.
-
26. Januar 2007 um 18:01 Uhr #662035steeveTeilnehmer
vamp said:
steeve said:
…Ich werde auf jeden fall, wie schon einige male erwähnt, diese generation überspringen und die übernächste abwarten, die auf multi-GPU basiert. Und natürlich da werde ich erst zugreifen, wenn die karten wieder unter 100W verbrauchen….:-k 😡 😀
😮 😀
Budsh said:
ich werde erst zugreifen, wenn die karten wieder unter 100W verbrauchen….
…hab hier noch ne 9500er rum liegen, kannst gerne haben wenn du willst 🙂 ne war nen schertz…
Aber mit moderater leistung. ^^Grafikkarten mit der leistung einer X1950XT [die verbraucht bisschen über 100W] oder stärker, die weniger als 100W verbrauchen, sind schon machbar. Deswegen muss man, zum glück, nicht zu einer 9500 zugreifen. 😉 ^^
-
26. Januar 2007 um 23:01 Uhr #662080klafertTeilnehmer
vamp und du denkst jetzt das die ati karte mit 20 w mehrverbraucht und laut den benches 20% mehrleistung net auf ein gleiches watt /fps verhältnis kommt?
-
30. Januar 2007 um 20:01 Uhr #662819DeimhalTeilnehmer
http://www.pcgameshardware.de/?article_id=551761Ein Foto von einem R600 Kühler. Ein sehr langes Stück.
-
30. Januar 2007 um 20:01 Uhr #662821steeveTeilnehmer
Deimhal said:
http://www.pcgameshardware.de/?article_id=551761
Ein Foto von einem R600 Kühler. Ein sehr langes Stück.
[SIZE=”1″][Bildquelle: pcgameshardware.de][/SIZE]Die komplette karte wird schon echt lang sein, wenn das bild stimmt. Aber man kann schon sehen [unten-links in der ecke], dass die karte an sich [PCB] deutlich kürzer ist.
-
31. Januar 2007 um 6:01 Uhr #662898klafertTeilnehmer
ich denk ma das da wo sonst der lüfter gesessen hat aufm pcb sind nun teile die gekühlt werden müssen (spawas)
-
4. Februar 2007 um 9:02 Uhr #663619DeimhalTeilnehmer
Ein verschwommenes Foto von der R600 Karte.
[[SIZE=”1″]quelle: http://www.pcgameshardware.de[/SIZE%5D%5DDas man so viel spekulieren muss.:roll: Es kommt so, nein es kommt so.
Und dann ein Foto vom Kühler und dann eins, welches verschwommen ist.Bring die verdammte Karte raus.x(
😀
-
4. Februar 2007 um 11:02 Uhr #663625klafertTeilnehmer
na ist doch ganz klare taktik
die ham die karte und bringen für jedes foto das die bringen neue leute auf die site die sich das anschaun und machen damit durch werbung geld…
allerdings kann man schon was erkennen
heatpipe kühlung die bis auf den lüfter ger gforce ähnelt
dual slot2 mal 6er pci e anschluss
-
5. Februar 2007 um 8:02 Uhr #663817BudshTeilnehmer
Sorry aber ich erkenn da irgendwie gar nischt…
Ich finde diese “Heckspoiler” -Variante des neuen Kühlers für den R600 aber nicht wirklich klasse, ihr?
-
5. Februar 2007 um 13:02 Uhr #663845klafertTeilnehmer
der spoiler kann glaub ich an der anderen seite festgemacht werden (frag mich net wie^^) zumindest hab ich das ma wo gelesen
-
5. Februar 2007 um 14:02 Uhr #663850-666-Teilnehmer
ist ja ein gewaltiges Teil der Kühler:o gefällt mir so jetzt nicht unbedingt
-
5. Februar 2007 um 17:02 Uhr #663880klafertTeilnehmer
hmm wakü druff plastik weg und fertich ^^
in was für einem forum sind wir hier denn^^
-
5. Februar 2007 um 18:02 Uhr #663892steeveTeilnehmer
-666- said:
ist ja ein gewaltiges Teil der Kühler:o gefällt mir so jetzt nicht unbedingtDas stimmt. Ich würde aber lieber abwarten. Die seite von welcher das bild stamm [vr-zone], ist schon für leichte neigungen zu nvidia bekannt.
Was ich bis jetzt gelesen habe [habs auch hier gepostet] ist, dass diese besonders lange version der X2800 nicht für desktopmarkt gedacht ist. Es kann aber natürlich auch passieren, dass genau diese karte doch im einzelhandel erscheint…
:kaffee:
-
5. Februar 2007 um 19:02 Uhr #663910klafertTeilnehmer
jo mittlerweile gibt es so viele verschiedene spezifikationen die aufgetaucht sind da ist man echt verwirrt
AMD BITTE BEREITET DEM EIN ENDE MIT EURER PRÄSENTATION
31 tage noch
-
5. Februar 2007 um 22:02 Uhr #663945-666-Teilnehmer
steeve;203040 said:
-666- said:
ist ja ein gewaltiges Teil der Kühler:o gefällt mir so jetzt nicht unbedingtDas stimmt. Ich würde aber lieber abwarten. Die seite von welcher das bild stamm [vr-zone], ist schon für leichte neigungen zu nvidia bekannt.
Was ich bis jetzt gelesen habe [habs auch hier gepostet] ist, dass diese besonders lange version der X2800 nicht für desktopmarkt gedacht ist. Es kann aber natürlich auch passieren, dass genau diese karte doch im einzelhandel erscheint…
:kaffee:
mal abwarten was im märz ist wenn es die karte zu kaufen gibt
-
5. Februar 2007 um 22:02 Uhr #663936KäsetoastTeilnehmer
Was ich mich bei den Grafikkarten weiterhin frage ist, wieso die immer länger und teils auch höher werden, doch über übliche 80mm (also 75mm) Lüfter nie hinauskommen. Ich meine ich will ja keinen extravaganten 120er auf einer Karte sehen (naja – eigentlich schon 😉 ), aber ein 92er sollte doch problemlos realisierbar sein, ohne hier mehr Einschränkungen in Kauf zu nehmen, als durch die Länge sowieso schon bedingt…
Das würde Kühlleistung bzw. Lautstärke durchaus positiv beeinflussen…
Mahlzeit
Käsetoast -
5. Februar 2007 um 22:02 Uhr #663947NeronAdministrator
-666-;203111 said:
steeve;203040 said:
[QUOTE=-666-]ist ja ein gewaltiges Teil der Kühler:o gefällt mir so jetzt nicht unbedingtDas stimmt. Ich würde aber lieber abwarten. Die seite von welcher das bild stamm [vr-zone], ist schon für leichte neigungen zu nvidia bekannt.
Was ich bis jetzt gelesen habe [habs auch hier gepostet] ist, dass diese besonders lange version der X2800 nicht für desktopmarkt gedacht ist. Es kann aber natürlich auch passieren, dass genau diese karte doch im einzelhandel erscheint…
:kaffee:
mal abwarten was im märz ist wenn es die karte zu kaufen gibt[/QUOTE]
und die richtigen Test rauskommen.
Wobei cih mich eig. immer mehr wundere. Klar ist Grafikleistung pur einfach Klasse, aber man Versucht bei den heutigen CPUs (siehe AMD EE oder C2D) die Verlustleistung zu reduzieren und bei den Grafikkarten wächste dieser wieder dazu.
Finds i wie ein wenig suboptimal …
-
6. Februar 2007 um 6:02 Uhr #663981McTrevorTeilnehmer
Was ich mich frage ist, warum die Karten immer größer werden… Die Dinger können ja schon gut mit Mainboards konkurrieren. Außerdem vergrößern sich doch auch die Signalwege, was bei den angepeilten Frequenzen ja auch schon kritisch werden kann. Das spricht eher für kleine Layouts…
Bis dann denn!
McTrevor
-
6. Februar 2007 um 6:02 Uhr #663984klafertTeilnehmer
na nen graka ist ja schon fast so aufgebaut wien mainboard
spawas stromstecker
Ram
und die gpu^^ -
9. Februar 2007 um 16:02 Uhr #664665BörniTeilnehmer
na geil. die karte auf dem bild ist eine 2800XTX und verbraucht 270W. bitte vorher lesen!zu dem stromverbrauch: ich dachte ich könnte mit meinem 460W enermax noch fahren, weil eine 8800GTX die ich von einem kumpel ausgeliehen habe problemlos auch auf vollast fährt, aber zu der, nein lieber nich, da kauf ich mir lieber G80
-
9. Februar 2007 um 16:02 Uhr #664657steeveTeilnehmer
Klick für neue news. ^^[SIZE=”1″][Quelle: pcgameshardware.de][/SIZE]Die retailversion der X2800 XTX wird 24cm lang sein. Sie wird GDDR4 besitzen und 240W fressen [zum vergleich: 8800GTX 200W].Eine X2800 XT für OEM [31cm]:[SIZE=”1″][Quelle: pcgameshardware.de][/SIZE]
-
9. Februar 2007 um 18:02 Uhr #664715klafertTeilnehmer
also vorher lesen @ börni genau^^
steeve hat gesagt das die retail version 240w fressen wird
das ist die die du einzeln kaufen kannstund dann steht da
ein bild einer x2800xtx für OEM
genau lesen
finde den stromverbrauch net schlimm und meinen wegen 40w ne g80 zu holen ist wohl mal besonders sinnfrei^^
-
9. Februar 2007 um 18:02 Uhr #664722KäsetoastTeilnehmer
Wenn die sich im Idle vernünftig runterfahren lässt, könnte man damit im Vergleich zum G80 sogar Strom sparen… \D/
Wobei ich die Werte vorerst mal nicht als endgültig ansehe – bevor ich nicht aus zuverlässiger Quelle eine Bestätigung dieses Wertes bekomme, bin ich noch skeptisch…
Mahlzeit
Käsetoast -
9. Februar 2007 um 20:02 Uhr #664750vampTeilnehmer
Käsetoast;203999 said:
Wenn die sich im Idle vernünftig runterfahren lässt, könnte man damit im Vergleich zum G80 sogar Strom sparen… \D/Wobei ich die Werte vorerst mal nicht als endgültig ansehe – bevor ich nicht aus zuverlässiger Quelle eine Bestätigung dieses Wertes bekomme, bin ich noch skeptisch…
Mahlzeit
KäsetoastDas würde nur was wirklich bringen wenn man die Spannung mit absenkt
-
9. Februar 2007 um 23:02 Uhr #664791KäsetoastTeilnehmer
vamp;204033 said:
Das würde nur was wirklich bringen wenn man die Spannung mit absenkt:-k
Sorry – verstehe dich nicht ganz. Das Problem bei den G80 Karten ist, dass eine Spannungsabsenkung wohl nicht vorgesehen war und die Karten daher auch im Idle noch sehr viel Strom schlucken. Habe zwar schon von ein paar Tricksereien gelesen, bei denen im Karten-BIOS was rumgeändert wurde, doch bislang scheinen die niedrigeren Spannungswerte nicht übernommen zu werden. Vor allem bei ATIs X1800er / X1900er Karten ließ sich das alles sehr schön per ATI-Tool rein über Software regeln – also sowohl Takt als auch Spannung ließ sich runterregeln (und zwar auch deutlich mehr als standardmäßig eingestellt). Daher meinte ich, dass trotz der zweifellos höheren Lastaufnahme des R600, dieser im Idle durchaus stromsparender sein könnte (es muss eben nur die bisherige Funktionalität beibehalten werden)…Mahlzeit
Käsetoast -
9. Februar 2007 um 23:02 Uhr #664792NeronAdministrator
Käsetoast;204078 said:
vamp;204033 said:
Das würde nur was wirklich bringen wenn man die Spannung mit absenkt:-k
Sorry – verstehe dich nicht ganz. Das Problem bei den G80 Karten ist, dass eine Spannungsabsenkung wohl nicht vorgesehen war und die Karten daher auch im Idle noch sehr viel Strom schlucken. Habe zwar schon von ein paar Tricksereien gelesen, bei denen im Karten-BIOS was rumgeändert wurde, doch bislang scheinen die niedrigeren Spannungswerte nicht übernommen zu werden. Vor allem bei ATIs X1800er / X1900er Karten ließ sich das alles sehr schön per ATI-Tool rein über Software regeln – also sowohl Takt als auch Spannung ließ sich runterregeln (und zwar auch deutlich mehr als standardmäßig eingestellt). Daher meinte ich, dass trotz der zweifellos höheren Lastaufnahme des R600, dieser im Idle durchaus stromsparender sein könnte (es muss eben nur die bisherige Funktionalität beibehalten werden)…Mahlzeit
Käsetoast:+ Stromsparend bei den Karten muss relativ gesehen werden 😀 Wenn die im Idle noch 100Watt verbrauchen ist das schon einiges 😉
-
10. Februar 2007 um 1:02 Uhr #664807BörniTeilnehmer
meine jetzige verbaucht bei vollast 50W….
-
10. Februar 2007 um 1:02 Uhr #664810klafertTeilnehmer
wenn du deine lüfter draufpackst biste genauso weit….
ich warte auf die nächste pcgh da soll nämlich der test drin sein und dann ma schaun nech 😉
der e4400 schockt mich auch richtig an der macht mch wuschig
das der lüfter umgedreht wurde ist gut schließlich kann es vorkommen das andere karten den lüfter bedeckten könnten
-
11. Februar 2007 um 0:02 Uhr #665013VJoe2maxTeilnehmer
Schaut euch mal bitte die Aufschrift auf dem R600-Lüfter an: PCGH-Link
Wenn “AMP” hier wirklich für Ampère steht, wäre das ein 24W-Lüfter! Ich kenne laute 3W Lüfter aus Servern aber ein 24W-Lüfter erfordert ja schon fast ne Wasserkühlung für die Statorwicklungen. Über die Lautstärke möchte ich da erst gar nicht spekulieren.
-
11. Februar 2007 um 1:02 Uhr #665015klafertTeilnehmer
das glaub ich aber eher weniger…
die werden garantiert keinen dusenjet verbauen
-
11. Februar 2007 um 1:02 Uhr #665017BörniTeilnehmer
wär was für mich
-
11. Februar 2007 um 1:02 Uhr #665018VJoe2maxTeilnehmer
klafert;204361 said:
das glaub ich aber eher weniger…die werden garantiert keinen dusenjet verbauenWas beteutet denn deiner Meinung nach 2.00 AMP?Wenn es zwei Ampére sind, hat der Lüfter bei den angegebenen 12V Spannung 24W Leistung und geht somit vom Geräuschpegel her höchstwahrscheinlich deutlich in Richtung Strahl-Triebwerk. Diese Karte ist mit Abstand das mieseste Stück Hardware, was ich in letzter Zeit gesehen habe (vielleicht mal von dem Peltier-Netzteil abgesehen) x( . Wenn AMD nicht schleunigst gegensteuert und sich bei den folgenden Karten um niedrigere Verlustleistungen bemüht, verlieren die bei mir sämtliche Sympatiepunkte. Es kann nicht angehen, dass elektrische Standheizungen verkauft werden, nur um die schnellste karte auf dem Markt zu haben. Die Verlustleistungen sind einfach indiskutabel – sowohl aus Gründen des Resourcenverbrauchs, als auch aus Gründen der Kühlbarkeit.
-
11. Februar 2007 um 10:02 Uhr #665049DeimhalTeilnehmer
Naja, Amper wird normal als A bezeichnet und nicht als AMP.Darum glaub ich nicht, dass es sich in diesem Fall um die Stromstärke handelt. Könnten auch Abnormale mentale Phänomene sein mit dem Faktor 2.00.:D
-
11. Februar 2007 um 10:02 Uhr #665060alloTeilnehmer
ist euch aufgefallen das die oem karte garkeine 31cm groß ist. das ist nur der lüfter der hinten dran geschraubt ist.
vom stromverbrauch will ich garnicht erst anfangen. meine karte verbraucht unter last max 70W, und genau da ist für mich die fahnenstange schon erreicht.
mal davon abgesehen das ich den 240W sowieso skeptisch gegenüber stehe -
11. Februar 2007 um 11:02 Uhr #665065VJoe2maxTeilnehmer
Deimhal;204399 said:
Naja, Amper wird normal als A bezeichnet und nicht als AMP.Darum glaub ich nicht, dass es sich in diesem Fall um die Stromstärke handelt. Könten auch Abnormale mentale Phänomene sein mit dem Faktor 2.00.:DAbnormale mentale Phänomene 😆 Hast schon recht, normalerweise wird die nominale Stromstärke in A bzw. mA bei Kleingeräten angegeben. Nichts desto trotz habe ich auch schon die Angabe AMP für die Stromstärke auf so manchem fernöstlichen Produkt gesehen.
-
11. Februar 2007 um 12:02 Uhr #665098steeveTeilnehmer
allo said:
ist euch aufgefallen das die oem karte garkeine 31cm groß ist. das ist nur der lüfter der hinten dran geschraubt ist.Genau. Bei der retail karte wird ehe ein anderer kühler verwendet, deswegen wird die karte genauso lang sein wie das PCB. Bis jetzt war die rede von 24cm länge für die X2800XT retail.
allo said:
mal davon abgesehen das ich den 240W sowieso skeptisch gegenüber steheDiese zahlen klingen auch mir bisschen komisch. 240W muss erst ein luftkühler abführen können und das wird nicht so einfach sein. :kaffee:
-
11. Februar 2007 um 12:02 Uhr #665099NeronAdministrator
was ist bitte schön der unterschied zwischen oem und retail wenn cih das mal fragen darf…240w mit nem luftkühler abführen… wird ne laute sache ö.O
-
11. Februar 2007 um 13:02 Uhr #665107steeveTeilnehmer
Neron said:
was ist bitte schön der unterschied zwischen oem und retail wenn cih das mal fragen darf…OEM – für die unternehmen, die fertigpcs bauen.Retail – für die endverbraucher entwickelt, desktopbereich.
-
12. Februar 2007 um 14:02 Uhr #665321klafertTeilnehmer
wieso laut
der g80 hatt immerhin 200w und ist leiser sie ne 7950gt…..
ou man außerdem gab es noch keine angabe in sone wie laut der lüfter ist
und 240w werden nur bei volllast erreicht..
-
14. Februar 2007 um 15:02 Uhr #665733steeveTeilnehmer
[SIZE=”5″]ATi R600-Serie: Modelle, Ausstattung und Preis[/SIZE] :d:[Quelle: computerbase.de]Insgesamt wird es 12 modelle geben. Preise bewegen sich zwischen 59€ und 599€.Sonst habe ich nicht viel zu sagen. Guckt euch die news an, es wird sich lohnen. :d: [Quelle: computerbase.de]Mal sehen wer diesmal schneller ist.:kaffee:
-
14. Februar 2007 um 18:02 Uhr #665765NeronAdministrator
Die erste, 80 nm gefertigte Radeon X2800 (R600) soll Mitte März vorgestellt werden. Die in 65 nm gefertigten Radeon X2600- und X2300-Serien sollen im April ankündigt werden und sollen ab Mai verfügbar sein. Diese Karten werden je nach Modell HDMI unterstützen.
[Quelle Computerbase.dena da kann man ja mal gespannt sein…wobei ich bei den kleinen grafikschips ehe etwas abstand nehme, hört sich nach ncihts vernünftigen an, da es wohl einige andere karten gibt die diese vom markt verdrängen, vilt nicht preislich, aber von der preis/leistung her.Gruß Neron
-
14. Februar 2007 um 19:02 Uhr #665773klafertTeilnehmer
shice ist das teuer
-
14. Februar 2007 um 20:02 Uhr #665782braeterTeilnehmer
Die sollen ruhig etwas strom brauchen. Die paar Std wo die volllast laufen und meine Füsse frieren auch… 😀
-
14. Februar 2007 um 20:02 Uhr #665778VJoe2maxTeilnehmer
klafert;205246 said:
shice ist das teuerWas hast du denn erwartet? Neue Grakas sind doch immer so teuer am Anfang. Bei den DIE-Größen ist das auch kein Wunder.
Ich find das sehr angenehm mit den aktuellen Heizkraftwerken. Da kommt man schon nicht in die Versuchung sich ne neue Graka zu kaufen.
Waiting for next generation :kaffee:
-
14. Februar 2007 um 20:02 Uhr #665789klafertTeilnehmer
ma gucken welche karten gleich zu anfang kommen
-
15. Februar 2007 um 16:02 Uhr #665933
-
15. Februar 2007 um 17:02 Uhr #665950klafertTeilnehmer
ähm die 34 cm karte geht an oem händler und die werden schon gehäuse dafür auslegen das die reinpasst
und 24cm ist nicht lang wenn ich mir die 31 cm der 7950gx2 so anschaue…
wird auch net schwerer sein als die 8800 gtx…
-
15. Februar 2007 um 17:02 Uhr #665947doozTeilnehmer
mal was anderes, wer hat nen gehäuse wo sone karte reinpasst? gescheige denn 2? o.0
also meine karte ist ~24cm lang und das finde ich schon heftig. aber 30cm+ ist doch mal extremst derbe.
und wenn man auf ne lanparty geht hebt man sich zudem noch nen bruch. wie schwer das teil wohl sein mag??? hat ja doch nen stattlichen kühler drauf.
um das teil mit na wakü zu kühlen braucht man sicherlich nen eigenen kreislauf xDbin mal gespannt was die ende des jahres kosten… da würd mich sonen teil ja doch mal reizen ^^
-
15. Februar 2007 um 18:02 Uhr #665971DeimhalTeilnehmer
Aber man hat jeden Tag Nachrichten.:D
-
15. Februar 2007 um 18:02 Uhr #665968klafertTeilnehmer
naja der quelle glaub ich mittlerweile überhaupt nichts mehr
^^ -
15. Februar 2007 um 18:02 Uhr #665966
-
15. Februar 2007 um 19:02 Uhr #665989klafertTeilnehmer
richtig^^
man shcau sich nur die gerüchte um den g80 an^^
-
17. Februar 2007 um 13:02 Uhr #666230
-
17. Februar 2007 um 18:02 Uhr #639228DeimhalTeilnehmer
700000000 Transistoren. Ich werd verrückt. 😡
-
17. Februar 2007 um 18:02 Uhr #639229al3xTeilnehmer
Solange es den G80 Platt macht ist es i.O. 😀
-
17. Februar 2007 um 18:02 Uhr #639150vampTeilnehmer
al3x;205828 said:
Solange es den G80 Platt macht ist es i.O. 😀Dadurch wird G80 nicht langsamer 😀
ps: jetzt ist das schon 30 März statt 8 😆
Wie war das nochmal mit warte mit dem Kauf von 8800 noch n Monat ?
-
18. Februar 2007 um 12:02 Uhr #580718klafertTeilnehmer
es geht net um 700 mio transistoren sondern um die angebliche kompressor!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!kühlung auf der retail version
-
18. Februar 2007 um 16:02 Uhr #666301steeveTeilnehmer
Ich will langsam tests sehen … ^^
-
18. Februar 2007 um 17:02 Uhr #666325PoweruserTeilnehmer
PCGH said:
Die OEM Version wird über die volle Länge von 12 Zoll (30,48 Zentimeter) und den großen Luftkühler verfügen. Bei der Retail Variante wird durch eine Kompressorkühlung die Länge wesentlich verkürzt, auf 9 Zoll (24,13 Zentimeter) – belegt aber zwei Slots.Da hat jemand bei pcgh seine lustigen fünf Minuten:lol:
-
18. Februar 2007 um 17:02 Uhr #666321klafertTeilnehmer
immer langsam^^
-
19. Februar 2007 um 1:02 Uhr #666418stimpyTeilnehmer
Poweruser;206130 said:
PCGH said:
Die OEM Version wird über die volle Länge von 12 Zoll (30,48 Zentimeter) und den großen Luftkühler verfügen. Bei der Retail Variante wird durch eine Kompressorkühlung die Länge wesentlich verkürzt, auf 9 Zoll (24,13 Zentimeter) – belegt aber zwei Slots.Da hat jemand bei pcgh seine lustigen fünf Minuten:lol:
in den Kommentaren zu dem Artikel heißt es:
ruyven_macaran said:
darunter ist ein übersetzungsfehler zu verstehen – bzw. der red hat vermutlich schlicht zuwenig ahnung von kühlmechanismen, schließlich sollte einem auffallen, dass eine kompressorkühlung auf einer grafikkarte keinen platz haben dürfte.im orginial handelt es sich um einen “vapor chamber cooler”, also eine kühler mit verdampferkammer – dafür braucht man keinen kompressor.
( dein freund und helfer )beispiel wäre z.b. der vapochill micro
im prinzip handelt es sich dabei um nichts weiter als eine komplexer geformte heatpipe, in den bisherigen ausführungen waren die kühler allerdings immer stark schwerkraftabhängig, da -wie bei billigen oder sehr leistungfähigen heatpipes- kein kapillargeflecht zur rückführung der kühlflüssigkeit eingesetzt wurden.
-
19. Februar 2007 um 6:02 Uhr #665752klafertTeilnehmer
jo hab auch an nen übersetzungsfehler gedacht wäre sehr extrem gewesen^^ aber als ich den org text gelesen hab naja^^
aufwändig deshalb weil solche kappilarsystem heatpipes nahc der prodution nicht mehr geformt werden können
-
19. Februar 2007 um 18:02 Uhr #666499VJoe2maxTeilnehmer
klafert;206367 said:
[quelle: siehe bild]die fangen schon wieder mit puzzeln an -.-sry aber irgendwie wollte er grad kein edit annehmen …Reichen wohl nichtmal 2 SLI-Stecker für den Stromhunger der Karte? Irgendwie seh ich die Karte vor meinem geistigen Auge schon in die ewigen Jagdgründe eingehen. Die Zeichen stehen auf Flop – Ein neues Netzteil werden sich nur wenige kaufen nur um eine R600 in Betrieb nehmen zu können. Hoffentlich werden wenigstens die Midrange-Karten was. Erinnert mich irgendwie an eine gewisse FX5800 Ultra 😀 – nur verbraucht die hier noch mehr als das vierfache wenn ich mich nicht irre.
-
19. Februar 2007 um 18:02 Uhr #666504KäsetoastTeilnehmer
VJoe2max;206369 said:
Reichen wohl nichtmal 2 SLI-Stecker für den Stromhunger der Karte?Irgendwie seh ich die Karte vor meinem geistigen Auge schon in die ewigen Jagdgründe eingehen. Die Zeichen stehen auf Flop – Ein neues Netzteil werden sich nur wenige kaufen nur um eine R600 in Betrieb nehmen zu können. Hoffentlich werden wenigstens die Midrange-Karten was.
Habe mich auch zuerst gewundert, aber wahrscheinlich ist diese Umsetzung gar nicht so dumm. Irgendwo habe ich gelesen, dass man auf den 8pol-Anschluss auch einen herkömmlichen PCIe-Stecker aufsetzen kann (wird wohl Adapter fällig sein). Indem man einen der beiden Stromanschlüsse nun aber 8poilg macht, könnte man durchaus EPS-Netzteilen entgegenkommen. Ich bin bei deren Steckerausstattung jetzt nicht wirklich gut informiert, aber ich könnte mir vorstellen, dass es hier sehr praktisch ist, da man den EPS-Stecker und AGPPro-Stecker (ich nehme mal an der ist kompatibel mit dem PCIe-Stecker) direkt verwenden könnte…
Mahlzeit
Käsetoast -
19. Februar 2007 um 18:02 Uhr #666497klafertTeilnehmer
[quelle: siehe bild]
die fangen schon wieder mit puzzeln an -.-
sry aber irgendwie wollte er grad kein edit annehmen …
-
19. Februar 2007 um 18:02 Uhr #666506VJoe2maxTeilnehmer
Käsetoast;206377 said:
Habe mich auch zuerst gewundert, aber wahrscheinlich ist diese Umsetzung gar nicht so dumm. Irgendwo habe ich gelesen, dass man auf den 8pol-Anschluss auch einen herkömmlichen PCIe-Stecker aufsetzen kann (wird wohl Adapter fällig sein). Indem man einen der beiden Stromanschlüsse nun aber 8poilg macht, könnte man durchaus EPS-Netzteilen entgegenkommen. Ich bin bei deren Steckerausstattung jetzt nicht wirklich gut informiert, aber ich könnte mir vorstellen, dass es hier sehr praktisch ist, da man den EPS-Stecker und AGPPro-Stecker (ich nehme mal an der ist kompatibel mit dem PCIe-Stecker) direkt verwenden könnte…Der 8polige EPS-Stecker wird aber meist schon fürs Mainboard verwendet (bin jetzt aber auch nicht ganz sicher, ob EPS das gleiche ist wie EATX ist).
-
19. Februar 2007 um 19:02 Uhr #666525klafertTeilnehmer
hahahahalt mal langsam hier jungs
nix da der mainboardstecker wird net in eine grafikkarte gesteckt
das ja wie nen esel mit nem pferd
es gibt adapter vom 6 pol auf 8 pol und andersrum
die infinitiy serie hat z.b. schon einen 8 pol und einen 6erglaub sogar welche von 2x 4 pol ide auf den 8 pol pci
naja das problem wird es net sein und man wird immer noch mit nem 400 w netzteil auskommen wenn man keinen p4 preschrott extreme drinne hat mit 125W^^
aktuelle g80 mit x6800er brauchen 350 w und 50 w drauf das reicht immer noch
-
21. Februar 2007 um 14:02 Uhr #666758
-
21. Februar 2007 um 15:02 Uhr #666762KäsetoastTeilnehmer
Macht Sinn wie ich finde. Auf der einen Seite überlässt man NVIDIA natürlich ein wenig länger die unangefochtene Leistungskrone, doch zu den prophezeiten Preisen hätte eh keiner den R600 gekauft (da ich nicht davon ausgehe, das es eine sooo große Mehrleistung gibt, die je nachdem einen doppelten Preis rechtfertigt). Von daher ist Warten und ein Release mit vernünftigen Preisen eigentlich gar nicht so schlecht. Ist man von ATI inzwischen ja eh schön gewöhnt (vergleiche Release der X1800er). Vielleicht gibt’s dann drei Monate später auch gleich wieder den Refresh dazu… 😀
Mahlzeit
Käsetoast -
22. Februar 2007 um 11:02 Uhr #666908-666-Teilnehmer
Nachdem gestern noch vertrauliche AMD/Ati-Unterlagen zum R600 aufgetaucht sind, scheint sich der heiß erwartete Launch des R600-Grafikchips von AMD/Ati, der sich zur CeBIT abzeichnete, wohl doch zu verzögern. Hier das Original-Statement der Pressestelle:
“To better align our strategy with current market opportunities, we’ve changed the launch plan for R600. We are going to deliver a competitive configuration to market with an extremely attractive combination of performance, features and pricing, targeting a broader market segment in Q2. With the revised strategy, AMD will be better able to capitalize on the broad appeal of 3D graphics and DirectX 10, being driven in part by the growing popularity of Windows Vista.”
Unsere Übersetzung:
Um unsere Strategie besser mit den aktuellen Marktbedingungen abstimmen zu können, haben wir uns entschlossen, den Markteintritt des R600 zu ändern. Wir werden im zweiten Quartal eine sehr konkurrenzfähige Lösung am Markt platzieren, die aus einer äußerst attraktiven Kombination aus Leistung, Merkmalen und Preis besteht und ein größeres Marktsegment abdeckt. Mit dieser überarbeiteten Strategie wird AMD die zum Teil auch durch die wachsende Popularität von Windows Vista vorangetriebenen, breitgefächerten Möglichkeiten von 3D-Grafik und Direct X 10 besser nutzen können.Quelle: PCGamesHardware
na das ja wieder klassex(
-
22. Februar 2007 um 13:02 Uhr #666913klafertTeilnehmer
das is oben schoin verlinkt 😉
klasse ist es allemal^^
-
22. Februar 2007 um 14:02 Uhr #666919-666-Teilnehmer
^^ mein Quad soll sich ja nicht langweilen:o
-
22. Februar 2007 um 15:02 Uhr #666928NeronAdministrator
-666-;206903 said:
^^ mein Quad soll sich ja nicht langweilen:oja du ^^ :+
-
22. Februar 2007 um 16:02 Uhr #666931steeveTeilnehmer
VJoe2max said:
Erinnert mich irgendwie an eine gewisse FX5800 Ultra 😀 – nur verbraucht die hier noch mehr als das vierfache wenn ich mich nicht irre.Genauer gesagt verbraucht sie das dreifache. 😉 Die 5800 Ultra hat damals mehr als 70W verbraucht [und das noch vor ~3 jahren, wo die vergleichbare ATI ~50W verbrauchte].Das einzige, was ich bei DX10 wirklich genial finde ist, dass die cpu deutlich weniger beansprucht wird. Ich weiß jetzt nicht genau um welchen faktor es sich handelt, aber jetzt wird es auch in den kleineren auflösungen kaum eine rolle spielen, welche cpu man im rechner hat.Im klartext heißt das, dass ich beim nächsten update vielleicht nur die karte tausche soll, da die cpu schon mehr als ausreichend für diese spiele wird. ^^
-
2. März 2007 um 10:03 Uhr #668178stimpyTeilnehmer
“Ati R600: Brandneue Bilder und Informationen erschienen”
“Es soll sich (bei der Karte auf den Fotos) um einen Prototypen handeln – einen sehr langen. Rückblickend auf frühere Informationen wird so vermutlich die OEM-Version aussehen, ausgestattet mit einem extra langen Kühler, der die eigentliche Platine deutlich überragt. Die Retail-Version soll ein kürzeres Modell bekommen. Die Bilder finden sie unter diesem Text.
Die VR-Zone will überdies erfahren haben, dass das finale R600-Flaggschiff einen Chiptakt von über 800 MHz haben wird. Das weicht etwas von den bisherigen Daten ab, die ihm 700 bis 800 MHz attestierten. Weiterhin soll die “Radeon X2900 XTX” nur in geringen Stückzahlen erhältlich sein. Ob das einer strengen Selektion oder einem geplanten raschen Verschwinden dieser Karten geschuldet ist, bleibt offen. Die Zahl “200” im Zusammenhang mit dem Stromverbrauch deckt sich mit bekannten Daten. Doch wie immer gilt, dass man diese Angaben mit einer gesunden Portion Skepsis aufnehmen sollte.”
[Quelle: PCGH]
-
2. März 2007 um 11:03 Uhr #668186bluefisch200Teilnehmer
R600 NewsDas mal lesen weiter unten steht das sie 24-30 cm lang sein sollen( 2 Modelle X2900 XTX). Die “kleinere” besitzt eine spezielle kühlung und wird somit vermutlich teurer als die andere.Ich persönlich werde mir eine nVidia Graka holen da ich denke das die einfach besser sein werden nVidia 8950 gt und 8950 x2
-
2. März 2007 um 13:03 Uhr #668198klafertTeilnehmer
deine news sind älter 😉
desweiteren ist alles bereits bekannt
allerdings ist teraflop im cf gespann garnet mal so schlecht^^
-
7. März 2007 um 15:03 Uhr #668725stimpyTeilnehmer
steeve;209467 said:
Bin echt gespannt wie leistungsstark die karten werden.Und wieviel Leistung die Mittelfeld-Karten verbraten werden.
Ich hoffe nur Release und Takt werden geschoben um die Konkurenz in Grund und Boden zu stampfen und nicht um nur mithalten zu können. [-o<
-
7. März 2007 um 15:03 Uhr #668711steeveTeilnehmer
[SIZE=”5″]R600 Clocks Higher Than 800MHz[/SIZE][SIZE=”1″][Quelle: vr-zone.com][/SIZE]Und wieder gibt es neue nachrichten zu kommender AMD-karte …R600 (X2800) wird mit einem GPU-takt von über 800 MHz betrieben. PCB wird aus, je nach version, 12-16 layern gefertigt.Jetztige boardrevision lautet A13 und es gibt keine andere.Alle pseudo-benchmarks, die bis jetzt erschienen sind, waren einfache fakes.Die karten werden auf der CeBit vorgestellt … in den handel werden die karten anfang-mitte mai, in der ausführung mit GDDR3 und GDDR4, erscheinen.Bin echt gespannt wie leistungsstark die karten werden.:kaffee:
-
16. März 2007 um 12:03 Uhr #669873klafertTeilnehmer
hmm die quelle dürfte wohl zu einer der sicheren gehören
-
16. März 2007 um 14:03 Uhr #669892
-
16. März 2007 um 14:03 Uhr #669889braeterTeilnehmer
Die grossen will ich sehn. Nicht die kleinen Stromverschoner.Noch kein Release bekannt? 🙁
-
16. März 2007 um 19:03 Uhr #669972klafertTeilnehmer
mai
ich denke das wir hinkommen die großen haben zu viele aufkleber
zensur der quellen halt^^
-
16. März 2007 um 20:03 Uhr #669976NeronAdministrator
Jo zensur der Qulle wird wohl sein.Ich frag mich warum man kein Standard – Layout für eine Graka Platine nimmt. Wäre doch viel einfacher in der Produktion und Kühler Entwicklung….
-
19. März 2007 um 16:03 Uhr #670480steeveTeilnehmer
.Etwas sehr interessantes hört sich so in den letzten tagen:[SIZE=”4″]Kommt der AMD/ATI R600 gleich in 65 nm?[/SIZE][SIZE=”1″][Quelle: planet3dnow.de][/SIZE]Ganz interessant hört sich die stelle:
… der Grund für die Verzögerungen ist ein Umschwenk auf den 65 nm Herstellungsprozess. Damit soll es möglich sein, die über 720 Millionen Transistoren starke GPU mit über 1 GHz Taktfrequenz arbeiten zu lassen, ohne – wie offenbar momentan noch – Probleme mit Stromverbrauch und Wärmeentwicklung zu bekommen.
… Demnach sollen die Karten ausschließlich in der 65 nm Version in den Handel kommen und über ein Drittel weniger Strom verbrauchen, als die 80 nm Karten der Vorserien-Generation.
Das würde theoretisch heißen, dass die X2800XT weniger strom verbrauchen würde als die X1900XT (~120W – 1/3 = 80W ?!).Da warte ich lieber länger und bekomme dafür ne echte rakete aus allen perspektiven gesehen. :d:Bin echt gespannt wie es in paar wochen auf dem benchmarkt aussieht.:kaffee:
-
19. März 2007 um 18:03 Uhr #670535koshTeilnehmer
In dem Fall könnte es wirklich zugunsten von ATi/AMD ausgehen. Wäre eine äußerst lobenswerte Sache. Ich hoffe, das Zeug kommt raus, bevor ich mir einen neuen PC kaufe.
-
20. März 2007 um 15:03 Uhr #670757steeveTeilnehmer
Mit kommenden AMD produkten wird das wort HD-gaming neue maßen bekommen. 😉[Quelle: pcgameshardware.de] -> Auf das bild klicken, um zu den news zu gelangen.Die ganze sache hört sich schon interessant an.
PCGH said:
Da AMD aber zu anderen Anlässen bereits mit verdoppelter R580-Leistung warb, lässt sich aus diesen Angaben ebensogut ablesen, dass der R600 ein wahres Effizienzmonster zu werden scheint, wenn er aus 40 Prozent höherer Rohleistung 100 Prozent mehr Spiele-Fps herausholt.Zum Vergleich: Die G80 holt aus etwa 50 Prozent höherer Rohleistung ebenfalls die doppelte Spieleleistung einer 7900 GTX heraus.Und nebenbei muss man auch sagen, dass R580 schneller war/ist als G71.
-
20. März 2007 um 17:03 Uhr #670792koshTeilnehmer
Könnte mir jemand das so erklären, dass auch ich verstehe was damit gemeint ist?Geht’s hier um Crossfire oder was genau ist da gemeint?
-
20. März 2007 um 17:03 Uhr #670795al3xTeilnehmer
Langsam platzt mir der Kragen. Ich will keine Gerüchte oder sonstwas mehr von aTI haben. Ich will Fakten!
Oder mehr noch, endlich die R600 im Handel zu sehen 😥
-
22. März 2007 um 22:03 Uhr #671426braeterTeilnehmer
Ja da siehst mal wie man sich irren kann wenn man auf AMD setzt…. (denen alleine geb ich die schuld)Das gute dran ist das die GTX und GTS Preis nun schön tief sind. Das warten hat also doch nicht nur negative seiten.
-
22. März 2007 um 22:03 Uhr #671424vampTeilnehmer
Der Termin war für mitte bis ende Januar. Wo sind die Leute nochmal die schrien, 8800 jetzt nicht kaufen. Warte doch noch ein Monat bis die R600 da ist
-
22. März 2007 um 22:03 Uhr #671421braeterTeilnehmer
steeve;212292 said:
Mit kommenden AMD produkten wird das wort HD-gaming neue maßen bekommen. 😉[Quelle: pcgameshardware.de] -> Auf das bild klicken, um zu den news zu gelangen.Die ganze sache hört sich schon interessant an.PCGH said:
Da AMD aber zu anderen Anlässen bereits mit verdoppelter R580-Leistung warb, lässt sich aus diesen Angaben ebensogut ablesen, dass der R600 ein wahres Effizienzmonster zu werden scheint, wenn er aus 40 Prozent höherer Rohleistung 100 Prozent mehr Spiele-Fps herausholt.Zum Vergleich: Die G80 holt aus etwa 50 Prozent höherer Rohleistung ebenfalls die doppelte Spieleleistung einer 7900 GTX heraus.Und nebenbei muss man auch sagen, dass R580 schneller war/ist als G71.
Diese Affenbande wird, wenn sie so weiter machen ihren beutel packen können und hausieren gehn.Thema R600 is für mich durch.Jetzt heissts ende April / Anfang Mitte Mai.War der 30. März ja schon fest. :(Die sollen mit Ihren R600 karten auf Mückenjagd gehn und so mit Ihren Samples was sinnvolles anstellen statt die leute über n viertal Jahr zu verarschen. Grosse klasse. Sauberer umgang mit den News und der gutgläubigkeit der kundschafft die sich hinter ATi stellte. AMD hats geschafft. :respekt:Ich sag von ATI auf jeden fall mal “Servus, war schön aber jetzt könnts mi mol, baura…”Edit: Die R600 geschichte is nicht mal das was mich am meisten aufregt. Was is mit der X1950 Pro Dual??? Die sollte schon vor zwei Monaten rauskommen. Ging nur unter wegen dem R600. Die sollen nur weiter machen wie bisher….
-
23. März 2007 um 17:03 Uhr #671578klafertTeilnehmer
jo ich gebe ebenfalls der fimrenpolitik AMD die schuld
man weiß ja nie was genua gelaufen ist
einzigster vorteil wird sien das gleich die komplette pallete von low bis high da ist
-
26. März 2007 um 3:03 Uhr #672116jhonnyXTeilnehmer
Och menno dann muss ich’s ja doch noch irgendwie hinbekommen meine X1900GT freizuschalten…
-
29. März 2007 um 22:03 Uhr #672446braeterTeilnehmer
-
30. März 2007 um 10:03 Uhr #672514stimpyTeilnehmer
fudzilla.com said:
We managed to get some early numbers from the R600 and this baby scores 11400+ in 3Dmark06. The test bed included Quad coreQX6700 Intel CPU and 2 GB memory.The drivers are not final but the score is not that bad either. The score is very competitive to G80 score.
In our lab non overclocked Geforce 8800 GTX card scores 10600 while the overclocked 11100 with the overclocked G80 card.
[Quelle: ]Fudzilla – R600 scores 11400+
Keine Ahnung ob die Werte stimmen und wie der Unterschied nachher in der Spielepraxis ist. Und was bedeutet das + hinter der 11400? Aber 800 Punkte Differenz entsprechen hier etwa 7,5 %, die der R600 schneller wäre. – Ist das jetzt gut oder schlecht?
-
30. März 2007 um 11:03 Uhr #672531koshTeilnehmer
stimpy4ever;214897 said:
fudzilla.com said:
We managed to get some early numbers from the R600 and this baby scores 11400+ in 3Dmark06. The test bed included Quad coreQX6700 Intel CPU and 2 GB memory.The drivers are not final but the score is not that bad either. The score is very competitive to G80 score.
In our lab non overclocked Geforce 8800 GTX card scores 10600 while the overclocked 11100 with the overclocked G80 card.
[Quelle: ]Fudzilla – R600 scores 11400+
Keine Ahnung ob die Werte stimmen und wie der Unterschied nachher in der Spielepraxis ist. Und was bedeutet das + hinter der 11400? Aber 800 Punkte Differenz entsprechen hier etwa 7,5 %, die der R600 schneller wäre. – Ist das jetzt gut oder schlecht?
Das Plus hinter den 11400 steht vermutlich dafür, dass sie mehrere Testdurchläufe gemacht haben und die 11400 der niederste Wert waren. Außerdem haben sie mit Beta Treibern gearbeitet, was auch noch einmal Spielraum nach oben offen lässt.
Rein theoretisch gesehen sind die 7,5% natürlich besser, aber bei so kleinen Werten ist immer die Frage ob du als Spieler was davon merkst. Die Frage ist natürlich auch, wie teuer diese Karten dann im Endeffekt sein werden. Dann kommt es noch auf die Spiele an, ob die gut mit der Karte zusammenarbeiten und dergleichen.
Im Endeffekt würde ich sagen, dass laut diesem Test der R600 auf G80 Niveau liegt, aber genaueres werden wir erst wissen, wenn die Karten endlich mal im Handel erhältlich sind. -
30. März 2007 um 11:03 Uhr #672518Spicy_IceTeilnehmer
Hallo
ICh denke das Plus hinter der Zahl bedeutet.das die Karte noch nicht übertaktet wurde und somit der Wert noch nach oben gehen kann.da ja die G80 11100 im übertakteten Zustand erreicht hat laut dieser Site.
Gruß Spicy ICe
-
4. April 2007 um 16:04 Uhr #673905bluefisch200Teilnehmer
Das hört sich ja alles ganz toll an mich nervts nur immer das sie das Erscheinungsdatum immer schieben…..<(^^,)>
-
12. April 2007 um 16:04 Uhr #675711Matze/O²Teilnehmer
Hi,verdammt sieht das hässlich aus! Dieses schwarze Ding was hinten übersteht, meine ich! 😥 Aber mit einem schönen EK Waterblock! 🙂 Hoffendlich kommen da dann auch schnell welche!MFG Matze
-
12. April 2007 um 16:04 Uhr #675710koshTeilnehmer
*aufwärm*Guckst du:ComputerBase – ATis Schützling R600 in 15 Bildern
-
12. April 2007 um 16:04 Uhr #675714BörniTeilnehmer
habt ihr schonmal die spezifikationen von PCIe 2.0 angeschaut? da ist ein neuer stromstecker, udn siehe da ein 8 poliger, vielleicht ist R600 auch PCIe 2.0 fähig, aber anscheinend wegen dem 6 pol. stecker auch abwärtskompatibel
-
12. April 2007 um 16:04 Uhr #675712OriksonTeilnehmer
ATI R650 mit nur 100 Watt verbrauch?
Das wäre natürlich dann eine absolute Must-Buy Karte :d:
-
12. April 2007 um 16:04 Uhr #675713Matze/O²Teilnehmer
Hi,
also wenn ich mir die Stromstecker anschau, dann is da nix mit 100Watt!
Braucht man jetzt auch wieder neue NTs?
Weil die Karte hat ja einen 6Pin und einen 8Pin Stecker!MFG Matze
-
12. April 2007 um 17:04 Uhr #675719OriksonTeilnehmer
Matze/O²;218607 said:
Hi,
also wenn ich mir die Stromstecker anschau, dann is da nix mit 100Watt!
Braucht man jetzt auch wieder neue NTs?
Weil die Karte hat ja einen 6Pin und einen 8Pin Stecker!MFG Matze
Wer lesen kann… Das bezieht sich auf den R650, der dann bald nach dem erscheinen des R600 rauskommen soll. Und da der in 65µm gefertigt wird, kann man so nen geringen Verbrauch erziehlen. Mir solls recht sein 🙄
-
12. April 2007 um 17:04 Uhr #675736DeimhalTeilnehmer
Wann kommt die Karte endlich raus? Es dauert viel zu lange. Verdammt.
-
12. April 2007 um 17:04 Uhr #675730Matze/O²Teilnehmer
Hi,
gut ich muss gestehen, das ich den Link garnicht angeschaut habe! 🙁Aber der R650 wird ja erst später erscheinen? Je nach dem wann AMD/ATI auf 65nm umstellen kann.
MFG Matze
-
12. April 2007 um 17:04 Uhr #675717Matze/O²Teilnehmer
Hi,
wo gibts diese spezifikationen?
Also gibts dann wieder neue NTs mit “PCI Express 2.0 Support” oder wie?Finde ich ja mal ganz toll!
Aber wie genau geht das, mit dem abwärtskompatibel? Was is bei PCIe 2.0 noch anders?Schon mal THX!
MFG Matze
-
12. April 2007 um 17:04 Uhr #675722Matze/O²Teilnehmer
Hi,
klar und deshalb der 8Pol Stecker? Das wiederspricht sich aber schon!MFG Matze
-
12. April 2007 um 17:04 Uhr #675733KäsetoastTeilnehmer
Ich kann mir gut vorstellen, dass das wie bei der X1800er Serie läuft:
Verspätung bis zum geht nicht mehr und nach 2-3 Monaten ist der Refresh da… 😉Mahlzeit
Käsetoast -
12. April 2007 um 17:04 Uhr #675726OriksonTeilnehmer
Der 8-Polige Stecker ist ja auf der OEM Variante mit R600 drauf (~270 Watt Verbrauch), die lange mit dem Griff. Dann gibt es noch die “normale” R600 Version (bis 250 Watt) ohne Griff, und etwas kleinerem PCB. Und dann wird es noch die R650 geben, von der aber noch keine bilder existieren…
-
12. April 2007 um 18:04 Uhr #675744braeterTeilnehmer
Die solln alle verrecken…
-
12. April 2007 um 18:04 Uhr #675738KäsetoastTeilnehmer
Deimhal;218630 said:
Wann kommt die Karte endlich raus? Es dauert viel zu lange. Verdammt.Anfang Mai halt – ab dem 1. kommen die wohl offiziell raus, aber größere Mengen wird’s erst ab Mitte Mai zu kaufen geben…
Mahlzeit
Käsetoast -
12. April 2007 um 18:04 Uhr #675748ToBüTeilnehmer
*auchsoeinehabenwill* … die Frage ist nur, welche Bank ich ausraube um sie mir leisten zu können^^.
-
13. April 2007 um 23:04 Uhr #676038stimpyTeilnehmer
braeter;218638 said:
Die solln alle verrecken…Das bist alles DU schuld!
braeter;195184 said:
Die sollen sich zeit lassen.
Meine 1950Pro is nach erscheinen noch weniger wert, und die sind noch nichtmal alt…..März sollts mindeste sein….OK, das Zitat ist aus’m Januar aber ich wette danach hieß es bei ATI/ AMD: “Jungs, braeter sagt wir sollen’s ruhig angehn.” 😉
Käsetoast;218632 said:
Anfang Mai halt – ab dem 1. kommen die wohl offiziell raus, aber größere Mengen wird’s erst ab Mitte Mai zu kaufen geben…Wenn’s so kommt, war das Gerede von “Es dauert länger weil wir keinen Paper-Lunch wollen” auch nur eine Ausrede. 🙁
-
14. April 2007 um 11:04 Uhr #676070koshTeilnehmer
*wieder was zum lesen reinwerf*ComputerBase – Weitere Details zur R600-Familie bekannt
-
15. April 2007 um 20:04 Uhr #676431koshTeilnehmer
Interessante Spekulationen:AMDs Ostermärchen: Warum verschiebt AMD den Launch der R600 Serie um ein Quartal? – athlon.de
-
15. April 2007 um 20:04 Uhr #676439koshTeilnehmer
Wie gesagt, es geht um die Geschäftsbeziehungen zu Nvidia. AMD ist in der Hinsicht ein wenig abhängig. Aber wie gesagt, reine Spekulation, man kann damit konform gehen oder auch nicht. Es ist auf jeden Fall eine interessante Betrachtungsweise.
-
15. April 2007 um 20:04 Uhr #676435Matze/O²Teilnehmer
Hi,
also das ATI/AMD nVidia den Vorsprung absichtlich gibt, kann ich mir nicht vorstellen.Der Vorteil in dem CPU Markt von AMD ist sicher nicht so groß wie der Verkauf von dem R600!
Aber ich warte lieber auf Fakten.
Doch an stelle von ATI/AMD verstehe ich nicht ganz warum sie nicht schon längst mit Benchmarkergebnissen rausrücken. Da muss ja eher was in der Fertigung nicht stimmen.
Naja abwarten und :kaffee: trinken
MFG Matze
-
15. April 2007 um 21:04 Uhr #676471JonnyBischofTeilnehmer
Ich habe gehört dass die Verkaufsversionen einen anderen Kühler kriegen sollen, ohne den bescheuerten Anbau hinter der Platine. Die R600 sollte dann nur noch etwa so klein sein wie ne 8800GTX ^^Edit:ROFL!!!!!!Hier ComputerBase – Weitere Details zur R600-Familie bekannt (Update) (oben bereits verlinkt)auf einem Bild ist mir gerade die Lüfterspec aufgefallen:12V bei 2.00ANatürlich ist das wohl der Maximalwert, aber 2 Ampere???? Klingt nach einem bösen Schreihals wenn ihr mich fragt…
-
15. April 2007 um 21:04 Uhr #676469LemmyTeilnehmer
mal ne frage zwischen durch wie groß ist das ding?? das ist ja riesig wo sonn man die den in nem midi atx hinpachen?? 😡
-
24. Mai 2007 um 2:05 Uhr #682617-666-Teilnehmer
also ich bin gespannt ob das gerücht mit den 56db unter Last stimmt.
karte soll an der Rückseite auch bis zu 60c war werden mit dem Stockkühler -
24. Mai 2007 um 7:05 Uhr #682622BörniTeilnehmer
ComputerBase – Test: ATi Radeon HD 2900 XTein schöner test der zeigt das die ATi karten doch net so gut sind
-
24. Mai 2007 um 8:05 Uhr #682637ClarinzTeilnehmer
Naja, mal abwarten. NVIDIA hat auch etas gebraucht bis sie gescheite Treiber für die 88er hatten.
Denke, so wirklich kann man das erst in 1-2 Monaten sagen.
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.