ati 4800??
Willkommen in der Mk-Community › Foren › Hardware › PC Komponenten › Grafikkarten › ati 4800??
- Dieses Thema hat 30 Antworten und 13 Teilnehmer, und wurde zuletzt aktualisiert vor 16 Jahren von gr3if.
-
AutorBeiträge
-
-
26. April 2008 um 17:04 Uhr #748452PommbaerTeilnehmer
4Ghz Ramtakt, 2GB Speicher bei der X2 usw..http://www.tomshardware.com/news/ati-radeon-4800,5223.htmlund das Topmodell für etwa 330$ also runde 200€ – wobei die dann schneller sein soll als die 9800GTX. Bleibt abzuwarten wie’s wirklich wird..von idle 20W steht da aber leider noch nichts. Wäre ja irgendwie auch Kontraproduktiv auf der einen Seite mit Hybrid-Crossfire zu werben und dann Karten zu bauen die das überflüssig machen.
-
26. April 2008 um 17:04 Uhr #748460bluefisch200Teilnehmer
Die ersten Modelle werden noch mit GDDR3 kommen daher warten und besser eine mit GDDR5 kaufen….
-
26. April 2008 um 17:04 Uhr #487974DaffiTeilnehmer
so folks…
hab letztens von nem bekannte etwas über eine 4800er von ati gehört..
soll angeblich für spiele top sein und im idle auf 20watt runtergehen..
kann jemand von euch so nen gerücht bestätigen? -
26. April 2008 um 18:04 Uhr #748467!->GaZProM<-!Teilnehmer
Also so weit ich weiß sollen jetzt doch von anfang an die 4870er also das topmodell gleich mit gddr5 speicher laufen. Nur die kleinen modelle 3485 sollen erst mit gddr3 laufen damit der geringe preis gehalten werden kann.
Bin auch sehr gesapnnt eir viel lesitung die bringen…:) Scheint ja auch mit der speicherbreite von 256bit trotzdem eine übertragungsrate von denen der 2900xt zu brigen,dank gddr5. Und das,wo die neuen atis ja eh sehr gut mit der bandbreite umgehen.
BTW: Wird es auch gehen eine 3870 und eine 4870 zu betreiben oder sogar eine 4870×2 mit einer 3870. Dann würde ich glatt meine 3870 behalten und noch eine 4870 reinsetzen…die können ja mit 2×16 lanes alles geben.:) Ist darüber schon was bekannt? Weil es ist ja auch möglich eine 3850 mit einer 3870 zu koppeln.
-
26. April 2008 um 19:04 Uhr #748471Prankst3rTeilnehmer
Soweit ich gehört habe soll das nicht gehen? Aber Gerüchte stimmen zu 80% ja eh nie…
-
26. April 2008 um 19:04 Uhr #748469bluefisch200Teilnehmer
!->GaZProM<-!;302597 said:
BTW: Wird es auch gehen eine 3870 und eine 4870 zu betreiben oder sogar eine 4870×2 mit einer 3870. Dann würde ich glatt meine 3870 behalten und noch eine 4870 reinsetzen…die können ja mit 2×16 lanes alles geben.:) Ist darüber schon was bekannt? Weil es ist ja auch möglich eine 3850 mit einer 3870 zu koppeln.Würde ich super finden, da ich sicher eine HD4870 kaufen werde, wenn ich dann meine alte 3870 behalten könnte wäre es noch besser:d:
-
26. April 2008 um 19:04 Uhr #748478JonnyBischofTeilnehmer
Wenn die X2 tatsächlich “nur” 500$ (~500 CHF) kosten wird, dann werd ich mir wohl eine holen… Klingt richtig gut was die da schreiben.
Hoffen wir, dass die Benchmarks uns nicht nocheinmal eines Besseren belehren 🙄
-
27. April 2008 um 9:04 Uhr #748605!->GaZProM<-!Teilnehmer
Naja.sieht ja leider so aus als ob der gt200 doch noch ein bissl besser ist.
Aber was ich gehört habe,das die 48xx so 50-60% schneller sein soll als eine 3870…das wäre ja schonmal ne gute steigerung.;)
-
27. April 2008 um 10:04 Uhr #748610littledevilTeilnehmer
Pommbaer;302582 said:
von idle 20W steht da aber leider noch nichts. Wäre ja irgendwie auch Kontraproduktiv auf der einen Seite mit Hybrid-Crossfire zu werben und dann Karten zu bauen die das überflüssig machen.20W lohnen immer noch locker zum abschalten. wein compi würde ja das doppelte verbauchen mit so einer karte…
Bei solchen KArten komme ich da in den zwiespalt, ob ich zu intel wechsel und dann zwangsläufig nvidia nehmen muss oder ob ich amd komplett nehme, wo die cpus im oberen leistungsbereich stromfresser sind…:-k
-
27. April 2008 um 11:04 Uhr #748634DaffiTeilnehmer
die logick von little devil versteh ich auch nicht ganz..
-
27. April 2008 um 11:04 Uhr #748620TrabantTeilnehmer
@littledevil Versteh leider nicht ganz, warum das für dich ein Problem darstellt.Du kannst doch Intel und AMD Grafik nehmen oder AMD und Nvidia Grafik.Kommt ja immer darauf, welche Kombination zum jeweiligen Zeitpunkt die beste ist.
-
27. April 2008 um 12:04 Uhr #748638Christoph!Administrator
Vllt will er ja mit Zwang Crossfire oder Sli verwenden^^Allerdings gibts ja Nvidia für Intel und AMD…
-
27. April 2008 um 14:04 Uhr #748675gr3ifTeilnehmer
littledevil;302810 said:
Christoph!;302779 said:
Vllt will er ja mit Zwang Crossfire oder Sli verwenden^^
Allerdings gibts ja Nvidia für Intel und AMD…ICh klär Euch mal auf! 😀
wenn ich intel nehme, bin ich auf nvidia festgelegt, da AMD wohl kaum noch chipsätze für 775 rausbringen wird. nvidia unterstützt wiederum nur nvidia-grafkas d.h. die ati 4800 könnte ich nicht so stromsparend verwenden.hätte gern ein system, welches im idle <25W verbaucht, aber bei bedarf auch richtig leistung bieten kann.
Tja da hilft wohl nur ein p35, eine 45nm Dual Core Cpu, eine 4800 und dann den 10 Watt nicht traurig hinterhergucken.
Wobei: Es gibt den Phenom 9100 der 800mhz im Idle packt. Es gibt 780er Boards und die 4800. Das muss dir dann reichen. Zumindest bis 45nm Phenoms oder k10 Dualcores kommen.
-
27. April 2008 um 14:04 Uhr #748670littledevilTeilnehmer
Christoph!;302779 said:
Vllt will er ja mit Zwang Crossfire oder Sli verwenden^^
Allerdings gibts ja Nvidia für Intel und AMD…ICh klär Euch mal auf! 😀
wenn ich intel nehme, bin ich auf nvidia festgelegt, da AMD wohl kaum noch chipsätze für 775 rausbringen wird. nvidia unterstützt wiederum nur nvidia-grafkas d.h. die ati 4800 könnte ich nicht so stromsparend verwenden.hätte gern ein system, welches im idle <25W verbaucht, aber bei bedarf auch richtig leistung bieten kann.
-
27. April 2008 um 15:04 Uhr #748682littledevilTeilnehmer
gr3if;302815 said:
Wobei: Es gibt den Phenom 9100 der 800mhz im Idle packt. Es gibt 780er Boards und die 4800.Im idle ist das sicher auch ganz nett, aber selbst der X3 8650 hat 95watt tdp.
@0,8v ist der sicher sparsam, aber sobald man über 2ghz geht rennt der zähler…der Phenom 9150e B3-Stepping 1,8 GHz könnte zumindest für entsprechende quadcore-anwendungen interessant sein 65tdp. hören sich gut an, aber wenn nur 2 kerne benutzt werden, ist der nur halb so schnell, wie ein vergleichbarer wolfdale,der dabei ähnlich viel verbraucht…
-
27. April 2008 um 17:04 Uhr #748693gr3ifTeilnehmer
Tjo Multitasking Anwendungen ist da das Zauberwort. So langsam sollten das mal alle Softwaredesginer begriffen haben.
-
27. April 2008 um 19:04 Uhr #748717bluefisch200Teilnehmer
Ich habe auch einen Intel 45nm+ATI Crossfire, mit nem P35 problemlos…
-
27. April 2008 um 20:04 Uhr #748730littledevilTeilnehmer
bluefisch200;302860 said:
Ich habe auch einen Intel 45nm+ATI Crossfire, mit nem P35 problemlos…aber bestimmt kein hybrid crossfire bei dem sich die graka abschaltet…[-X
-
27. April 2008 um 21:04 Uhr #748737bluefisch200Teilnehmer
littledevil;302874 said:
bluefisch200;302860 said:
Ich habe auch einen Intel 45nm+ATI Crossfire, mit nem P35 problemlos…aber bestimmt kein hybrid crossfire bei dem sich die graka abschaltet…[-X
Nein das nicht 😀
Ohne onboard GPU ist das auch sehr schwer 😉
-
28. April 2008 um 21:04 Uhr #748931TLBTeilnehmer
littledevil es gibt aber Intel775 Boards mit ATI Chipsatz -.-
Intel /= nVidia
AMD /= ATIIch versteh nicht warum die immer noch auf 256 Bit bleiben! Bei der ULTRA von nVidias 8er Serie haben 384Bit auch gut getan – das soll man erweitern! Wenn nicht sogar auf 512Bit! Warum überhaupt Bit warum nicht MBit -.- (meine ich ernst)
-
28. April 2008 um 22:04 Uhr #748937littledevilTeilnehmer
TLB;303083 said:
littledevil es gibt aber Intel775 Boards mit ATI ChipsatzNoch! Aber da wird sich wohl nix mehr tun.. d.h. update / treiebr/ könnte schwierig werden. Das tue ich mir lieber nicht an. Da ich es nicht eilig habe werd ich da ganz in ruhe abwarten.
Vielleicht gibt es ja auch bald grakas die 5w im 2d benötigen und ihre 3d teil dazu schalten…
-
28. April 2008 um 22:04 Uhr #748952!->GaZProM<-!Teilnehmer
@TLB: Es wird sich ja noch zigen ob die 48xx nicht doch ein 512bit interface besizt. Aber selbst ,mit 256 kommt die 48xx samt gddr5 spreicher auf übertragungsraten im bereich einer 2900xt mit 512er interface. Und das sollte ja auch erstmal ausreichen.
Und diese risigen vram speicher die jetzt schon teilweise auf 8800Gt´s verbaut werden,mit bis zu 2gb finde ich eh sehr schwachsinnig,und dann mit einem so kleinen speicherinterface. Und da die neuen ati karten auch sehr gut mit speicher und bandbreite umgehen sollte das nicht zu allzugroßen problemen führen. -
28. April 2008 um 22:04 Uhr #748946Prankst3rTeilnehmer
TLB;303083 said:
littledevil es gibt aber Intel775 Boards mit ATI Chipsatz -.-Intel /= nVidiaAMD /= ATIIch versteh nicht warum die immer noch auf 256 Bit bleiben! Bei der ULTRA von nVidias 8er Serie haben 384Bit auch gut getan – das soll man erweitern! Wenn nicht sogar auf 512Bit! Warum überhaupt Bit warum nicht MBit -.- (meine ich ernst)Ähm, GDDR5, da reichen 256Bit, um genauso schnell zu sein wie GDDR3 mit 512bit…
-
28. April 2008 um 23:04 Uhr #748972TLBTeilnehmer
o.O was da falsch? Den/ Denn? Rechtschreibung? Ökonomie mit Ökologie verwechselt?
-
28. April 2008 um 23:04 Uhr #748957TLBTeilnehmer
2gb finde ich eh sehr schwachsinnig
Schonmal mit 16x FSAA Crysis versucht zu spielen – es ist kein Witz, nichtmal das Intro würde eine 99×2 Packen (auf der CeBit von eVGA berichten lassen)!
Mit Packen meine ich entweder absturz (wobei das eine Treiber Sache ist) oder weniger als 1FPSlittledeviel du kannst den SLI Chip von nVidia auch auf X-Fire “umbasteln”! (Software sache!) Gibs ja schließlich auch umgekehrt!
Wo das nun stand (als Beweiß) weiß ich nicht mehr aber auf anfrage werde ich´s suchen!Ich freue mich auf jedenfall auf die 4000er Serie! Allein aus ökonomischen Gründen, den Ende des Jahres (weihnachten) will deStalkerly sich einen neuen PC anschaffen *mit dem Kopf und einem Grinsen nick Smilie such* EDIT *find ihn nicht*
-
28. April 2008 um 23:04 Uhr #748968VJoe2maxTeilnehmer
TLB;303109 said:
…Ich freue mich auf jedenfall auf die 4000er Serie! Allein aus ökonomischen Gründen, den Ende des Jahres (weihnachten) will deStalkerly sich einen neuen PC anschaffen *mit dem Kopf und einem Grinsen nick Smilie such* EDIT *find ihn nicht*…Ich halte das nur mal fest, dass du es nicht nachträglich editierst – das ist wirklich dreist! x( – aber auch ganz schön blöde, wenn ich das mal anmerken darf! Du weist was ich meine!Sorry für´s stören des Threadverlaufs!
-
29. April 2008 um 8:04 Uhr #749003SuizidTeilnehmer
littledevil;302822 said:
gr3if;302815 said:
Wobei: Es gibt den Phenom 9100 der 800mhz im Idle packt. Es gibt 780er Boards und die 4800.Im idle ist das sicher auch ganz nett, aber selbst der X3 8650 hat 95watt tdp.
Sorry aber die TDP hat sowas von nichts mit der Realität zu tun.
1) TDP bei AMD = Maximale Verlustleistung beim Worst Case, das heißt:
Maximal zulässige Taktfrequenz bei maximal zulässiger Temperatur mit maximal zulässiger Spannung2) Intel TDP <> AMD TDP
Oh man AMD und sein Marketing, sollten die leute so verarschen wie es Intel tut, dann hätten die zu AMD64 Start auch mal Kasse gemacht…
3) Undervolten kannst das Ding ja auch noch.
So nun was sein muss, recht ist aber das der Phenom etwas mehr Power braucht.
Dafür ist der Speichercontroler in der CPU integriert, welche bei Intel auf dem Mainboard sitzt.Chipsätze:
*Annahme*
Nvidias Chipsätze sind ja wohl nur die Heitzungen, wenn ich mir so anschau was auf manschen Intel Boards für Kühler sitzen, nene geht garnicht.
*Annahme off*
Dagegen sehen die aktuellen Board auf AMD Chipsatz Basis aus wie, keine Ahnung, nichts.Also mein Fazit, das Gesammtpaket machts. Was bringt ne Sparsame CPU wenns Mainboard wieder alles verheitzt?
So far
Michael -
29. April 2008 um 10:04 Uhr #749012littledevilTeilnehmer
Suizid;303157 said:
Sorry aber die TDP hat sowas von nichts mit der Realität zu tun.Mich brauchst Du nicht von AMD überzeugen,wenn es um kleien cpus geht, aber bei phenom x3 und x4 über 2 ghz ist es mit dem stromsparen vorbei.
sicher ist 95w tdp ein max.wert, aber real nicht unterwoltet wird der nicht unter 70W kommen. mit undervolting bei vollen takt vielleicht 65W. Der wolfdale e7200 hat 65w tdp und mit undervolting sind reale 45w locker drin. die 20W verbrät dann vielleicht der chipsatz, aber hier gehts ja um grafikkarten…TLB;303083 said:
Warum überhaupt Bit warum nicht MBit -.- (meine ich ernst)bit weil, soviel bit gleichzeitig pro takt übertragen werden;)
-
29. April 2008 um 13:04 Uhr #748862TLBTeilnehmer
bit weil, soviel bit gleichzeitig pro takt übertragen werden
Was? Das Bit Interface ist NICHT abhängig von Taktraten des z.B. GPU!
Sonst hätte ne 9800er ja nicht 256Bit und ne 88Ultra mit weniger Takt 384Bit 😀Naja wir werden sehn was das neue Modell bringt!
Ich bin in letzter Zeit auf jedenfall (obwohl ich nVidia liebe) von ATi (AMD) begeistert, da ich noch nie jemanden mit 40k Punkte in 3DMark06 gesehen habe, zumindest mit keiner 88 und keiner SLI 88 oder Tripple SLI 88 oder 99 etc…. 🙂 -
29. April 2008 um 13:04 Uhr #749029littledevilTeilnehmer
TLB;303182 said:
Was? Das Bit Interface ist NICHT abhängig von Taktraten des z.B. GPU!Damit ist natürlich der speichertakt gemeint :)Breite speicherinterfaces machen die gpus teurer und stromhungriger, daher geht nvidia wieder zu 256bit über. Erstaunlich finde ich, das nvidia auch bei den 9xxx an ddr3 fest hält… im vergleich scheint nvidia aber bessere gddr3 chips als ati zu verwenden, da höher takten…P.S. wie wichtig ist die Texelfüllrate des Grafikprozessors? die ati 3870 schafft da ja mit 12400 MT/s etwas über 1/4 von der Geforce 9800 GTX mit 43200 MT/s
-
29. April 2008 um 13:04 Uhr #749032gr3ifTeilnehmer
Tlb du hast nicht soviel Ahnung oder?
Bit meint in dem Fall Speicherbit und nicht Gpu Takt… Das meint, dass man nur eine Anbindung von 128 oder 192 oder was auch immer bit hat, was wiedrum heisst, dass nur 192 oder 128 oder sonstwas pro Zyklus übertragen werden kann. Zwischen Ram und Gpu.
Letzendlich bringt ein grosses Speicherinterface auch nur was wenn man eine Gpu hat die den Rambedarf hat. Man gucke sich die 3870 an, die bei 1920×1680 nicht einbricht während es eine 8800gt überdeutlich tut.
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.