Fragen zu Crossfire-Physik
Willkommen in der Mk-Community › Foren › Hardware › PC Komponenten › Grafikkarten › Fragen zu Crossfire-Physik
- Dieses Thema hat 27 Antworten und 6 Teilnehmer, und wurde zuletzt aktualisiert vor 16 Jahren, 9 Monaten von Clarinz.
-
AutorBeiträge
-
-
30. Juli 2007 um 19:07 Uhr #483845KoroksanTeilnehmer
Hallo leute ich hab wieder ein paar fragen zu ATI machen schaften 😉
Also ich wollte grad schauen ob es ein neues Bios für mein Board gibt dan auf der seite von DFI sah ich das mein Board Crossfire-Physik unterstüzt! Dann hab ich etwas gesurft aber mir sind noch ein paar fragen offen die ich auf der seite von ATI nich klären konnte
1.So wie ich das verstanden habe kann man eine alte Karte für die Physik-berechnung nehmen ist das korregt?
2.Wo liegt der Vorteil in so einer zusatz karte die es ja auch für PCI gibt?Schonmal Danke 😉
-
30. Juli 2007 um 21:07 Uhr #694495HisNTeilnehmer
Im Moment gibts noch keinen Vorteil, da es keine Software gibt die es Unterstützt. Und es ist keine “ECHTE” Physik, sondern nur Effekt-Physik, also Partikel-Effekte und sowas, es wird keine Interaktion mit der Spielewelt geben, das kann die Graka-Physik nicht.
-
30. Juli 2007 um 22:07 Uhr #694513KoroksanTeilnehmer
Lohnt sich den eine der Anderen karten für PCI?
Edit:Pommbaer Genau das hab ich auch gelesen aber nach etwas surfen hab ich eine Ati Crossfire seite gefunden auf Englisch dort war aber in form eines Flash movies beschrieben das man das auch mit nur einer Karte + Physik machen kann -
30. Juli 2007 um 22:07 Uhr #694512PommbaerTeilnehmer
Gibts denn software die die PhysX sinnvoll unterstützt so dass merkbar mehr frames auftreten wenn man sowieso schon mit ner 8800GTX spielt?
Ich habe zuletzt von ATI gelesen, dass man zwei karten im Crossfire-Modus betreiben kann, und eine dritte Karte nur für die Physikberechnungen. Es gibt zum beispiel eine X1600 mit PCI-E 1x – anbindung, die sich also als Dritte karte in ein crossfire-system einfügen lässt und so physikberechnungen übernehmen kann. soweit ich das verstanden habe soll dies auch der Treiber managen, weil SLI ja zB auch nicht direkt von den spielen unterstützt wird
-
30. Juli 2007 um 23:07 Uhr #694527PommbaerTeilnehmer
naja da muss ich etwas korrigieren: Ati ist meines wissens nach in taiwan mit einem chipsatzhersteller auf tuchfühlung gegangen , um drei PCI-x16-slots auf einem board verfügbar zu machen.
Die Treiber die allerdings bisher unter verschluss sind zielen nämlich darauf eine dritte karte mit den Physikberechnungen zu belasten.
Habe widerum gerade auch gelesen dass ein spielehersteller der nicht genannt werden möchte die meinung vertritt: PhysX ist unschlagbar von Nvidia oder ATI. wogegen sich ATI und Nvidia ausnahmsweise mal einig sind, dass dies nicht stimmt.
-
31. Juli 2007 um 1:07 Uhr #694541HisNTeilnehmer
Pommbaer;242824 said:
Gibts denn software die die PhysX sinnvoll unterstützt so dass merkbar mehr frames auftreten wenn man sowieso schon mit ner 8800GTX spielt?Ich habe zuletzt von ATI gelesen, dass man zwei karten im Crossfire-Modus betreiben kann, und eine dritte Karte nur für die Physikberechnungen. Es gibt zum beispiel eine X1600 mit PCI-E 1x – anbindung, die sich also als Dritte karte in ein crossfire-system einfügen lässt und so physikberechnungen übernehmen kann. soweit ich das verstanden habe soll dies auch der Treiber managen, weil SLI ja zB auch nicht direkt von den spielen unterstützt wirdMehr Frames durch eine Physik-Karte? Wie soll das gehen? Es werden ja (tausende) mehr Details berechnet und müssen von der Grafikkarte auch noch dargestellt werden. Es gibt alle IMMER einen Impact auf die FPS. *koppschüttel*Und das BLABLA von ATI und Nvidia gibts jetzt seit einem Jahr. Fertige Produkte bzw funktionierende Graka-Physik hab ich noch nirgendwo gesehen ausser bei Ageia …Ich schätze mal das es noch mindestens weitere 12 Monate blabla bleiben wird. Bis dahin hat auch meine Phys-X ausgedient und es gibt was besseres :-)Und wenn Du 15 ATI-Karten im Rechner hast …. es gibt keine Software dafür. Nix, NADA, NIENTEOh.. eine Ausnahme: Havok-FX. Das berechnet Effekt-Physik auf Graka-Karten .. nur leider ist wohl die Lizenz so teuer, das noch kein Spiele-Hersteller das in seine Games eingebaut hat *löl* Havok – Havok FX™ <- da ist auch schön der Unterschied zwischen EFFEKT-Physik, die auf Grakas berechnet werden kann und Game-Physik erklärt.Und wie gesagt, nur EFFEKT, keine Spiele-Interne Physik, da diese nicht CPU-interaktiv ist so wie ich das mitbekommen habe. Die eignet sich mehr für so Sachen wie Wasserfälle .. wie z.b. in der DX10-Demo von Call of Juarez, ist aber von der Performance mehr als grausam. Soll sogar DUAL-GPU unterstützen.BTW ... so sieht übrigens GRAW bei mir aus YouTube – GRAW 2 AGEIA Island Trailer
-
31. Juli 2007 um 15:07 Uhr #694610
-
31. Juli 2007 um 15:07 Uhr #694609KoroksanTeilnehmer
Geil der Trum wie der zusammen kracht boah und die palmen 😯 wird das noch von anderen spielen unterstüzt? gibts sowas wie ne liste dan kann ich mal schauen ob sich der kauf für mich lohnt 😉
-
31. Juli 2007 um 19:07 Uhr #694668PommbaerTeilnehmer
sieht auch bis auf ein paar ausnahmen nicht nach spielen aus, die sich lohnen. da mag dann die physik drin sein, aber der rest des spiels ist nada..
ich dachte das mit dem Frames eher so, dass die PhysX-Karte die gpu entlastet
-
31. Juli 2007 um 20:07 Uhr #694695KoroksanTeilnehmer
Ja leider passt die Liste nicht so auf die Games die ich spielen werden da is eigentlich nur UT 2007 (Ich liebe UT) Aber so sachen wie GRAW kann ich net so gut 😉 Ich brauch schnelle shooter 😈 vellecith noch Cellfactor
Aber das sieht schon alles Mega Cool aus der stoff und wir der zerreist das hätt ich gern in Morrowind 😉 -
31. Juli 2007 um 20:07 Uhr #694683HisNTeilnehmer
Wenn die PPU dazu eingesetzt werden würde die vorhandene spärliche Game-Physik zu berechnen könnte das durchaus zutreffen, aber i.d.R. wieder die PPU dazu benutzt ZUSÄTZLICHE Physik/Effekte zu berechnen, und das braucht nun mal CPU-Zeit und GPU-Leistung.
-
31. Juli 2007 um 22:07 Uhr #694718PommbaerTeilnehmer
andersherum: Ich halte es nicht für ausgeschlossen dass ATI bzw AMD oder NVIDIA sich einfach den Hersteller Ageia unter den Nagel reissen um sich eigene Forschung und möglich Fehlschläge zu ersparen. Die Übernahme der Firma wäre eine perfekte Ergänzung. Da Ageia kein Ernstzunehmender Grafik- und Chipkonkurrent ist der die Preise und den Markt beeinflusst würde das Kartellamt da auch nicht mit den Wimpern zucken. Nur für den Käufer würde es Vorteile geben, da einige User bestimmt dann mehr Wert auf tolle Physikaische Effekte legen, als auf 5 frames die dann eine konkurrenzkarte shcneller ist.Ausserdem: Wenn die mittlerweile vielen Kerne einer CPU sowieso bei den Games eher ungenutzt sind, würde es sich anbieten bei Multicore auch einen Kern für die Physikberechnung heranzuziehen. Mit entsprechender Boardstruktur gäbe es so eine noch schneller verbindung zwischen CPU und Grafik, ohne Umwege über die NB und den PCI-Bus. Frage mich eh warum die Ageia solche Berechnungen generell schneller durchführen soll wenn sie doch den Umweg über den 133MB-Bus für PCI nimmt.
-
31. Juli 2007 um 22:07 Uhr #694714HisNTeilnehmer
Die Wette halte ich. Wird es nicht geben. Da die jetzigen Nvidias mit ihrer “OMEGA”-Technologie ja die Physik durch die Shader berechnen lassen. Warum also zusätzliches Silizium, das ist teuer, das muss der User bezahlen. Und wie Du es gerade andeutest … meistens ist Geiz geil :-)Ich denke das die Physik irgendwann zufriedenstellend durch Multicores gerechnet wird .. von mir aus auch über die Grafikkarten.. aber bis dahin ist die Ageia das einzige was funktioniert. Und wenn ich undifferenziert von mir ausgehe: Ich zogge jeden Tag ne Runde GRAW und GRAW2 mit meinen Nachbarn im Coop … für mich hat sich die Ausgabe durchaus gelohnt^^. Aber so ist es halt mit allen Sachen, das muss jeder für sich selbst ausmachen.
-
31. Juli 2007 um 22:07 Uhr #694709PommbaerTeilnehmer
na wenn man nicht gerade all sein geld für sowas opfert oder halt das nötige kleingeld hat sich aus meinen augen unrentable sachen für den PC zu kaufen, dann ist die Ageia sicherlich ein nettes schmankerl. Ich muss zwar den Euro nicht zweimal umdrehen, aber den Preis ist mir die sache nicht wert. wenn ich die karte für unter 50 € bekomme ( wasserkühler schon eingerechnet ) dann überleg ich mirs nochmal. aber ich denke bis dahin hat sich ATI entweder mit den treibern durchgerungen und bietet sowas auch an, oder ich hab eh schon wieder aufgerüstet ( und ich wette, nachfolgende Grafikkartengenerationen haben so einen Physikprozessor integriert )
-
1. August 2007 um 0:08 Uhr #685055PommbaerTeilnehmer
ich würd mir ja wünschen dass AMD/ATI den übernimmt, damit der markt interessant bleibt. AMD muss stärker werden und über die 20% marktanteil hinauskommen, damit Intel keine Monopolstellung ausbauen kann..
-
1. August 2007 um 0:08 Uhr #684855HisNTeilnehmer
guter Gedanke mit der Übernahme.
-
1. August 2007 um 14:08 Uhr #616331AspiTeilnehmer
Es gibt denke ich noch einen viel gravierenderen Grund, aus dem die Physikberechnung in Zukunft von der CPU übernommen werden wird: damit die Interaktion gewährleistet ist. Klar ist das momentan noch Zukunftsmusik, aber in einigen Jahren halte ich es durchaus für realistisch, dass das Spiel z.B. auch berechnen wird, welcher der Trümmer einen Charakter wo und wie trifft, anstatt pauschal Schaden zu verteilen, wenn etwas explodiert oder einstürzt.
Je näher die Entwicklung der Spielephysik der realen Welt kommt, desto weniger Arbeit wird es für rein grafische Physikbeschleunigung geben. -
1. August 2007 um 14:08 Uhr #685570KoroksanTeilnehmer
Naja das ein CPU kern als PPU genuzt wird glaube ich nicht da man einen PPU kern im Office nich braucht ich glaube später wird es aber PPUs in PCs geben
Aber über PCI is frag haft das die Boards immer weniger PCI plätze haben;)
129€ is mir dafür etwas zu teuer bei den wenigen spielen wen mehr kommen wird sie aber mein sein! 😈 -
1. August 2007 um 16:08 Uhr #682125ClarinzTeilnehmer
Aspi;243097 said:
Je näher die Entwicklung der Spielephysik der realen Welt kommt, desto weniger Arbeit wird es für rein grafische Physikbeschleunigung geben.Eher mehr. Denn je näher wir der realen Welt kommen, desto komplexer werden die Berechnungen.
Der vorteil ist doch einfach, dass der Chip speziell für den Bereich ausgelegt ist. Dementsprechend viel performanter als eine CPU bzw. GPU.
Daher wird eine “all in one” Lösung nie so leistungsstark sein wie verschiedene getrennte spezielle Lösungen.
Das hängt einfach mit der Arbeitsweise der entsprechenden PU´s ab.
Vergleichbar mit einem SUV, kann Alles aber lange nicht so gut wie spezialisierte Fahzeuge.
-
1. August 2007 um 17:08 Uhr #694726
-
1. August 2007 um 17:08 Uhr #694638PommbaerTeilnehmer
ja aber du kannst auch einen motor vom sportwagen in ein SUV bauen und damit es genauso geländegängig wie vorher, jedoch auch noch schnell auf der straße…
wo bitte findest du die PhysX für 129 € ? das günstigste was ich fand war über 150 € , einige wollen sogar über 250€ dafür haben 🙄
-
1. August 2007 um 18:08 Uhr #694731h4rdc0r3Teilnehmer
Die PhysX-Karte zu wakühlern, … :respekt: :d:
Forum de Luxx – Einzelnen Beitrag anzeigen – BFG Tech Ageia PhysX
-
1. August 2007 um 21:08 Uhr #694778KoroksanTeilnehmer
Also am liebsten würde ich mal GRAW2 mit der Karte spielen 🙂 aber sehr schön und der preis war von Alternate.de
-
1. August 2007 um 21:08 Uhr #694782ClarinzTeilnehmer
Pommbaer;243124 said:
ja aber du kannst auch einen motor vom sportwagen in ein SUV bauen und damit es genauso geländegängig wie vorher, jedoch auch noch schnell auf der straße…Das schon, aber er wird nie so schnell sein wie ein reinrassiger Sportwagen, nie so geländegängig wie ein Jeep und nie so viel transportieren können wie ein Transporter.
-
1. August 2007 um 22:08 Uhr #694791PommbaerTeilnehmer
eine aktuelle CPU schöpft auch nicht das Maximum an Leistung aus das möglich ist.. dazu gibt es zuviele Faktoren im laufenden System.
-
2. August 2007 um 9:08 Uhr #694834ClarinzTeilnehmer
Darum geht es ja auch gar nicht. Es geht darum, dass ein “normaler” CPU der für mehrere Arten Berechnungen ausgelegt ist niemals die Physikberechnungen hinbekommt wie sie es ein spezieller PPU schafft.
Warum haben wir denn alle eine seperate Grafikkarte? Eigentlich müsste das eine normale CPU auch hinbekommen wenn man die Software entsprechend auslegt.
Das Ergebnis wäre jedoch alles andere als zufrieden stellend. Daher verwendet man eine GPU. Ein Chip der ausschließlich für die Berechnung von Grafik ausgelegt ist.
-
2. August 2007 um 22:08 Uhr #686658PommbaerTeilnehmer
rein physikalische berechnungen beruhen auf mathematik und sind am ende reine I/O-Berechnungen, die eine CPU ohne probleme hinbekommen sollte 😉 , vorrausgesetzt es gibt einen vernünftigen Treiber oder eine Software, die die Berechnungen für die CPU verständlich übersetzt. Das ist auch der Unterschied zur Grafikkarte, die Texturen verarbeiten muss.
-
3. August 2007 um 9:08 Uhr #694934ClarinzTeilnehmer
Pommbaer;243377 said:
rein physikalische berechnungen beruhen auf mathematik und sind am ende reine I/O-Berechnungen, die eine CPU ohne probleme hinbekommen sollte 😉 , vorrausgesetzt es gibt einen vernünftigen Treiber oder eine Software, die die Berechnungen für die CPU verständlich übersetzt. Das ist auch der Unterschied zur Grafikkarte, die Texturen verarbeiten muss.Tekturberechnungen beruhen auch auf Mathematik und sind am ende reine I/O-Berechnungen, die eine CPU ohne probleme hinbekommen sollte 😉 , vorrausgesetzt es gibt einen vernünftigen Treiber oder eine Software, die die Berechnungen für die CPU verständlich übersetzt.
Alles was mit PUs zu tun hat sind I/O Berechnungen. Egal ob CPU, SPU, GPU oder PPU. Anders geht es gar nicht. Da eine PU nur 1 und 0 addieren kann. Die Frage ist jedoch das “Wie”, und da unterscheiden sich die PU halt von einander.
Aber ist auch egal…
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.