Dual Core CPU
Willkommen in der Mk-Community › Foren › Hardware › PC / Server – Systeme › Dual Core CPU
- Dieses Thema hat 19 Antworten und 10 Teilnehmer, und wurde zuletzt aktualisiert vor 19 Jahren, 9 Monaten von Titan.
-
AutorBeiträge
-
-
16. Juli 2004 um 18:07 Uhr #473476caVTeilnehmer
das finde ich eine recht interessante entwicklung
für alle die mehr wissen wollen .. hab da was nette gefunden .. leider nicht so detailliert aber das komtm noch
-
16. Juli 2004 um 21:07 Uhr #525368dragonTeilnehmer
coole sache…..
aber ich bin derzeit mit meinem KT400 und XP2700+ voll und ganz zufrieden 😉 -
17. Juli 2004 um 3:07 Uhr #525386caVTeilnehmer
klar aber das dauert ja eh noch bis ende 2005 bis da desktop cpus zu erwarten sind ..
aber verfolgen sollte man das projekt auf jeden fall … dann is HT technologie vergessen .. ok man könnte dann sozusagen 4 anwendungen parallel machen 🙂
man bin ich müde .. muss erstmal pennen n8
-
17. Juli 2004 um 9:07 Uhr #525389CaeruleusTeilnehmer
find ich klasse und das ist meiner meinung nach die zukunft
denn die einzellnen prozessoren können nicht immer höher getaktet werden bei noch höheren verlustleistungen wenn man aber dann 2 kerne parallell abeiten lässt ist das sicher von vorteilich bin auch der meinung das irgedwann 4 kerne oder auch mehr in einem prozessor sein werden
-
17. Juli 2004 um 13:07 Uhr #525398caVTeilnehmer
ich denke auch das in zukunft mehrere kerne auf einer cpu arbeiten werden … da die Mhz grenzen irgendwann erreicht sind .. man sieht ja jetzt auch schon dass das rennen langsamer geworden ist … vor nem jahr waren alle 4 wochen neue MHz cpus auf dem markt .. und jetzt macht man eigentlich nur noch optimierungen der pipelines (siehe AMD // intel zieht da jetzt nach )
-
17. Juli 2004 um 13:07 Uhr #525397pmgTeilnehmer
Was dann wohl auch das Ende der Kühlleistungsdominanz der Duesenkühler wäre… Die DIE wird da wohl ganz schoen wachsen, wenn da dann kein Heatspreader drauf ist, koennte man mit so einem Kühler eventuell sogar Probleme kriegen 😉
mfg
pmg -
17. Juli 2004 um 15:07 Uhr #525402M.PeitzTeilnehmer
Ich denke net das die MHz Grenze erreicht ist, jedoch wird irgendwann die Grenze dabei liegen das es nicht mehr mit geringen Mitteln (Luft /Wakü) gekühlt werden kann. Aber vor zwei Jahren oder so hieß es mal in der C’t das Intel schon nen 20GHz Prozzi rausgebracht hat. Selbstverständlich net für den Heimanwender, aber ich denke schon das irgendwann mal so 10 -20 GHz salonfähig werden.
-
17. Juli 2004 um 16:07 Uhr #525403caVTeilnehmer
caV said:
… da die Mhz grenzen irgendwann erreicht sind ..ich meine ja nicht das jetzt das ende erreicht ist … aber die kühlung bei hohen Mhz ist einfach zu intensiv .. da müssen sie sich was einfallen lassen. und mit 2 cores kann man die leistung einfach vergrößern ohne die wärme in die höhe treiben zu müssen mit massig Ghz.
wenn man zum beispiel die gpus anschaut … da ist ein 5900 ultra chip vergleichbar mit einem 12 Ghz p4 ( wenn man alleine die arbeitsschritte pro sekunde anschaut ) und die dinger werden auch nicht wärmer als ne cpu
vielleicht sollte man da eine art “open sorc” machen 🙂 damit die entwicklungen ineinander über gehen können
-
17. Juli 2004 um 16:07 Uhr #525405dragonTeilnehmer
schlecht wärs nicht wenn mal die cpu hersteller ein bischen von den gpu herstellen abkupfern würden und umgekehrt 😉 wobei es ja mittlerweile auch wieder dual grakas gibt 😉 was ja schon mal ganz gut ist – bis halt daß man wieder extra pci express braucht….
ich find das eine sehr positive entwicklung…. (nur für den fall das ich vorher falsch verstanden wurde 😉 )
-
18. Juli 2004 um 0:07 Uhr #525439caVTeilnehmer
also das sich dann 180 C verlustleistung entwickeln wird nicht passieren .. da ist die die fläche einfach zu groß dann und das mit dem speichercontroller ist momentan das große fragezeichen … wie wollen sie 2 cores auf dual ram zugreifen lassen ..?! n
nacheinander, parallel, jeder einzeln?! da gibt es im moment noch keine aussagen … was ich sehr schade finde denn genau das ist ein sehr wichtiger aspekt.
und die temp sachen .. nun ja das wird sich zeigen .. ich denke aber nicht das AMD eine verlustleistung von 180 C in kauf nimmt… die denken ja auch an kühlung und wissen wie wichtig die lautstärke auf dem CPU markt ist. hinzu kommt das die entwicklung dieses CPus seitens AMD bereits abgeschlossen ist und sie mitte nächsten jahres auf den markt kommen. und kompatibel zu jetztigen 939er und 940er boards sind.
also schauen wir mal und verfolgen diese entwicklung weiter 🙂
-
18. Juli 2004 um 0:07 Uhr #525434CannonTeilnehmer
Ich bin wohl der einzige der dagegen hält. Ich finde sowas schwachsinnig. KLar macht das Sinn, wenn man statt einem Dual-Board einfach ein normales Board mit 2 CPUs betreibt. Dennoch gehen auch Vorteile von 2 einzelnen CPUs verloren. So hat z.B. jede CPU ihren eigenen Speichercontroller.
Auch sonst halte ich es von der Wärmeentwicklung her für Unsinn. Alle reden hier davon, dass die Grenze der Verlustleistung irgendwann erreicht ist. Aber ist es denn nicht so, dass die Verlustleistung sich theoretisch verdoppelt, wenn ich 2 Kerne auf einer CPU habe? Somit habe ich dann 180 Watt oder mehr zu verbraten UND zu kühlen. Viel Erfolg!
Da macht irgendwann selbst mein sehr gutes 380 Watt-NT schlapp.
-
18. Juli 2004 um 13:07 Uhr #525463ArchillesTeilnehmer
Nicht die CPUs müssen schneller werden, sondern die Anwendungen besser programmiert. Heute wird da ohne Ende geschlampt und Leistung sinnlos verbraten. Damit meine ich auch die Betriebssysteme und ganz bestimmt nicht nur das aus Redmond. Zugegeben bei dem Wald an spezifischen CPU-Optimierungen ist es auch nicht gerade einfach. Stattdessen wird 64-bit propagiert; Serverbereich is klar, braucht man hier genauso wie mehrere CPUs. Bald kann man im SoHo-Bereich (Small Office/Home) “doppelt” verschwenden 😉
SMP (Multi-CPUs) ist kein Allheilmittel, solange auch das nicht vernünftig in Software umgesetzt wird. Eigentlich gibt es nur Profiprogramme dafür, wie Rendering-Tools. Aktuell sehe ich kein Nutzen für den Otto Normal. Hyperthreading ist ganz nett, dafür das man es “inklusive” bekommt und die vorher schlecht ausgelasteten Pipelines des P4 etwas mehr fordert. Aber auch das muß die Software unterstützen. Daß sich Windows flüssiger bedienen mäßt ist zwar toll, aber das ginge auch ohne HT. Wenn die Grafikroutine des OS besser wäre (beim Pinguin dasselbe). Das neue MacOS “Tiger” soll da fortgeschrittener sein. Zumindest verkünden das die Spatzen vom Dach 🙂
-
18. Juli 2004 um 23:07 Uhr #525525caVTeilnehmer
diesen aspekt haben wir hier noch nicht angesprochen aber er ist wahr 🙂
uns hilft die beste hardware nichts wenn die leistung verloren geht bei den programmen …
zb muss intel seine pipelines verbessern um auf das niveau von AMD zu kommen … und AMD muss die taktraten erhöhen um auf das niveau von intel zu kommen 🙂
ein sich immer drehender kreislauf
-
19. Juli 2004 um 0:07 Uhr #525530orw.AnonymousTeilnehmer
das zweite große problem ist wie oben schon angesprochen die abwärme… eutige prozessorkühler haben bereits den wirkungsgrad eines Kernkraftwerks wärmetauschers entwickelt…
und wie ein forscher mal in silicon valey schrieb :”wenn die rasante weiterentwicklung so anhält, werden wir bald prozessertemperaturen haben die mit der oberflächentemperatur der sonne gleich ziehen”
frage: wer hat schonmal versucht ne sonne anner wakü zu betreiben? 😀 -
25. Juli 2004 um 16:07 Uhr #525977ArchillesTeilnehmer
Klar, ganz bestimmt. Soll wohl ein bißchen dramatisch klingen. Bei der Temperatur bleibt kein Element mehr in festem Zustand (~6000K) 🙂
Ich denke, wenn nicht die Leckströme zukünftige Prozessoren killen, dann sind die bei den hohen Frequenzen eh nicht mehr betreibbar, weil die Transistoren ja physikalisch begrenzt sind bzw. die Signale zu verrauscht sind. Unendlich verkleinern lassen sich die Bauteile ja auch nicht – zumindest nicht bezahlbar. Alternativtechnologien (z.B. Quantenrechner, DNA-Computer oder Optronik) sind noch in der Forschung. Das bedeutet also, daß man so langsam mal bremsen muß. Intel scheint das jetzt endlich auch begriffen zu haben. Wird nur fürs Marketing schwer, der “dummen Masse” klar zu machen, daß dann Effektivität und nicht mehr Rohpower angesagt ist 😉
-
4. August 2004 um 19:08 Uhr #526773caVTeilnehmer
http://www.gamestar.de/news/hardware/19291/
so dazu scheint intel auch was zu machen 🙂
-
4. August 2004 um 22:08 Uhr #526801dragonTeilnehmer
elektrotechnik, lehre beim konzern, teile der physik nd chemie sind sicherauch gefragt, mechatronik sollt auch dabei sein… aber hauptsächlich elektrotechnik
-
4. August 2004 um 22:08 Uhr #526800Zynic_apeTeilnehmer
es gab auch leute die behaupteten die erde sei flach. fliegen sei unmöglich. Bill Gates (1981): “Nobody will ever need more than 640k RAM!”. ich meine 2 cores ist ja shcön und gut und verdoppelt die leistung aber im endeffekt denke ich doch das die mittel bis langfristige zukunft in stärkeren cpus liegt… natürlich entwicklung kommt immer in schüben und die jetzige fertigungstechnik mag langsam an sein ende kommen aber früher oder später kommt das noch das eine herz dazu… ich sehe als rein physikalische grenze die geschwindigkeit mit der sich elektronen fortbewegen… auf der anderen seite besteht jetzt natürlich erstmal nachholbedarf in sachen systemoptimierung und bessere resourcennutzung… was ja in den letzten jahren eher im hintergrund stand.
nun gut soviel dazu . mal ne kurze frage die mir gerade kommt zudem thema… was hat man eigneltihc studiert wenn man prozessor technologie entwickelt??? des ist ja mal interresant… sind das eher die chemiker oder die physiker oder doch mehr die elektricker? -
5. August 2004 um 1:08 Uhr #526813Zynic_apeTeilnehmer
[glow=red]http://www.3dcenter.de/artikel/2004/07-14_a.php[/glow]
dazu auch ganz interresant…
mfg
ape -
6. August 2004 um 23:08 Uhr #526936TitanTeilnehmer
Zynic_ape said:
ich meine 2 cores ist ja shcön und gut und verdoppelt die leistung aber im endeffekt denke ich doch das die mittel bis langfristige zukunft in stärkeren cpus liegt…schön und gut das du es so siehst aber wenn die software nichts mit 2cors anfangen kann wird das wehnig nützen daher bin ich der gleichen meinung wie archilles das zuerst mal an der schlampig programierten software optimiert werden soll anstatt immer neue aufgeblähte software aufm markt zu schmeißen siehe windows xp das entpackt sich auf das doppelte bei der installation und das kann ich irgendwie nicht ganz nachvollziehen
zum thema intel vs amd
amd setzt weiterhin auf extreme leistung bei niedriger tacktfrequenz und auf 64bit technologie siehe den amd 64bit fx53 dessen nachfolger der sogenante semptrom oder wie das geschrieben wird werden soll mit den angaben 3500+ und normaler 32bit technilogieund lowcost price bei immerhin 2,2-2,3 ghz
ich bin eher der ansicht das sie die ghz voll ausreizen sollten bei wehniger energieverbrauch also die intelwerte anstreben ist hier geboten aber ich frag mich trotzdem wann mir nen miniaturkernkraftwerk neben den pc benötigen
intel hingegen soll nach gerüchten zufolge ihre ghzwahnsinigkeiten abgelegt haben und langsam an verbesserungen und optimierungen arbeiten klasse dann bekommen wir endlich mal nen paar chips die in der lage sind mit 1volt oder wehniger auszukommen und dabei noch nicht mal 20 watt abwärme produzieren und dahingehend dann auch passiv gekühlt werden können
ich hatte vor kurzem einen artikel von ner volari graka gelesen in dem es hieß das die chips bei leicher leistung einer fx5900 im mhz nur einen bruchteil an abwärme produzieren und ohne probleme passiv gekühlt werden können und dann trotzdem micht wärmer als 40°C werden und das bei sehr kleiner kühlfläche der kühler da hat es endlich ein hersteller vorgemach wie es gehen kann
weiter so xgi
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.