Stillstand bei der Entwicklung und steigende Hardware-Preise: Es kotzt mich an
Willkommen in der Mk-Community › Foren › Energie & Stromspar – PC Systeme › Fragen zu Stromspar – PCs › Stillstand bei der Entwicklung und steigende Hardware-Preise: Es kotzt mich an
- Dieses Thema hat 64 Antworten und 24 Teilnehmer, und wurde zuletzt aktualisiert vor 11 Jahren, 9 Monaten von VJoe2max.
-
AutorBeiträge
-
-
9. Juni 2012 um 23:06 Uhr #501276HVR4000erTeilnehmer
Hallo,
ich verfolge die Sache seit 12 Jahren, und noch nie habe ich eine Zeit solchen Stillstandes erlebt. Vor einem Jahr kaufte ich mir ein Zacate Board, und mittlerweile ist es sogar teurer!!! Und das beste: Es gibt nix moderneres. Intel schiebt die Ivy Bridge nach, aber spendiert den sparsamen Modellen nur die Grafik-Krücke HD2500. AMD hat es bis heute nicht geschafft, Llano-Desktop-Modelle mit 45W TDP rauszubringen. Schlimmer: Der A8-3800 (65W TDP) versickerte zeitlebens im OEM-Markt.
Die Hardware-Preise steigen dank des schlechten Dollar-Kurses, und die Entwicklung befindet sich im Stillstand. Wir befinden uns quasi im Mittelalter. Ich wartete eigentlich auf ein Zwischending zwischen Llano und Ivy Bridge mit 35W TDP aber da kann ich wohl noch bis zur Rente warten.
Ist das das Ende der x86-Architektur?
Es ist jedenfalls gerade so unattraktiv irgendwas zu kaufen… -
10. Juni 2012 um 0:06 Uhr #921711VJoe2maxTeilnehmer
Das ist imo nur ein weiteres Endzeitphänomen welches gewisse Grenzen aufzeigt, die leider niemand wahr haben will. Man könnte viel besser damit umgehen, wenn man sich gesellschaftlich endlich mal darüber bewusst würde, dass rein gar nichts dauerhaft immer besser, schneller, größer oder toller werden kann. Veränderungen (oft zum Schlechteren) werden heute zum großen Wurf hochgeredet, aber substantiell tut sich naturgemäß nicht mehr viel oder sogar Negatives – nicht nur bei PC-Technik. Zwar gibt es immer noch Entwicklungsspielräume, aber im Endeffekt sind das alles auch nur Kompromisse die man lediglich durch Verschieben von Prioritäten erreicht. Wie beim viel beschworenen Wirtschaftswachstum (was ja nur noch virtuell aufrecht erhalten wird) sind exponentielle Entwicklungen eben grundsätzlich mit natürlichen Endstadien oder Abstürzen gesegnet ;). So eine rasante exponentielle Entwicklung wie die PC-Technik kommt zwangsläufig relativ schnell in den Sättigungsbereich, in dem wir uns schon ne Ganze zeit lang befinden. Das wird auch nicht mehr besser, sondern wird allenfalls noch ne Weile auf derzeitigem Niveau gehalten. Der Grund, dass ja nicht nur PC-Technik teurer wird ist imho aber im Wesentlichen bei anderen ungesteuert und mit Karacho an die Wand gefahren Branchen zu suchen ;).
-
10. Juni 2012 um 1:06 Uhr #921714WasserMaxTeilnehmer
Ja, statt auf Wachstum und Fortschritt sollte man sich vielmehr auf Zufriedenheit oder Glück als Zielvorstellung stützen. Denn was passierte in der Evolution immer, wenn eine Spezies die Domaninanz erreicht hat? Sie dezimiert sich selbst durch Nahrungsmagel (oder ein äußerers Ereignis beseitigt alle Individuen und schafft Entwicklungsraum für Nischenpopulationen).Aber mich stört der Stillstand in der PC Entwicklung nicht – Da brauche ich wenigstens nicht alle 2 Jahre eine neue Graka um alles in hübsch spielen zu können. Ich finds gut. Was die Aufrüsterei der vergangen Jahre an Ressourcen verbraucht und die Umwelt geschädgt hat… wenn ich alleine daran denke, wieviele I- bzw. Smart-Phones durch Vertragsverlängerungen überflüssigerweise an den Mann gebracht werden.
-
10. Juni 2012 um 9:06 Uhr #921720AnonymInaktiv
Nun Ich kann mich noch erinnern das ein PC um die 3998 DM gekostet hat ein CRT-Monitor um die 2490 DM in 19 Zoll.
Anno 1991 said:
PC:”Workstation” AT 80368SX/16MHz2MB RAM-SpeicherVGA-Grafikkarte 512kbDie Preise von PC sind etwas gefallen habe ca.2000DM oder 1800DM für meinen i7 920 bezahltEin 22″ TFT für 380 DM gekauftIch kann mich noch erinnern als das BTX raus kam ein Monochrom Bildschirm in Grün oder mit welcher Hardware ich einen Programmier-Kurs hatte Schneider PC mit Datasette und Einfarbigen Grünen Bildschirm. Meine SD Karte mit 256MB hat mich im Jahr 2003 101 Euro gekostet.Was mich jetzt an meiner Hardware Stört das die viel zu viel Strom verbraucht.Wenn ich sehe das ein Ivy mit 4x 4GHz nur ca.95Watt verballert.Die Zeiten habe sich in der Sicht geändert, das jetzt alles auf Stromsparen getrimmt wird.Und die Preise sich langsam bei kleinen Dingen wie zb. SD-Cards zur Ramschware entwickeln.Ich nutze Hardware jetzt mal abgesehen davon das meine viel zu viel Stromverbraucht so lange bis nichts mehr geht.Da ich durch viele Ökosendungen wie zb. das ein neuer PC sagen wir mal 2000 Tonnen Co2 oder noch mehr verbraucht bis er zu mir kommt.Oder…..Kaufen für die Müllhalde…Bevor ich was weg schmeisse oder neu gekauft wird erst alles das benutzt was ich zur Verfügung habe.Meinen Tintenstrahldrucker habe ich fast 10 Jahre nutzen können, obwohl er Unsummen an Tinte verbraucht hat. :-k was wohl nicht so gut war aber anders herum waren Laserdrucker kaum bezahlbar.Ich sehe da so das Hardware “billiger” wird und StromsparendNeue Techniken “sind schon in der Mache” wie zb. Intelligente grob gesagt CPU die sich selber “Heilen” können.Die wie ein Hochhaus aufgebaut sind also mehrere Etagen im Quadratischen Gerüst was bei einem Ausfall einer Leiterbahn sich einen neuen Weg sucht.Kann man vergleichen wie mit einem Neuronale Netze was es auch sein sollso in der Art. 😆 :+Hier kann bis zum 12.Juni die Sendung sehen: Endstation Fortschritthttp://www.arte.tv/de/Endstation-Fortschritt/6704612.htmlgesehen habe ich das noch nichtIst mir eben eingefallen/geschaut Timeline ab Jahr 2029 wird interessant
2029Mensch und Maschine Kopf an KopfTECHNOLOGIE Ray Kurzweil zufolge werden die Maschinen den Turing-Test bestehen, d.h. sie werden etwa ebenso “intelligent” sein wie die Menschen (BBC News).Quelle:http://www.arte.tv/de/Wohin-werden-wir-uns-im-Jahr-42012-weiterentwickelt-haben/6704612,CmC=6704740.html
-
10. Juni 2012 um 10:06 Uhr #921726BurntimeTeilnehmer
Meiner Meinung nach, gibt es keinen Stillstand in dieser Industrie – es findet nur ein Wandel, seitens der Kunden statt:
Wer kauft sich denn heute noch einen PC? Viele Endkunden greifen zum Notebook. Hier ist die Entwicklung der Hersteller gefragt. Ein Prozessor kann gar nicht sparsam genug sein um einen Ultrabook ein schlankes Design + lange Akkulaufzeit zu schenken.
Wie du schon sagst, ich bin bei der Sache seit 1998 dabei, damals hab ich mich gegen den I-Mac und für einen Pentium 3 mit 350 MHz entschieden.
2001 kam ein Aldi P4 mit 1.8 Ghz. An dem wurde etwas herumgebaut, am Ende war das Innenleben komplett neu (Core 2 Duo).
Es ist zum Leidwesen der Hersteller eine Entwicklung eingetreten, nämlich dass Programme nicht mehr Leistung erfordern. Windows XP ist auf dem P2 ganz langsam gelaufen. Win 7 verbraucht mindestens die gleichen Ressourcen. Meiner Meinung nach besteht kein Markt für leistungsfähige Hardware.
HVR4000er;490821 said:
Hallo,
ich verfolge die Sache seit 12 Jahren, und noch nie habe ich eine Zeit solchen Stillstandes erlebt. Vor einem Jahr kaufte ich mir ein Zacate Board, und mittlerweile ist es sogar teurer!!! Und das beste: Es gibt nix moderneres. Intel schiebt die Ivy Bridge nach, aber spendiert den sparsamen Modellen nur die Grafik-Krücke HD2500. AMD hat es bis heute nicht geschafft, Llano-Desktop-Modelle mit 45W TDP rauszubringen. Schlimmer: Der A8-3800 (65W TDP) versickerte zeitlebens im OEM-Markt.
Die Hardware-Preise steigen dank des schlechten Dollar-Kurses, und die Entwicklung befindet sich im Stillstand. Wir befinden uns quasi im Mittelalter. Ich wartete eigentlich auf ein Zwischending zwischen Llano und Ivy Bridge mit 35W TDP aber da kann ich wohl noch bis zur Rente warten.
Ist das das Ende der x86-Architektur?
Es ist jedenfalls gerade so unattraktiv irgendwas zu kaufen… -
10. Juni 2012 um 12:06 Uhr #921741Martin92Teilnehmer
Ich teile da Burntimes Meinung. Zumindest was die große Nachfrage angeht (die ja auch die Richtung der Entwicklung mit angibt).
Wenn man sich die Laptops bei Aldi und Co. mal genauer anschaut, sind diese immer noch viel zu überdimensioniert. Da geben leute 4-500€ für Laptops aus, um dann damit im Internet zu Surfen und ein paar Officedinge zu erledigen. Was ja eigentlich auch mit alten Laptops, die leider nicht mehr hergestellt werden (aber für nicht mal die Hälfte von vielen Händlern angeboten werden), gehen würde…
Bisher sagen sich Leute (oder es wird ihnen durch Werbung suggeriert), dass sie diese Dinger brauchen, doch das Thema Computer wird so langsam für jeden begreiflich, so dass man langsam weiß, was man an Hardware braucht und was nicht…
Nichts desto trotz bleibt die Entwicklung nicht stehen, ich denke nur, dass wir gerade an der Schwelle zu einer neuen Hardwareära stehen. Die jetztigen Methoden Computer zu bauen, also auf Halbleiterbasis, stoßen immer mehr auf ihre grenzen. Das Potenzial von optischen Rechnern, also mit Lichtleitern, wird immer mehr erforscht. Jede technische Uni experimentiert mit kristallen als Festplatten, CPUs aus Lichtleitern usw…
Natürlich dauert das noch eine ganze weile, bis es da die ersten PCs für die Massenfertigung gibt (sofern überhaupt, da diese Rechenleistung ja eigentlich garnicht gebraucht wird, außer von der Industrie), aber es zeigt doch, dass die Entwicklung ganz und gar nicht still steht 😉
-
10. Juni 2012 um 14:06 Uhr #921747Martin92Teilnehmer
Die Betonung lag hier auf “so langsam”. Und daran halte ich auch fest, die kommenden Generationen lernen alle ja bereits in der Schule viel mehr über PCs als die jetztigen Nutzer (im moment zwar immer noch zu wenig, aber die Tendenz ist steigend).
Und es gibt einen Unterschied zwischen gerade so ausreichend und völligem Overkill… Nur diese Goldene Mitte scheint der Handel bis dato noch nicht gefunden zu haben. Nähert ihm sich aber langsam an.
Was mich da eher stört ist, dass die Systeme so garnicht ausgewogen sind. Es gibt immer eine Schlüsselkomponente (meist der RAM oder die Graka), die für den Rest vom System völlig überdimensioniert ist. Die steht dann fett auf der Reklame, über die wird also einfach mal der komplette Rechner vermarktet…
Die Leute sehen das, und denken “Wow, das muss viel sein/der Rechner muss gut sein, wird gekauft” aber im Endeffekt hat man sich ein ziemlich beschissenes System gekauft.Wenn ich mich in meiner Umgebung so umsehe, sind da extrem viele mit ihren tollen neuen Macbooks/Laptops etc… Aber mehr wie Facebook, unsre kleine Farm und Solitär werden die Laptops nie zu sehen bekommen.
-
10. Juni 2012 um 14:06 Uhr #921744PattyTeilnehmer
Martin92;490853 said:
… doch das Thema Computer wird so langsam für jeden begreiflich, so dass man langsam weiß, was man an Hardware braucht und was nicht…Das glaube ich kaum!
Und wer will schon Hardware kaufen, die gerade so für seine Zwecke ausreicht? -
10. Juni 2012 um 17:06 Uhr #921761Michael_JimTeilnehmer
deswegen habe ich noch meinen Core2Duo E8600 mit 3,33ghz 🙂
8GB DDR 2 Ram tun es auch noch.
Nur die Grafikkarte habe ich mal getauscht.
Gut die neusten Spiele laufen nicht mehr auf allerhöchsten Details, aber es gibt nichts was unspielbar ist 🙂
Also ich hoffe der Rechner hält noch einige Jahre und dann gibt es vielleicht auch mal wieder richtig coole Neuerungen 🙂
Im Moment hat sich nur der Speicherbereich durch SSD stark gewandelt. -
11. Juni 2012 um 10:06 Uhr #921826ThaRippaAdministrator
Ich finde, man muss den Standpunkt beachten, auf dem man steht. Sonst stimmt die Perspektive nicht. Ein Rechner, schnell genug für alles-außer-Spiele wird jeden monat billiger. Aber was kaufen wir? Mittelklasse. Mit Leistungsreserven für die nächsten Jahre. Marketinggeschwurbel glaubend und mit RAR-Archiv-Entpackzeiten und Full-HD-Transcodierung im Hinterkopf. Die Klasse bleibt etwa gleichteuer. Die gleiche Leistung wird aber tatsächlich billiger, leiser, sparsamer. Nur unsere Anforderungen steigen. Wir gewöhnen uns an Luxus und an Geschwindigkeit. Auf einen PC warten müssen ist schon fast als wäre er abgestürzt, seitdem SSDs verfügbar sind. Alles muss sofort fertig sein. Und natürlich wird auch die Datenmenge immer größer. Wir drehen zu lange Urlaubsvideos in FullHD und schießen 20MP-Wackelbilder mit der Aldikamera. Und dann bearbeiten wir das Zeug mit drittklassiger Software des Kameraherstellers oder Javabasierten Internetapps. Hier steigen die Anforderungen jedes Jahr. Glaubt ihr nicht? Wieviele HD-Videos habt ihr vor 5 Jahren über youtube&co geschaut, wieviele waren es dieses Jahr?Und zuletzt: es gibt keine Killer-Apps mehr. Jedes Jahr kommt ein Spiel vom Schlage eines BF3 heraus, und dann haben die Grafikkarten wieder richtig zu tun. Aber die Prozessoren reichen weiterhin aus, auch wenns für Core2Duo bald eng werden dürfte nicht zum Flaschenhals der Grafikkarte zu werden. Daran ändern auch die nächsten Konsolen nix, denn dort wird nur die Grafik besser. Was müsste also passieren, damit die PC-Technik sich insgesamt neu erfindet? Vielleicht reicht eine halsbrecherisch coole Spieleschmiede, die eine ultrarealistische Weltsimulation anfertigt. Eine Stadt voller Leben, in der die Spielhandlung abläuft. Mit Details bis in den Millimeterbereich. Bäume mit individuell berechneten Blättern, die im Wind wackeln. Errechnetes Blätterrauschen. Fahrgeräusche von Autos, die durch berechnung entstehen. Sowas kann kein PC derzeit leisten. Auch optimierung wird da nicht reichen. Aber es könnte ja optional sein, modular, wie damals bei den ersten Spielen mit Soundblaster-Sound. Weniger als 4MB RAM? Dann spielen wir eben nur die hälfte der Sounds ab! Hey, wieviele Leute haben sich damals Physix-Fähige Rechner angeschafft, damit sie in Batman wehende Stofffetzen und an einer Stelle Rauch sehen?Aber nein, es wird kaufmännisch gedacht. Das Spiel muss bei jedem laufen (PC, Konsolen), zumindest theoretisch, denn er soll es ja kaufen. Und dann muss es irgendwie noch mal “gratis” Geld abwerfen, ob nun per DLC, Addon oder Ingame-Auktionshaus. Darüber sollte man sich ärgern. Über die Software, nicht über die Hardware. Es wäre heute so viel möglich, mit der vorhandenen Technik sogar. Ohne neues zu kaufen. Aber halt, das will ja niemand.
-
11. Juni 2012 um 11:06 Uhr #921830Martin92Teilnehmer
Mit deinem Standpunkt hast du da sicherlich recht. Nur ist das nicht der der Masse. Denn die nutzt Rechner immer noch lediglich fürs Office. Begriffe wie RAR-Archive sind da zumindest jetzt noch völlig fremd. Natürlich wird man bequemer und möchte nicht auf die Geschwindigkeit verzichten, doch bei Officeanwendungen kann man da noch nicht von großen Geschwindigkeitsunterschieden sprechen…
Dass diejenigen, die mehr mit ihrem PC machen (also mit zb deiner Prespektive) auch automatisch bereit sind, noch mehr zu bezahlen, also auch die größere Kaufkraft auf dem Sektor haben, stimmt natürlich (auch gibt es noch die, die es nur aus Prestigegründen wollen). Nur ist das eine, verglichen mit allen PC-Abnehmern, extrem kleine und spezielle Zielgruppe, die aufgrund von sehr gut gesteuertem und ausdifferenzierten Zielgruppendefinitionen überhaupt nicht in das Raster von Aldi-PCs (vielleicht für den Leistungsstärkeren Aldi-PC, der nur einmal im Jahr rauskommt) kommt…
Dass dabei kaufmännisch gedacht wird, ist nicht anormal. Wir leben in Europa, ein System das in erster Linie mal auf der Wirtschaft aufbaut und dessen Wertesystem (schneller, besser, weiter, mit all seinen Vor- und Nachteilen wie es hier schon kritisiert wurde) gerade in Deutschland am meisten seit 60 Jahren ausgelebt wird…
Da ist die Pattsituation, dass die Konsolen die Entwicklung bremsen, nicht verwunderlich. Spielekonsolen gab es eben schon bevor sich der Personal Computer etabliert hat. Und sie bedienen einer extrem großen (aber ich möchte mal behaupten schrumpfende) Zielgruppe. Nämlich gerade die, die mit dem Thema nicht so vertraut ist. Man hat um die Technik im inneren nicht wirklich das wissen, man will sich auch nicht mit einem OS oder eine Installation rumplagen. Einfach CD rein und losspielen (die angebliche Powergrafik wird vom Marketing schöngeredet).
Die richtigen Gamer würden sich also tatsächlich freuen können, wenn es plötzlich keine Konsolen mehr gäbe, aus den von dir genannten gründen. Doch für die Wirtschaft wäre es äußerst unökonomisch. Man würde praktisch eine Marktlücke schaffen und sich ihr nicht bedienen. (wenn man da mal so drüber nachdenkt, ist das in unserer Kultur doch unmöglich) +
Daher wird man auf diesem Kompromiss wohl solange nicht verzichten können, bis die Konsolenspieler ausgestorben sind.Das ist ja in allen Bereichen des Lebens so. Viele dinge sind schon lange erforscht und müssten nur noch für die Massenferigung optimiert werden, doch der Markt lässt es einfach nicht zu, weil es ein sehr träges, mit Bürokratie vollgestopftes, System ist. Viele haben angst zu investieren, die jetztigen Methoden werfen ja genug Geld ab, also hält man sie so lange es geht (so viel zur nachhaltigen Ökonomie). Da fallen mit auf Anhieb viele Beispiele ein. Wie sich Elektro- und Verbrennungmotoren entwickelt haben. Atom- und Fusionskraftwerke. Oder eben Konsole und PC 😀
Aber ich glube, wir weichen ein wenig vom Thema ab… -
11. Juni 2012 um 12:06 Uhr #921837IwanTeilnehmer
mein erster Computer war ein Cyrix 6X86 mit 100 MHz (3,3V), unterstützt von 4 MB Ram und einer Graka mit 256kb, dazu ein 13″ Monitor (max. 800*600, 16bit)ich bin also auch schon sehr lange dabei und wundere mich etwas über über die Überschrift des Threadsdie Entwicklung steht nicht still, aber man sollte sich mal klar machen, das sich die Prioritäten geändert bzw. verschoben habenBeispiel: CPUder GHz-Wahn bzw. der Wettlauf zwischen Intel und AMD ist mehr oder weniger ad acta gelegtstatt immer höhere Taktraten erreichen zu wollen, geht der Trend eher hin zur Optimierung und vor allem in Richtung Strom sparenwas nützt mir eine CPU mit 10 GHz, wenn ich dafür (etwas übertrieben) ein eigenes Kraftwerk benötige und den Rechner in eine Gefriertuhe packen muss?Beispiel: GPUder ewige Kampf zwischen nVidia und AMD/ATi – der ewige Kampf um Leistung bis zum Abwinkenich bin der Meinung, das AMD sich hier bereits einen ganz klar Vorteil erarbeitet hat: ausreichende Power und denoch stomsparendnVidia sprang mit der letzten GPU-Serie nun endlich auch auf den Zug auf, aber noch nicht so wirkungsvoll, wie es AMD schon seit mehreren GPU-Generationen schafftBeispiel: APUes ist doch eine super Sache, wenn ein für den Office-Betrieb ausgelegter Rechner keine extra Grafikkarte braucht und somit Energie eingespart werden kannmittlerweile sind sie so stark geworden, das man damit sogar das eine oder andere Spiel flüssig spielen kannmanchmal muss man einen Schritt zurückgehen, um vorwärts zu kommen…steigende Hardwarepreise sehe ich auch nicht so wirklich (außer bei HDDs aufgrund der Flutkatastrophe)ein Intel C2D E8600 (2*3,33GHz, 65W, 45nm) hat ca. 220-230€ gekostet, als er auf den Markt kamein Intel C2Q Q79650 (4*3,0GHz, 95W, 45nm) hat fast das doppelte gekostetund heute?ein Intel i5-3550 (4*3,3GHz, 77W, 22nm) lag bei ca. 200-210€, als er rauskamman könnte also sagen, das die Hardware eher günstiger geworden ist als teurer (zumind. bei CPUs) oder der Preis blieb nahezu gleich während aber die Leistung anstiegich denke, jeder sieht das Thema anders, weil jeder einen unterschiedlichen Bedarf hat
-
11. Juni 2012 um 12:06 Uhr #921840Martin92Teilnehmer
Iwan;490954 said:
ich denke, jeder sieht das Thema anders, weil jeder einen unterschiedlichen Bedarf hatSo sieht’s aus 🙂
Und der Bedarf gibt im wesentlichen die Richtung der Entwicklung an. Deshalb ist alles etwas verzwickt und man muss Kompromisse eingehen können… -
11. Juni 2012 um 13:06 Uhr #921842ThaRippaAdministrator
@Martin92: Es ist doch nicht der böse Aldi oder Mediamarkt, der die Rechner teuer macht. Klar lassen viele sich mit großen Zahlen locken, aber auch im MM gibts schmale Officerechner für 299€. Ob der Kunde hier richtig beraten wird ist ne andere Sache. Aber wer gezielt sowas will, bekommt es heute auch.Übrigens glaube ich nicht, dass die Konsolen aussterben werden. Im Gegenteil. Die PC-Spielerei wird aussterben, weil das Seichte immer gewinnt. Die Schüler mögen mehr über PCs lernen als früher, aber mehr interesse ist deshalb auch nicht da. Die meißten Menschen wollen das etwas funktioniert, und nicht darüber nachdenken wieso. Die nächsten Konsolen werden ihre optischen Medien optional machen (längst überfällig) und so optisch im Wohnzimmer abtauchen. PC-gamer werden doch jetzt schon als Suchtis und blasse Nerds verallgemeinert. Eine Konsole und deren Nachfolger mit casual Fruchtzerteil- oder Vogelschleuder-Spielprinzip ist dagegen gesellschaftlich akzeptiert. Weil es so herrlich kurz und pausierbar ist. Keine Tiefe hat, die Tiefenwissen erfordert und damit Zeit benötigt.
-
11. Juni 2012 um 14:06 Uhr #921844hreTeilnehmer
ThaRippa;490959 said:
Die meißten Menschen wollen das etwas funktioniert, und nicht darüber nachdenken wieso.Ausschnitt aus der oben verlinkten Arte-Doku sinngemäß: (Zwei Äffchen im Bild) Der Unterschied zwischen dem Primaten und dem Menschenkind ist, dass der Primat immer und immer wieder versucht die gleiche Methode anzuwenden egal wie oft der Bauklotz umfällt. Der Mensch fragt sich hingegen “warum?”
…gibt mir schon zu denken :-k
-
11. Juni 2012 um 15:06 Uhr #921852Martin92Teilnehmer
ThaRippa;490959 said:
@Martin92: Es ist doch nicht der böse Aldi oder Mediamarkt, der die Rechner teuer macht. Klar lassen viele sich mit großen Zahlen locken, aber auch im MM gibts schmale Officerechner für 299€. Ob der Kunde hier richtig beraten wird ist ne andere Sache. Aber wer gezielt sowas will, bekommt es heute auch.Bloß will es keiner, weil alle von der Werbung teurere PCs vorgeschrieben bekommen. Wer sich in einem richtigen PC-Fachhandel beraten lässt (und da gehören MM, Saturn etc. nicht dazu, da muss man shcon Glück haben, richtig beraten zu werden), der kann schon sicher sein, das zu bekommen was er braucht. Aber solche Läden gibt es (zumindest bei uns in der Umgebung) immer weniger, da sie gegen die großen nicht ankommen (zumal sind sie dann meist auch trotz angepasster Hardware nicht billiger, da der Service hier eben unfangreicher ist).
-
11. Juni 2012 um 15:06 Uhr #921853littledevilTeilnehmer
Klar gibt es nicht mehr diese riesen Schritte, aber der Verbrauch sinkt langsam aber sicher.
Klar sind die Unterschiede zw. Ivy und Sandy nicht so groß, aber das war beim Wechsel von 775 65nm auf 45nm ja auch nicht großartig anders.Bei meinem i7 2600 habe cih nicht das gefühlt, da der irgendwo “zu schnell” ist oder ich die Leistung nicht benötige. Man gewöhnt sich sehr schnell dran. Meine Laptops mit Dual-Core erscheinen mir eher ne Ecke zu langsam. Klar reicht das, aber wenn man weiß das es schneller geht, nutz man es gern.
Bin mal gespannt, wie groß der gefühlte unetrschied zw. dem i7 2600 @3,3 GHz und dem 2600k >4 Ghz ist. in noch nicht dazu gekommen den zusammen zu bauen. -
26. Juni 2012 um 10:06 Uhr #922896AndreaTeilnehmer
In den vergangenen Jahren konnte man eine Differenzierung beobachten sprich Workstation, Desktop PC und Thin Clients sowie Laptop, Notebook und Tablet PC.
Andererseits haben die Hersteller heraus gefunden, dass ein CPU auch mit 10 GHz nicht viel an der PC Leistung schraubt. Es sei denn man braucht die CPU wirklich nur zum Rechnen sprich z. B. für ein Schachprogramm oder Passwörter zu berechnen ect.
Seit dem gibt es ja CPU`s mit mehreren Kernen *lach Okay es gibt zwar weiterhin nur eine Central Einheit, aber es wird so getan als simultan mehrere Kerne die Central Einheit bilden. Wer nach denkt, fragt sich, wie das bei einer Central Einheit über möglich sein soll…aber egal…Marketing Technisch hört es sich jedenfalls gut an.
Des Weiteren hat sich nichts auf den Board selbst geändert, außer das IDE so langsam ausstirbt und SATA3 sowie USB3 auf dem Markt ist. Leider ist es heutzutage immer noch so, dass die langsamste Komponente im System den Takt angibt. Aber auch dafür haben die Hersteller eine Lösung siehe PCIe SSD Karten.
Dies alles ändert aber nichts an der Tatsache, dass eigentlich seit 2000 nichts wirklich neues dazu gekommen ist.
Ich warte noch immer darauf, das ein Mainboard endlich ein einheitliches Bussystem hat und nicht zig verschiedene. Das wäre mal etwas feines.
-
26. Juni 2012 um 11:06 Uhr #922898ThaRippaAdministrator
Ein Bussystem? Wird nicht stattfinden, solange es zwei CPU-Hersteller gibt. Und auch sonst, nicht jeder Bus ist für alles gleich gut geeignet. Der SMB zum Beispiel….möchte man nicht mit Hochperformancebussen machen. Zuletzt: Fehlersuche wird damit endgültig ein Glücksspiel. Denn dann kann ein defektes Lüftersignal den Rechner stilllegen.
-
26. Juni 2012 um 19:06 Uhr #922921VJoe2maxTeilnehmer
Rechne mal ein aufwändiges ExcelSheet mit und ohne HT durch – da merkst du absolut nichts davon, obwohl Excel HT unterstützt und alle Kerne (physikalische wie virtuelle) nutzt wenn man es lässt. Klar mag es minimale Vorteile im eine oder anderen Programm durch HT geben, aber der Wirbel der nach wie vor darum gemacht wird ist imho massiv übertreiben. Im Vergleich zu echten physikalischen Kernen sind virtuelle Kerne einfach nur eine Spielerei ohne nennenswerten Effekt. Virtualisierung profitiert auch viel mehr von den VT-Features die inzwischen in CPUs implementiert sind als von HT.
-
26. Juni 2012 um 19:06 Uhr #922916VJoe2maxTeilnehmer
Auf modernen Boards sind ja sowieso nur noch sehr wenige Bussysteme vorhanden. Seit USB, PCIe und SATA die Standardsschnittstellen sind, gibt´s ja fast nur noch serielle Verbindungen (wenn auch teilweise mit mehreren parallelen lanes). Was die MulitCore CPU-Entwicklung angeht: Heutige Mehrkern-CPUs sind schon etwas anderes als Hyperthreading (virtuelle Kerne), was du ja ansprichst. In allen aktuellen MultiCore-CPUs arbeiten tatsächlich mehrere physikalisch getrennte CPU Kerne simultan. Die Aufgaben werden an die verschiedenen Kerne verteilt und simultan auf parallelen Schaltkreisen berechnet. Es ist dadurch möglich einem Programm z.B. exklusiv eine komplette Recheneinheit, die einer Singlecore-CPU entspricht, zuzuweisen, während andere Programme unabhängig davon auf anderen Kernen berechnet werden. Programme die ihre Aufgaben selbst auf mehrere Threads verteilen, können natürlich auch mehrere Kerne gleichzeitig nutzen – das ist letztlich nichts anderes, als das wann man früher auf Server-Mainboards mit mehreren Single-CPU-Sockeln machte. Dass man heute nicht mehr mehrere Chips und Sockel dafür verwendet hat im Wesentlichen Kosten-, Platzbedarfs und Effizienz-Gründe. Dass eine CPU nach wie vor nur eine Sockel belegt bedeutet jedenfalls nicht, dass sie keine echte physikalische Parallelisierung bietet. Es tatsächlich vier echte CPU-Kerne die heute in einer QuadCore-CPU stecken. Eine Zeit lang wurden bzw. sogar mehrere physikalisch getrennte DIEs in einem Sockel-Package untergebracht (z. B. die ersten Intel Quad-Cores aus zwei Dual-Core DIEs unter einem IHS). Im Endeffekt entsprechen Muti-Core-CPUs einem alten Single-Core System mit vier Sockeln, sind aber wesentlich effizienter. Ein wirklicher technischer Fortschritt ist das aber nur bedingt, denn es handelt sich ja im Wesentlichen nur um Miniaturisierung und Optimierung altbekannter Parallelisierungs-Taktiken. Lediglich “Hyperthreading” ist tatsächlich bloß eine virtuelle Parallelisierung – und sein wir mal ehrlich: Diese virtuellen Kerne haben noch nie was gebracht und sie bringen auch heute noch nichts. Die echte Parallelisierung durch echte Mehrkern-CPUs hat aber, zumindest bei Software die Multithreaded abläuft durchaus etwas gebracht. Piplining-Probleme wie sie bei Single-CPUs noch üblich waren, sind heute z.B. nur noch ein Randthema. Etwas grundsätzlich Neues sind MultiCore-CPUs dennoch nicht gewesen. Ganz extrem hat man die physikalische Parallelisierung über viele Rechenkerne btw auch bei der Leistungsexplosion von Grafikkarten gemerkt. Zwar sind die Einheiten hier wesentlich spezialisierter und deshalb kleiner, aber es sind eben sehr viele. Auf dem DIE eines GPU-Chips sitzen ja heut zu Tage physikalisch hunderte parallel arbeitender Schadereinheiten. Bei Software die das zu nutzen weiß (Stichwort CUDA), wurden damit schon erhebliche Leistungssteigerungen erzielt. Nichts desto trotz ist das Problem von Home-PCs ja eigentlich schon lange nicht mehr die Rechenleistung, sondern die Tatsache, dass die Entwicklungen die heute gemacht werden eigentlich alle nur Optimierungen bekannter Technik sind und teilweise sogar nur durch künstlich aufgeblasenen Programmcode und Spielereien wie z.B. nahezu fotorealistische Games ausgenutzt werden. Wirklich substantielle Fortschritte gibt´s im EDV-Zirkus schon lange kaum mehr. Es wird lediglich noch manchmal Altbekanntes neu verpackt, etwas beschleunigt oder massenmarktfähig gemacht. Am ehesten konnte man in den letzten Jahren vllt. noch SSDs als echte Neuerung ansehen – wobei das grundlegend natürlich auch nichts wirklich Neues ist. Eigentlich merkt man außer vllt. bei aufwändigen Spielen in der Regel bei einem Großteil der Software überhaupt keine oder nur marginale Verbesserungen mehr, wenn man einen altern Rechner gegen ein neueres Modell ersetzt. Inzwischen sind wir eher so weit, dass man Errungenschaften der Vergangenheit zu Gunsten des schönen Scheins vernachlässigt oder sogar aktiv abschafft (siehe aktuelle Entwicklung der MS-Betriebssysteme). Außerdem sprießen immer mehr Endzeit-Phänomene wie Cloud-Dienste als digitale Müllhalden oder f***book als massengängige Verblödungsmaschinerie aus dem Boden. Man weiß ganz offensichtlich nicht mehr viel Vernünftiges mit Rechenleistung und Speicherplatz anzufangen.
-
26. Juni 2012 um 19:06 Uhr #922920ThaRippaAdministrator
Na na na, Hyperthreading (Simultaneous Multitasking) bringt sehr wohl was. Selbst ich als AMD-gernhaber finde diese Methode klasse. Immerhin lassen sich so ungenutzte Kapazitäten mobilmachen und (je nach Arbeitslast) schneller rechnen als ohne. Virtualisierungssysteme wie Hyper-V und VMware-ESX profitieren inzwischen auch generell davon, daher wird dort dazu geraten, es einzuschalten. Das heißt es ist vielleicht nicht immer schneller, aber nie langsamer als ohne SMT.Und zum Beispiel die intel Atoms sind nur mit HT/SMT halbwegs benutzbar geworden, denn da herrscht eigendlich immer Volllast.Was mir Angst macht ist die Entwicklung bei den Smartphones. Dort sind sie nun schon bei Quadcore-CPUs angekommen, und bei 2GB RAM. Gebraucht wird das nicht, aber man muss ja die Konkurrenz übertrumpfen. Und größere Bildschirme bauen geht ja auch bald nicht, da man sonst ein Tablet erhält. Demnächst werden dann wohl 16-Kern-Telefone mit 32GB Ram und SLI-Grafik (nVidia-Chips gibts ja) verkauft.
-
26. Juni 2012 um 20:06 Uhr #922924ThaRippaAdministrator
Kommt wie gesagt auf die Anwendung an. Das Excelsheet ist natürlich nicht grad prädestiniert, weil da quasi nur Integerberechnungen gebraucht werden Beispielsweise. HT ist besonders stark bei völlig verschiedenen Operationen, also Beispielsweise Vektormultiplikation und gleichzeitig “normale” Rechenaufgaben. Während ein “Kern” aufs Ram wartet, kann der andere rechnen. Klar, wenns kaum Cache-miss gibt und daher nie aufs Ram gewartet wird, dann bringt HT weniger. Aber selbst BOINC profitiert doch davon, wenn ich das hier im Forum richtig verfolgt hab?Und gerade bei den kleinen (mobilen) i3 macht das HT was aus. Klar haben die auch mehr Cache als ein Pentium, aber den brauchen sie ja auch wegen der zwei Kontexte pro Kern. Und ja, mir sind auch meine 6 echten Kerne lieber als 8 “halbe” Stars-Kerne. Bis die so schnell sind pro Takt wie ein K10.5er, oder bis es 12 “halbe” mit mehr Leistung für weniger Strom gibt. Und zwar obwohl schon 6 ganze “zu viel” sind.
-
26. Juni 2012 um 21:06 Uhr #922930HorstelinTeilnehmer
VJoe2max;492087 said:
Nichts desto trotz ist das Problem von Home-PCs ja eigentlich schon lange nicht mehr die Rechenleistung, sondern die Tatsache, dass die Entwicklungen die heute gemacht werden eigentlich alle nur Optimierungen bekannter Technik sind und teilweise sogar nur durch künstlich aufgeblasenen Programmcode und Spielereien wie z.B. nahezu fotorealistische Games ausgenutzt werden. Wirklich substantielle Fortschritte gibt´s im EDV-Zirkus schon lange kaum mehr. Es wird lediglich noch manchmal Altbekanntes neu verpackt, etwas beschleunigt oder massenmarktfähig gemacht. Am ehesten konnte man in den letzten Jahren vllt. noch SSDs als echte Neuerung ansehen – wobei das grundlegend natürlich auch nichts wirklich Neues ist.
Eigentlich merkt man außer vllt. bei aufwändigen Spielen in der Regel bei einem Großteil der Software überhaupt keine oder nur marginale Verbesserungen mehr, wenn man einen altern Rechner gegen ein neueres Modell ersetzt. Inzwischen sind wir eher so weit, dass man Errungenschaften der Vergangenheit zu Gunsten des schönen Scheins vernachlässigt oder sogar aktiv abschafft (siehe aktuelle Entwicklung der MS-Betriebssysteme). Außerdem sprießen immer mehr Endzeit-Phänomene wie Cloud-Dienste als digitale Müllhalden oder f***book als massengängige Verblödungsmaschinerie aus dem Boden. Man weiß ganz offensichtlich nicht mehr viel Vernünftiges mit Rechenleistung und Speicherplatz anzufangen.Sorry, aber vielleicht wird da jemand einfach nur alt? :respekt: Die Technologische entwicklung die der PC in den Letzten 10 Jahren gemacht hat ist einfach nur enorm, und bei steigender Verbreitung von DSLRs und deren Megapixel ist Leistung auch bitter nötig! Und bei der SSD von keiner technischen Neuerung zu reden ist wie wenn man sagt, hey die CPU war keine technische Neuerung, Transistoren gibt es schon ewig! Eigentlich ist es doch der Feinschliff, der dafür sorgt dass ein Produkt auch Spass macht 😉 Und Sachen wie Clouds (Dropbox etc) ersetzen endlich dieses nervige USB-Stick hin und her gestecke.
-
26. Juni 2012 um 22:06 Uhr #922937biggTeilnehmer
Der Hardware-Markt ist gesättigt und die physikalischen Grenzen sind erreicht. O:-)Ein Prozessor kann maximal mit 4 GHz effizient getaktet werden.Die Fertigungsverfahren in 22 nm sind ausgereizt. Wie groß ist nochmal ein Atom?Zudem werden sperrige, viereckige PCs für Privatanwender immer unintressanter.Handies, Flachbildschirme und Ultrabooks ersetzen diese wohl in den nächsten vier Jahren, Prototypen gibt es jetzt schon.http://www.ubuntu.com/devices/android[SIZE=”1″]Preise für Hardware sind meiner Meinung drastisch gefallen, außer bei Festplatten. Habe mir letztes Jahr 3xSamsung Spinpoint F3 500 GB für 30 € das Stück gekauft. Jetzt kosten sie das doppelte.Ich kann mich noch an Zeiten errinnern, da hat ein AMD X2 Sockel 939, 400 € gekostet.[/SIZE]Prinzipiell kannst du dir heute jede erdenkliche Hardware zusammenstellen, die deine Anforderungen erfüllt.- 32 GB Arbeitsspeicher für 160 €, in einem 19 Zoll Rack passen locker 96 GB- einen sparsamen DualCore (Intel G540) gibt es für 40 €, einen X6/X8 für 130 €, einen oder mehrere Xeon(s) für wesentlich mehr- ein ITX-Board für 60 €, Server-Boards ab 200 €- SSDs mit Leseraten über 1 GB/s, 1TB Speicher und einem Energieverbrauch von 10 Watt- einzig die 3 Watt Grafikkarten wären schön, aber die gibt es ja schon onBoard #-o
-
26. Juni 2012 um 23:06 Uhr #922938littledevilTeilnehmer
Da geht noch was – bis 2022 soll es bis 4nm runter gehen gehen1996 habe ich für meine 2GB HDD 600 DM bezahlt – auch wenn die Preise uns nach der Flut sehr hoch vorkommen, sind die Festlatten doch immer noch recht günstig im Verhältnis zu dem was man wirklich benötigt.Die 2Gb waren damals recht schnell voll…
-
26. Juni 2012 um 23:06 Uhr #922944biggTeilnehmer
Eine neue Platte für 30 € mit 500 GB und nur einem Platter kann nur unter Wert verkauft wurden sein. Wenn man bedenkt, das davon noch 19 % Märchensteuer abgezogen werden, Transportkosten bis zum Händler anfallen und man zwei Jahre Gewährleistung hat, ein Witz.
Die Platten wurden in den letzten zwei Jahren zum Teil unter Wert verkauft. Ist ja beim RAM ähnlich. Samsung verkaufte die Festplattensparte an Seagate.
Elpida ist Pleite und wurde an Micron verscherbelt, Infineon hat die Kurve ja noch grad so gepackt, Qimonda hat man untergehen lassen.
Soviel zum Thema teure Hardware.
-
27. Juni 2012 um 9:06 Uhr #922954hreTeilnehmer
Kaboom;492124 said:
Den nächsten großen Sprung erwarte ich einfach bei den Providern und der Inetanbindung.Ha, da kann man lange warten, glaube ich.Den letzten Vorstoß in diese Richtung seitens Telekom hat man wegen zu wenig zu erwartendem Gewinn abgesetzt =D>Deutschland…angeblich so gut in Sachen Technik – und in der eigenen Versorgung ganz hinten dran.
-
27. Juni 2012 um 9:06 Uhr #922953KaboomTeilnehmer
VJoe2max;492087 said:
Und Sachen wie Clouds (Dropbox etc) ersetzen endlich dieses nervige USB-Stick hin und her gestecke.Dieses Clouds sind schon ne feine Sache, das ist richtig. ABER, das ganze macht erst mit ner schnellen Inetleitung Spaß/Sinn. 16mbit sind ja ganz nett, die hätte ich aber auch gerne im Upload. Den nächsten großen Sprung erwarte ich einfach bei den Providern und der Inetanbindung. Die Hardware die es heutzutage gibt ist wohl für 99% der User mehr als ausreichend.MFG Alex
-
27. Juni 2012 um 10:06 Uhr #922955Martin92Teilnehmer
Nun bei uns sind Sie schon länger in der Planungsphase alles mit Glasphasertechnick auszubauen. Das wird aber wohl auch noch eine weile dauern, bis wirklich alle Leitungen bis hin zum Haus (und auch die Routertechnik) darauf umgestellt sind.
-
27. Juni 2012 um 10:06 Uhr #922956ThaRippaAdministrator
Kaboom;492124 said:
VJoe2max;492087 said:
Und Sachen wie Clouds (Dropbox etc) ersetzen endlich dieses nervige USB-Stick hin und her gestecke.Dieses Clouds sind schon ne feine Sache, das ist richtig. ABER, das ganze macht erst mit ner schnellen Inetleitung Spaß/Sinn. 16mbit sind ja ganz nett, die hätte ich aber auch gerne im Upload. Den nächsten großen Sprung erwarte ich einfach bei den Providern und der Inetanbindung. Die Hardware die es heutzutage gibt ist wohl für 99% der User mehr als ausreichend.MFG Alex
Dropbox lädt bei mir mit <100kbyte/s hoch. Das ist ein Zehntel dessen, was ginge. Schnelleres Internet als 10M down 1M up muss (abgesehen von HD-Streams) eigentlich nicht sein. Aber es müsste für jeden billig verfügbar sein. Mit kurzen Latenzen und ohne *5GB-im-Monat-Fallen. Dieser Stillstand nervt mich!
-
27. Juni 2012 um 11:06 Uhr #922957ghostadminTeilnehmer
Also Notebook für stationären Einsatz verwende ich nicht. Die günstigen Modelle haben nicht mal ne Dockingstation. Und genug Performance für Spiele gibts auch nicht.
Die Displays in Notebooks sind oft schlecht (dunkel, schlechter Bildwinkel) und Tastatur,Maus benützt man auch extern.
Dazu kommt noch das man bei einem defekt oft das ganze Notebook wegwerfen kann.Was mich eher nervt das Intel die Preise so lange konstant hält, weil AMD nicht hinterher kommt.
Und das die HDD Preise immer noch so hoch sind. Seltsamerweise sind aber Festplatten für den Dauerbetrieb kaum teurer als damals. Da stecken Preisabsprachen zwischen Seagate und WD dahinter. -
27. Juni 2012 um 12:06 Uhr #922960ghostadminTeilnehmer
Die Telekom investiert einfach nur nichts, die lassen sich das schön von den Gemeinden bezahlen und dann bekommt man als nicht-Telekom Kunde nichtmal was davon :(In Sachen Internet hinkt D meilenweit hinterher, selbst Rumänien ist schon zigmal schneller.
-
27. Juni 2012 um 12:06 Uhr #922961KaboomTeilnehmer
Was mich heute wieder richtig genervt hat war folgendes Szenario. Schön den Einkaufswagen vollgeknallt und an der Kasse alles wieder aus und eingeräumt. Sowas geht mir tierisch auf den Zeiger x(. Sollen die doch endlich diese verflixte RFID Technik nutzen dann brauchste den Wagen nicht mehr auspacken sondern nur noch an den Antennen an der Kasse vorbeischieben und bezahlen.
-
27. Juni 2012 um 12:06 Uhr #922959MickdaggerTeilnehmer
Ich denke wir werden leider noch etwas auf den nächsten großen Sprung mit unseren häuslichen Internetleitungen warten müssen. Nicht nur aufgrund des Kostenrisiko´s sondern auch wegen der mit der Downloadgeschwindigkeit steigenden Internetpiraterie bzw. den verklemmten Medienkonzernen, welche mit ihren veralteten Methoden versuchen irgendetwas dagegen zu unternehmen (Megaupload, ThePiratebay).Aber das is n anderes Thema.Der neue Trend im Punkto alles kleiner, dünner und am besten in Weiß geht mir auch n bisschenaufn Sack. Die Hardware wird so konstruiert, dass sie 1 bis höchstens 3 Jahre lang funktioniert,damit die Leute kaufen, kaufen und nochmals kaufen. Bis wir wirklich wieder mitInnovationen rechnen können, müssen wir erstmal vollständig abgemolken werden, damitwir realisieren was mit uns gemacht wird und etwas dagegen unternehmen.
-
27. Juni 2012 um 13:06 Uhr #922966littledevilTeilnehmer
RFID wird ja oft schon genutzt, aber nicht zu Deinem Vorteil 😀
Ich sage nur Wagennummer bei Kaufland…
Wobei ich nicht verstehe, warum das nicht automatisch zugeordnet wird, wenn der wagen durchgeschoben wird… :-k -
27. Juni 2012 um 13:06 Uhr #922969ThaRippaAdministrator
Diese Wagennummer ist meiner Meinung nach nur dazu da, dass die Mitarbeiter an der Kasse ihre Hintern alle Minute einmal heben. Weil wenn das wirklich nötig wäre, das händisch einzugeben, und irgendeinen verwaltungstechnischen Sinn hätte, warum brinen sie die Nummer dann genau da unten an?Aber ja, ich ersehne auch RFID-Einkaufen. Alles in nen Korb (oder gleich in den Rucksack poder die Tüte), komplett durch nen RFID-Scanner geschoben, Telefon ans NFC-Bezahlpad gehalten, noch nen PIN eingetippt und fertig. BLöd nur, dass ich direkt wieder ans bedingungslose Grundeinkommen denken muss, wenn in 10-20 Jahren kein einziger Kassierer mehr gebraucht wird.
-
27. Juni 2012 um 13:06 Uhr #922968PattyTeilnehmer
Mickdagger;492130 said:
Ich denke wir werden leider noch etwas auf den nächsten großen Sprung mit unseren häuslichen Internetleitungen warten müssen. Nicht nur aufgrund des Kostenrisiko´s sondern auch wegen der mit der Downloadgeschwindigkeit steigenden Internetpiraterie bzw. den verklemmten Medienkonzernen, welche mit ihren veralteten Methoden versuchen irgendetwas dagegen zu unternehmen (Megaupload, ThePiratebay).Aber das is n anderes Thema.Kann ich jetzt erstmal nicht bestätigen! Wir dümpeln hier zwar seit einigen Jahren mit mehr oder minder stabilen 2Mbit rum (davor nur 1Mbit und DSL Light), vor Monaten wurde aber auf einigen Dörfern hier mit dem Ausbau größerer Bandbreite begonnen. Bis zuletzt war der nächste Verteiler um die 5km entfernt, jetzt wurden hier in vielleicht 1km Umkreis sicherlich drei neue gesetzt, bis dahin jeweils Glasfaser. Für uns soll das dann ab spätestens Herbst bedeuten: 50Mbit!Und was ich von der RFID Technik im Alltag halte muss ich wohl keinem erzählen, aber optimal für Stuhlgang-Twitterer und Fakebook-Junkies. Da werden die Informationen sogar ohne eigenes Zutun geteilt :d: :(Siehe auch die tollen neuen Paysafecards oder wie die Technik heißt. Die Nutzer denken doch nicht von 12 bis Mittag…
-
28. Juni 2012 um 10:06 Uhr #922995littledevilTeilnehmer
Auch ne Idee 😆
Rucksack wirds wohl nie geben :devil: Oder der MArkt von geschirmten Rucksäcken expoldiert :fresse:
-
28. Juni 2012 um 12:06 Uhr #923011ghostadminTeilnehmer
Die Kassierer verdienen so wenig, da käme das mit der ganzen Technik womöglich noch teurer 😡
-
1. Juli 2012 um 11:07 Uhr #923089littledevilTeilnehmer
Was ist an 100 Mbit zu langsam? Es gibt ja kaum Websites, die meine 32 MBit auslasten… 🙄
-
1. Juli 2012 um 11:07 Uhr #923088MickdaggerTeilnehmer
Patty;492139 said:
Mickdagger;492130 said:
Ich denke wir werden leider noch etwas auf den nächsten großen Sprung mit unseren häuslichen Internetleitungen warten müssen.
Nicht nur aufgrund des Kostenrisiko´s sondern auch wegen der mit der Downloadgeschwindigkeit steigenden Internetpiraterie bzw.
den verklemmten Medienkonzernen, welche mit ihren veralteten Methoden versuchen irgendetwas dagegen zu unternehmen (Megaupload, ThePiratebay).
Aber das is n anderes Thema.Kann ich jetzt erstmal nicht bestätigen! Wir dümpeln hier zwar seit einigen Jahren mit mehr oder minder stabilen 2Mbit rum (davor nur 1Mbit und DSL Light), vor Monaten wurde aber auf einigen Dörfern hier mit dem Ausbau größerer Bandbreite begonnen. Bis zuletzt war der nächste Verteiler um die 5km entfernt, jetzt wurden hier in vielleicht 1km Umkreis sicherlich drei neue gesetzt, bis dahin jeweils Glasfaser. Für uns soll das dann ab spätestens Herbst bedeuten: 50Mbit!
Und was ich von der RFID Technik im Alltag halte muss ich wohl keinem erzählen, aber optimal für Stuhlgang-Twitterer und Fakebook-Junkies. Da werden die Informationen sogar ohne eigenes Zutun geteilt :d: 🙁
Siehe auch die tollen neuen Paysafecards oder wie die Technik heißt. Die Nutzer denken doch nicht von 12 bis Mittag…Ich hab seit zwei Jahren 100Mbit und finde es zu langsam.
-
1. Juli 2012 um 13:07 Uhr #923102BadSmileyTeilnehmer
littledevil;492283 said:
Was ist an 100 Mbit zu langsam? Es gibt ja kaum Websites, die meine 32 MBit auslasten… 🙄Er muss zu lange auf neue Pornos warten! 😆
-
1. Juli 2012 um 13:07 Uhr #923103GoZoUModerator
Bitte das Niveau wahren ;)Gesendet von meinem GT-I9100G mit Tapatalk 2
-
2. Juli 2012 um 13:07 Uhr #923142KingofRomeTeilnehmer
Na dann ist das was anderes bei sovielen Geräten an einer Leitung.
Gruß KingofRome
-
2. Juli 2012 um 13:07 Uhr #923134ThaRippaAdministrator
Bitte die Meldung “gesendet von meinem $Telefonname mit $Softwarename” abstellen. ;)Aber grundsätzlich muss ich auch die Frage stellen, wofür sind denn 100Mbit zu lahm?
-
2. Juli 2012 um 13:07 Uhr #923136KingofRomeTeilnehmer
Kann ich mir auch nicht vorstellen:-k, oder Downloadet er sehr viel gleichzeitig? Ich habe ne 16000+ und die ist schnell genug, wenn ich den IP-TV Receiver aus habe habe ich bei CHIP z.B. ne Downloadrate von 1,5Mb/s.
Gruß KingofRome
-
2. Juli 2012 um 13:07 Uhr #923140MickdaggerTeilnehmer
Ich hab vier Pc´s zuhause und zwei Fernseher die alle an der Leitung angeschlossen sind, dazu downloade und uploade ich SEHR viel.
(monatlich kommt wahrscheinlich 1TB zam, vor allem für die Ratio im Tracker)Bluray´s haben 25/50GB und ich beschäftige mich mit Videobearbeitung und das uploaden und verlinken der Dateien ist für mich praktischer als
Bluray´s/USB Sticks oder Festplatten zu verschicken.Jedenfalls kann ich NUR für absolut unrealistische Summen ein schnelleres
Internet kriegen und müsste dafür sogar noch umziehen… -
2. Juli 2012 um 18:07 Uhr #923149HerrderKlingeTeilnehmer
Oh mann sind das Probleme…
Ich wär schon froh, wenn ich DSL1000 hät -.-:(
-
2. Juli 2012 um 21:07 Uhr #923161HVR4000erTeilnehmer
Hier herrscht ja ziemlich rege Beteiligung in meinem Thread. Zunächt möchte ich mit einem Mißverständnis aufräumen, aber das ging ja eigentlich aus meinem Eingangsposting schon hervor:
Ich möchte nicht, daß alles schneller, größer, bunter wird. Also die typische steile Entwicklungsphase von CPU-Frequenz, RAM-Größe und HDD-Größe zwischen ca. 1997 und 2002. In diesen 5 Jahren fand die stürmischste Entwicklung in der PC-Geschichte statt – bei allen 3 elementaren Größen mindestens eine Verzehnfachung.[SIZE=”4″]Aber das meine ich nicht![/SIZE]
Wir haben jetzt Hardware, die von der Geschwindigkeit her für alle Lebenslagen reicht und auch in Zukunft reichen wird. Was mir fehlt, sind gezielte Impulse bei der Energieeffizienz und Miniaturisierung von stationären PCs, sei es Büro- Heim oder HTPCs.
Was ich nicht verstehe, warum man nicht wegkommt von den großen grauen Kisten. ATX- und µATX-Boards sind Dinosaurier, Mini-ITX sollte Standard sein. Was ist Realität? Mini-ITX-Boards sind im Schnitt doppelt so teuer! Absurd!
Was sich auch völlig überlebt hat, sind die sogenannten ATX-Netzteile. Obwohl seit Pentium 4 Willamette die Prozessor-Effizienz nur gestiegen ist, gleichen heute die sogenannte ATX-Netzteile Baumarkt-Schweißtrafos im Einsteigerbereich: Bei 400W aufwärts brüsten sie sich, bei 20% Auslastung (also 80W) noch 80% Wirkungsgrad zu haben, und das in der Gegenwart von Desktop-CPUs mit 35W TDP und der 10-fachen Rechenleistung eines Pentium 4. Absurd!
Der überkommene ATX-Standard liefert in einem armdicken Kabelbaum 4 verschiedene Betriebsspannungen, von denen alles außer 12V kaum mehr gebraucht wird, bzw. nur aus Gefälligkeit von den Mainboard-Herstellern irgendwie verwurstet wird (weils eben da ist). Die wichtigsten Chip-Spannungen werden schon lange aus 12V onboard über Stepdown-Wandler erzeugt.
Ein Netzteil mit 4 verschiedenen Spannungen ist ein Relikt aus der 286er-Ära, als das Schaltnetzteil tatsächlich die 5V direkt in alle Logikschaltungen des PCs (incl. CPU und RAM) jagte und die 12V direkt in den Festplatten- und Floppymotor, und die -5 und -12V in analoge OPAmps und RS232 RS485 Schnittstelle. An Onboard-Stepdownwandler war noch nicht zu denken.Der ganze ATX-Standard gehört sauber das Klo runtergespült. Er hat nichts mehr mit der Lebenswirklichkeit zu tun.
Es gehört ein neuer, effiziente und an die heutige schaltungstechnische Realität angepaßter Standard her. Also ausschließlich MIni-ITX-Boards mit einem (äußerst billigen) 12V-Kontaktkamm aus dem Kupfer des PCBs. Ein-Null-Cent-Steckverbinder. Dort wird ein einziges 12V-Kabel (mit einem Stecker der so aussieht wie ein PCI-Steckplatz) aufgeschoben, bestehend aus 2 Leitern mindestens 6mm² Litze, Zwillingsleitung. Das Board kommuniziert über ein Busprotokoll mit dem Netzteil, in dem es der Powerleitung Daten aufmoduliert (Powerlan-Prinzip). Es wird alles mögliche ausgehandelt, beide Komponenten lernen adaptiv voneinander (Board an Netzteil: wie stark darf ich dich auslasten, wieviel Leistung bietest du mir? Ich kann ja notfalls den Prozessor auf max. 1,8GHz deckeln. Netzteil an Board: OK versuchen wirs mal. Steigere mal auf 2 GHz, ich sag dir dann bescheid wenns zu viel wird.)
DAS, ja das wäre Innovation, sowas vermisse ich. Genau sowas. Und zwar in Forrm eines offenen, allseits akzeptierten und kosteneffizienten Industriestandards.
Ach ja, und auf diesem 12V-Kontaktkamm könnte ich natürlich auch mit einem Pollin-Netzteil für 4,95€ einspeisen, sogenannte China-Kracher. Das antwortet nicht auf Anfragen, und so bootet das Board auf gut Glück und testet die Belastbarkeit des Netzteils mit try and error.
Ich denke, jetzt haben mich alle verstanden.
-
2. Juli 2012 um 21:07 Uhr #923165HVR4000erTeilnehmer
Hier herrscht ja ziemlich rege Beteiligung in meinem Thread. Zunächt möchte ich mit einem Mißverständnis aufräumen, aber das ging ja eigentlich aus meinem Eingangsposting schon hervor:Ich möchte nicht, daß alles schneller, größer, bunter wird. Also die typische steile Entwicklungsphase von CPU-Frequenz, RAM-Größe und HDD-Größe zwischen ca. 1997 und 2002. In diesen 5 Jahren fand die stürmischste Entwicklung in der PC-Geschichte statt – bei allen 3 elementaren Größen mindestens eine Verzehnfachung.[SIZE=”4″]Aber das meine ich nicht![/SIZE]Wir haben jetzt Hardware, die von der Geschwindigkeit her für alle Lebenslagen reicht und auch in Zukunft reichen wird. Was mir fehlt, sind gezielte Impulse bei der Energieeffizienz und Miniaturisierung von stationären PCs, sei es Büro- Heim oder HTPCs.Was ich nicht verstehe, warum man nicht wegkommt von den großen grauen Kisten. ATX- und µATX-Boards sind Dinosaurier, Mini-ITX sollte Standard sein. Was ist Realität? Mini-ITX-Boards sind im Schnitt doppelt so teuer! Absurd!Was sich auch völlig überlebt hat, sind die sogenannten ATX-Netzteile. Obwohl seit Pentium 4 Willamette die Prozessor-Effizienz nur gestiegen ist, gleichen heute die sogenannte ATX-Netzteile Baumarkt-Schweißtrafos im Einsteigerbereich: Bei 400W aufwärts brüsten sie sich, bei 20% Auslastung (also 80W) noch 80% Wirkungsgrad zu haben, und das in der Gegenwart von Desktop-CPUs mit 35W TDP und der 10-fachen Rechenleistung eines Pentium 4. Absurd!Der überkommene ATX-Standard liefert in einem armdicken Kabelbaum 4 verschiedene Betriebsspannungen, von denen alles außer 12V kaum mehr gebraucht wird, bzw. nur aus Gefälligkeit von den Mainboard-Herstellern irgendwie verwurstet wird (weils eben da ist). Die wichtigsten Chip-Spannungen werden schon lange aus 12V onboard über Stepdown-Wandler erzeugt.Ein Netzteil mit 4 verschiedenen Spannungen ist ein Relikt aus der 286er-Ära, als das Schaltnetzteil tatsächlich die 5V direkt in alle Logikschaltungen des PCs (incl. CPU und RAM) jagte und die 12V direkt in den Festplatten- und Floppymotor, und die -5 und -12V in analoge OPAmps und RS232 RS485 Schnittstelle. An Onboard-Stepdownwandler war noch nicht zu denken.Der ganze ATX-Standard gehört sauber das Klo runtergespült. Er hat nichts mehr mit der Lebenswirklichkeit zu tun.Es gehört ein neuer, effiziente und an die heutige schaltungstechnische Realität angepaßter Standard her. Also ausschließlich MIni-ITX-Boards mit einem (äußerst billigen) 12V-Kontaktkamm aus dem Kupfer des PCBs. Ein-Null-Cent-Steckverbinder. Dort wird ein einziges 12V-Kabel (mit einem Stecker der so aussieht wie ein PCIe x1-Steckplatz) aufgeschoben, bestehend aus 2 Leitern mindestens 6mm² Litze, Zwillingsleitung. Das Board kommuniziert über ein Busprotokoll mit dem Netzteil, in dem es der Powerleitung Daten aufmoduliert (Powerlan-Prinzip). Es wird alles mögliche ausgehandelt, beide Komponenten lernen adaptiv voneinander (Board an Netzteil: wie stark darf ich dich auslasten, wieviel Leistung bietest du mir? Ich kann ja notfalls den Prozessor auf max. 1,8GHz deckeln. Netzteil an Board: OK versuchen wirs mal. Steigere mal auf 2 GHz, ich sag dir dann bescheid wenns zu viel wird.)DAS, ja das wäre Innovation, sowas vermisse ich. Genau sowas. Und zwar in Forrm eines offenen, allseits akzeptierten und kosteneffizienten Industriestandards.Ach ja, und auf diesem 12V-Kontaktkamm könnte ich natürlich auch mit einem Pollin-Netzteil für 4,95€ einspeisen, sogenannte China-Kracher. Das antwortet nicht auf Anfragen, und so bootet das Board auf gut Glück und testet die Belastbarkeit des Netzteils mit try and error.Ich denke, jetzt haben mich alle verstanden.
-
2. Juli 2012 um 22:07 Uhr #923174ThaRippaAdministrator
Dass deine Netzteile nicht schon da sind, dafür gibts aber mehrere Gründe. Erstens ists nicht abwärtskompatibel. Und auch wenn 99% der Hardware mit dem 12V-Eingang auskäme, das eine Prozent reicht um Ungewissheit zu schüren. Viele Leute würden weiter ATX kaufen, weil da sicher alles dran funktioniert. Zweitens: die Netzteile wären teurer. Noch teurer als jetzt schon. Und das für so “wenig” zählbares. Das kann man schlecht verkaufen, wenn da wenige Watt geleistet werden, wenn das Protokoll jeder Konkurrent auch hat (haben muss) und wenn keine Magie mehr dahintersteckt. Wenn man eben nicht zwei Nummern zu groß kauft um Sicher zu gehen, und um schickere Kabel zu bekommen. Wenn das Netzteil ein überwachbares Gerät ist, ich also Logs bekomme “drossele Leistung, dem Netzteil ist warm”. Das mag für dich sexy sein und für mich ists leicht zu “debuggen”, aber für Hersteller ists unvermarktbar und unverkäuflich.Drittens: solange (Strom aus Steckdose) UND (Stromverbrauch < Fernseher + Anlage + Stehlampe) UND (Gerät < 12h pro Tag an) gilt: Gerät ist stromsparend genug. Diese Formel unterschreiben meiner Meinung nach auch 99% der PC-Käufer. Innovationen in Sachen Stromsparen finden daher nur in Mobilgeräten statt, weil dort Stromverbrauch = Akkulaufzeit/Gewicht.
-
2. Juli 2012 um 23:07 Uhr #923185VJoe2maxTeilnehmer
Gerade bei der Schaffung von neuen Standards merkt man einfach, dass in der Industrie über die Jahre sehr viel Sand ins Getriebe geraten ist und sich geistige wie technische Grenzen breit machen, die dazu führen, dass es für die Hüter des schnellen Profits nicht mehr attraktiv erscheint in wirkliche Neuerungen zu investieren, solange man mit alt hergebrachten Kram oder uninnovativem Erwachsenenspielzeug fürchterlich viel Kohle machen kann. Die Entwicklung von neuen Standards und Normen dauert heute in vielen Bereich zudem so lange wie früher die komplette Lebenszyklen ganzen Produktsparten. So kann es leicht passieren, dass sich der Standard, den man mit viel Aufwand entwickeln will, durch irgendwelche irrationalen Markttrends schneller überholt, als er überhaupt eingeführt werden kann, selbst wenn er technisch längst überfällig wäre und auch weiter bleibt. Die letzten Standards die im PC-Bereich erfolgreich etabliert wurden, haben heute alle schon recht lange Bärte. Es wird heute fast nur noch an bestehenden Standards herumgeschraubt, weil es scheinbar auch kaum noch zu stemmen ist, einen neuen Standard zu etablieren – selbst wenn es bloß eine größere Weiterentwicklung und keine wirkliche Innovation ist. Gut konnte man das damals beim Streit HD-DVD vs. Blueray sehen. Obwohl es da von vorn herein um relativ sinnlose Produkte ging, deren Zenith mit der Massenverfügbarkeit von Flashspeicher deutlich erkennbar überschritten war, rieben sich die Verfechter der verschiedenen Standards unter erheblichem Aufwand gegenseitig auf. Was man den Machern einiger aktueller PC-Standards allerdings zu Gute halten muss, ist die Tatsache, dass sie zumindest bei neueren Standards schon von Anfang an Ausbaustufen vorsehen, die es erlauben über längere Zeit Kompatibilität zu schaffen und dennoch die Nutzung absehbarer Weiterentwicklungen zulassen (siehe SATA (I,II,III), PCIe (1.0, 2.0, 3.0), usw…). Ob diese Stufen dann was bringen oder nicht ist ne andere Frage. Bei PCIe sind sie z.B. relativ belanglos, aber bei SATA im Zusammenspiel mit SSDs durchaus sinnvoll (das war aber vermutlich nicht von Anfang an so geplant sondern hat sich halt so ergeben)Bei älteren Standards, die auch langlebige Produkte wie Gehäuse oder Netzteile umfassen (z.B. ATX) ist es heute jedenfalls sehr schwer etwas Neues zu bringen. Wenn selbst Branchengrößen wie Intel mit der Einführung neuer Standards (BTX) auf so einem Gebiet spektakulär (und zu Recht) scheitern, traut sich da niemend mehr ran, weil sich niemand mehr so die Finger verbrennen will. Stattdessen versucht man lieber durch kleine Veränderungen oder Aufweichungen des Standards im Kleinen daran zu basteln. Vielleicht schwingt da auch die Hoffnung mit, durch Zufall auch auf Industrie-Ebene auf irgend so ein facebook-Phänomen zu stoßen, wo plötzlich die große Horde ohne zu wissen warum einem neuen Trend hinterher rennt, so dass sich ein neuer Quasistandard entwickelt, denn man dann irgendwann, nach Schaffung von Tatsachen, auch mal in offizielle Form bringen kann (vgl. N-Standard für WLAN-Netze). An radikal verbesserte Ansätze traut sich aber keiner mehr, nachdem selbst die ganz Großen häufig daran scheitern, wenn sie versuchen so etwas einzuführen.
-
3. Juli 2012 um 9:07 Uhr #923188borsti67Teilnehmer
Ich muss HVR da irgendwie recht geben, was seine “Absurditätenliste” angeht.Bei den Netzteilen würde ich mir auch mehr Effizienz über eine größere Auslastungs-Bandbreite wünschen (k.A. ob das realisierbar wäre).Was ich aber überhaupt nicht verstehe, sind die Argumente des “sich nicht trauens” hinsichtlich der Innovationen bzw. der Nicht-Einführung eines neuen Standards.Guckt euch doch mal GraKas an. Was war AGP Ende der 90er für eine Sensation (und in jeder Hinsicht inkompatibel mit den vorhandenen Steckplätzen). Und nun? Gibt es überhaupt noch Boards mit AGP-Slot? PCI-Express ist auch schon auf Version 3.0, bis zu 16x. Da muss man auch drauf achten, dass man den richtigen Port auf dem Board hat.Und wer redet heute noch von IDE/PATA? Von den diversen Sorten DIMMs und Prozessorsockeln mal ganz abgesehen.Also ganz offensichtlich gibt es jede Menge Neuerungen, bei denen alte Zöpfe radikal abgeschnitten wurden. Also warum nicht bei den Netzteilen? BTW, auch da gab es (zu meinem Leidwesen) schon mal eine gravierende Änderung, die scheinbar keiner mehr kennt – früher konnte man die Dinger komplett vom Netz trennen… Da wurde zwar das Außenmaß nicht geändert, wohl aber mussten die Gehäusehersteller Taster statt Schalter verbauen.
-
3. Juli 2012 um 12:07 Uhr #923195ThaRippaAdministrator
…Und man sah jeden Abend das hier: Das war ne Innovation, die man den Leuten verkaufen konnte, rechner mit Standby (konnte AT auch aber nicht so). Rechner, die man per LAN oder Modem oder zu einer Uhrzeit “wecken” konnte. Die Amis wollten sowas! Die machen heute noch die Rechner selten komplett aus. Admins wollten sowas. 1000 Rechner herunterfahren UND ausschalten per Komandozeile.AGP? Kam, weil PCI langsam zu langsam 🙂 wurde und man neue Boards verkaufen wollte. Accelerated Graphics war gerade der PC-Trend geworden! Und dann wurde es iteriert, AGP 1.x, AGP 2.0, AGP 8x… alles weil man weitere Mainboards und Grafikkarten anpreisen können musste. PCIe ist eine schöne, sinnvolle Technik. Aber auch da wird jedes zweite Jahr angestückelt und aufgebohrt, damit wieder jemand das Gefühl hat, sein Rechner mit PCIe 2.0 sei langsamer als einer PCIe 3.0.IDE/PATA? War günstig. Ein Standard von vielen hatte sich durchgesetzt, die Anschlüsse wanderten von Soundkarten (!) aufs Board. Und dann wurde da immer weiter aufgebohrt, mit DMA, Busmaster-Geräten, alle 2 Jahre verdoppelter Maximalgeschwindigkeit… Nur die Platten waren nie so schnell. Die Technik war an sich blöd, aber billig und ideal für kleine PCs mit einer Platte und einem CD-Laufwerk. Sata als Billigversion von serial attached SCSI ist da schon viel besser. Warum es sich durchgesetzt hat? Ich schätze mal weils einfach idiotensicher ist. Und natürlich weil jemand auf die Boardverpackung gedruckt hat, es sei schneller.DIMMs wechseln ihre Sockel eigentlich sinnvoll nach elektrischen Eigenschaften. Beim RAM wirds ja immer sparsamer. Hatte EDO-RAM nicht noch 5V Versorgungsspannung?Beim Prozessor wird gewechselt, damit neue Boards gekauft werden müssen. Intel hat ja sogar auf einem Sockel geschafft, dass nur Prozessoren mit dem richtigen FSB laufen. AMD hatte ja glücklicherweise in der letzten Zeit gezeigt, dass es auch anders geht. Sympatisch, aber scheinbar auch vorübergehend. Denn FM1 stirbt ja auch nach einer Generation.Alles hängt an der Maxime unserer Welt: Verkaufen, verkaufen, verkaufen!
-
3. Juli 2012 um 21:07 Uhr #923208ghostadminTeilnehmer
Bei den Netzteilen sieht man die Interessen der Industrie. Jeder will immer möglichst riesige Netzteile, weil man braucht ja ne “Sicherheit” für später. Richtig bedanken darf man sich auch bei den Amis, da sind riesige NT angesagt. Und dort kostet der Strom natürlich auch wesentlich weniger als bei uns. Nicht zu vergessen AMD, weil 300W sind ja Minimum – was noch aus Thunderbird Zeiten stammt aber egal.
Nur was so gut wie niemand weiß das Schaltnetzteile erst ab einer gewissen Last effizient werden. Selbst Spiele PCs nähern sich schon der 50W Idle Marke und dann hängt man ein 600W Netzteil mit “Gold” dran und bei der niedrigen Auslastung liegt man dann irgendwo bei 70%.
Ich habe 80plus schon vor Jahren angeschrieben die sollen mal mit weniger testen z.B. 10%, die Idee fand man gut aber umgesetzt wurde nichts. Vermutlich weil die finanziell schon total abhängig von der Industrie sind.Die Industrie hat auch kein Interesse daran kleinere Netzteile zu bauen, weil das kauft ja angeblich keiner. Ich denke eher, man verdient daran nur weniger.
Auch so ein Unding, in letzter Zeit kommen immer mehr ITX Gehäuse aber beim Netzteil, wieso braucht man da ATX? Warum kein Slimline Laufwerk?
-
4. Juli 2012 um 8:07 Uhr #923219VJoe2maxTeilnehmer
@borsti67 und ThaRippa: Das was ihr da aufzählt sind doch größtenteils keine Innovationen und auch keine neuen Standards, sondern Detailverbesserungen bzw. Verschlechterungen. Neue Standards sind absolute Mangelware.Der Schritt von IDE auf SATA und von AGP auf PCIe war der letzte technische Sprung bei den internen Schnittstellen. Extern war es COM und LPT auf USB. Beim Speicher SDRAM auf DDRAM. All das ist wirklich schon sehr lange her. Seit dem hat sich da technisch eigentlich nichts mehr geändert, außer dass an ein paar Frequenzschrauben gedreht wurde. Der Rest, der damit teilweise einher ging hat kaum etwas mit technischen Verbesserungen sondern vor allem mit neuen Verkaufsargumenten zu tun. Ob man nun z.B. PCIe 1.0. 2.0 oder 3.0 einsetzt ist bei Lichte betrachtet völlig egal. Es gibt heute noch kaum eine Grafikkarte die 16 Lanes eines PCIe1.0 Slots voll ausreizt ;). Das Einzige was PCIe 2.0 und 3.0 theoretisch möglich machen sind kürzere Graka-Slots, weil man für die gleiche Bandbreite wie 16 Lanes PCIe 1.0 jetzt weniger Lanes braucht. Wird aber in der Praxis nicht umgesetzt und ist ja auch kein wirklicher Vorteil, wenn nicht gerade Platzmangel herrscht.Oder Speicher: Gut, mit kleiner werdenden Strukturbreite konnte man die Spannungen etwas absenken und die Frequenzen erhöhen, aber technisch hat sich da seit der Einführung von DDR (was im Grunde genommen technisch auch kein großer Sprung von SDRAM war) nichts mehr getan. Ist ein bisschen schneller geworden und größere Kapazitäten sind verfügbar, aber von Innovation eigentlich keine Spur. Bei den Netzteilen fand der letzte Sprung von AT (das war der Standard mit den Schalten statt Tastern ;)) auf ATX statt. Damit wurden insb. neue Stecker eingeführt und das zugehörige Mobo-Format geboren. Alles es was in der Zwischenzeit kam, hat sich daran angepasst. Auch Mini-ITX-Boards haben ATX-Stecker. Nur die Boards mit eigenem DC/DC-Wandler könnte man in der Hinsicht als innovativ bezeichnen, aber durchgesetzt hat sich da noch lange nicht und ist auch nur für sehr sparsame Boards wirklich sinnvoll. Natürlich dient diese “Faulheit” bei der Entwicklung neuer Standards dazu mehr zu verkaufen ohne groß etwas investieren zu müssen. Es ist aber schon verwunderlich, dass das in der Industrie heute so beliebte “generieren” von Märkten nur bei Produkten klappt, die in die Kategorie Spielzeug gehören. Ansonsten sollte es auch möglich sein, mit sparsamen Netzteilen einen neuen Trend zusetzen und trotzdem mehr Geld damit zu verdienen als mit den klobigen Riesen. Netzteile über 500W könnten schon längst wie Dinosaurier wirken, wenn sich jemand trauen würde. @ghostadmin: Mini-ITX-Gehäuse mit DC/DC-Wandlern und Slimline-Laufwerken gibt es doch schon seit Jahren wie Sand am Meer ;). Das Problem ist doch eher, dass sich Mini-ITX in der breiten Masse nicht durchsetzt, obwohl das Format das Zeug dazu hat und inzwischen gut verfügbar ist. Große ATX-Boards wären eigentlich wirklich nur noch für Spiele-PCs mit vielen Karten, Messplatz-Rechner mit vielen Karten oder Klein-Server mit vielen Karten nötig. Alles anderen ließe sich mit Mini-ITX platzsparender, und sparsamer gestalten. All diese Punkte zeigen eigentlich überdeutlich, worum es heute geht: Wachstum um jeden Preis – koste es was es wolle. Dabei weiß jeder klar denkende Mensch, dass Wachstum die Wurzel und der Ursprung eines Großteils unserer heutigen Probleme ist – nicht nur in der Finanzwirtschaft. Und damit meine ich keineswegs das Fehlen von Wachstum, das immer betrauert wird, sondern das Dogma, mit noch mehr Wachstum könne man die Probleme, in die man sich durch Wachstum erst hinein manövriert hat, wieder lösen. Ob man sich dabei technisch oder geistig vom Fleck bewegt, bleibt dabei völlig zurück und wird nicht mal mehr diskutiert. Was sich gut verkauft ist gut und was liegen bleibt ist schlecht – völlig egal ob es sich dabei um echte Innovationen, tatsächlichen Fortschritt oder nur um neu verpackten Abklatsch alter Schinken handelt. Es zählt doch einzig noch die Frage: Wie presse ich mit geringst möglichem Aufwand noch mehr von irgendeinem Konsumgut in den sogenannten Markt. In vielen Fällen nimmt man dafür inzwischen sogar handfeste Rückschritte in Kauf, weil sie im kollektiven Gedächtnis bereits getilgt sind und sich nochmal als Neuheit auftischen lassen, oder weil die Ersparnis innovativer Entwicklungsarbeit so verlockend ist, weil man auch alte Hüte mit dem entsprechenden Marketing noch an die wohlkonditionierte Mehrheit verticken kann. Man geht sogar soweit, dass jeder von jedem Dinge abkupfert, in denen eigentlich keine Innvoation sondern nur Design oder Image steckt. Komplizierte Dinge selbst neu zu entwickeln will jeder dagegen bestmöglich vermeiden, denn es beherbergt ein Risiko, dass die Idee keinen Markt findet und ist anstrengend und teuer. Zu den Glanzzeiten der PC-Entwicklung war das noch ein wenig anders, wenn auch grundlegend schon in diese Richtung angelegt. Da konnte sich ein Unternehmen jedenfalls noch durch echte Entwicklungen hervortun, selbst wenn die Errungenschaften sich gar nicht oder erst sehr spät auf dem Markt etablierten. Das hatte damit zu tun, dass man teilweise noch etwas solider wirtschaftete als heute, Spielräume am Markt offen waren, die man nicht erst virtuell erzeugen musste, und die Wachstumsblase noch nicht so offensichtlich war wie heute. Da war noch Platz mal eine Entwicklung kommerziell in den Sand zu setzen – der Tatsache, dass jede Entwicklung Erkenntnisgewinn bringt tat das natürlich keinen Abbruch. Heute hingegen wird das Entwickeln neuer komplexer Ideen gescheut, weil es Geld kostet aber nicht zwangsläufig welches einbringt. Also hat man in vielen Unternehmen sukzessive Entwicklungsabteilungen zu Produktdesignabteilungen oder Optimierungsabteilungen umgebaut (auch wenn sie sich oft noch Entwicklungsabteilung nennen), die jetzt damit beschäftigt sind alte Technik aufzumotzen, zu tunen und billiger zu machen, um sie dann mit Hilfe der Marketingmaschinerie als Neuheiten auf den Markt zu werfen. Da Letzterer inzwischen so gut darauf konditioniert ist alles in großer Menge zu konsumieren, was ihm vorgesetzt wird, hat sich bei vielen Leuten die des Denkens nicht mächtig sind, der Eindruck erhärtet, dass dieses Treiben mit echtem Fortschritt gleichzusetzen sei. Natürlich ist das nicht der Fall, aber der Glaube (in diesem Fall an den Gott Wachstum und die Engel des Konsums) versetzt ja bekanntlich Berge … 😀
-
4. Juli 2012 um 9:07 Uhr #923220drdopeTeilnehmer
VJoe2max;492424 said:
All diese Punkte zeigen eigentlich überdeutlich, worum es heute geht: Wachstum um jeden Preis – koste es was es wolle. Dabei weiß jeder klar denkende Mensch, dass Wachstum die Wurzel und der Ursprung eines Großteils unserer heutigen Probleme ist – nicht nur in der Finanzwirtschaft. Und damit meine ich keineswegs das Fehlen von Wachstum, das immer betrauert wird, sondern das Dogma, mit noch mehr Wachstum könne man die Probleme, in die man sich durch Wachstum erst hinein manövriert hat, wieder lösen.
Ob man sich dabei technisch oder geistig vom Fleck bewegt, bleibt dabei völlig zurück und wird nicht mal mehr diskutiert. Was sich gut verkauft ist gut und was liegen bleibt ist schlecht – völlig egal ob es sich dabei um echte Innovationen, tatsächlichen Fortschritt oder nur um neu verpackten Abklatsch alter Schinken handelt. Es zählt doch einzig noch die Frage: Wie presse ich mit geringst möglichem Aufwand noch mehr von irgendeinem Konsumgut in den sogenannten Markt.
In vielen Fällen nimmt man dafür inzwischen sogar handfeste Rückschritte in Kauf, weil sie im kollektiven Gedächtnis bereits getilgt sind und sich nochmal als Neuheit auftischen lassen, oder weil die Ersparnis innovativer Entwicklungsarbeit so verlockend ist, weil man auch alte Hüte mit dem entsprechenden Marketing noch an die wohlkonditionierte Mehrheit verticken kann. Man geht sogar soweit, dass jeder von jedem Dinge abkupfert, in denen eigentlich keine Innvoation sondern nur Design oder Image steckt. Komplizierte Dinge selbst neu zu entwickeln will jeder dagegen bestmöglich vermeiden, denn es beherbergt ein Risiko, dass die Idee keinen Markt findet und ist anstrengend und teuer.
Zu den Glanzzeiten der PC-Entwicklung war das noch ein wenig anders, wenn auch grundlegend schon in diese Richtung angelegt. Da konnte sich ein Unternehmen jedenfalls noch durch echte Entwicklungen hervortun, selbst wenn die Errungenschaften sich gar nicht oder erst sehr spät auf dem Markt etablierten. Das hatte damit zu tun, dass man teilweise noch etwas solider wirtschaftete als heute, Spielräume am Markt offen waren, die man nicht erst virtuell erzeugen musste, und die Wachstumsblase noch nicht so offensichtlich war wie heute. Da war noch Platz mal eine Entwicklung kommerziell in den Sand zu setzen – der Tatsache, dass jede Entwicklung Erkenntnisgewinn bringt tat das natürlich keinen Abbruch.
Heute hingegen wird das Entwickeln neuer komplexer Ideen gescheut, weil es Geld kostet aber nicht zwangsläufig welches einbringt. Also hat man in vielen Unternehmen sukzessive Entwicklungsabteilungen zu Produktdesignabteilungen oder Optimierungsabteilungen umgebaut (auch wenn sie sich oft noch Entwicklungsabteilung nennen), die jetzt damit beschäftigt sind alte Technik aufzumotzen, zu tunen und billiger zu machen, um sie dann mit Hilfe der Marketingmaschinerie als Neuheiten auf den Markt zu werfen. Da Letzterer inzwischen so gut darauf konditioniert ist alles in großer Menge zu konsumieren, was ihm vorgesetzt wird, hat sich bei vielen Leuten die des Denkens nicht mächtig sind, der Eindruck erhärtet, dass dieses Treiben mit echtem Fortschritt gleichzusetzen sei. Natürlich ist das nicht der Fall, aber der Glaube (in diesem Fall an den Gott Wachstum und die Engel des Konsums) versetzt ja bekanntlich Berge … 😀Was würdest du konkret ändern wollen?
😉 -
4. Juli 2012 um 10:07 Uhr #923224ThaRippaAdministrator
VJoe2max;492424 said:
@borsti67 und ThaRippa: Das was ihr da aufzählt sind doch größtenteils keine Innovationen und auch keine neuen Standards, sondern Detailverbesserungen bzw. Verschlechterungen. Neue Standards sind absolute Mangelware.Der Schritt von IDE auf SATA und von AGP auf PCIe war der letzte technische Sprung bei den internen Schnittstellen. Extern war es COM und LPT auf USB. Beim Speicher SDRAM auf DDRAM. All das ist wirklich schon sehr lange her. Seit dem hat sich da technisch eigentlich nichts mehr geändert, außer dass an ein paar Frequenzschrauben gedreht wurde. Der Rest, der damit teilweise einher ging hat kaum etwas mit technischen Verbesserungen sondern vor allem mit neuen Verkaufsargumenten zu tun. …Genau das hab ich doch quasi geschrieben? Ich hab da eher Borsti geantwortet…Egal. Dir muss ich aber entgegenhalten, dass Entwickeln in der IT-Welt nicht mehr so leicht ist, wie 1997. Damals gab es noch >5 GPU-Hersteller. CPU-Hersteller (x86) waren bis auf AMD und intel schon ausgestorben. Wer neuentwickelt hat, und dabei kein Glück hatte, der ging in die Geschichte ein. Viel wurde über die Treiber und Spieleunterstützung entschieden. Aber Wenn die neue Hardware funktioniert, wie die alte – nur schneller – dann ist es leichter für Programmierer sie anzusprechen. Und heute sind die Entwicklungszyklen kürzer, die Kosten höher (weil wir schon so weit optimiert haben) und die Aktienkurse fallen ins Bodenlose wenn eine Entwicklung fehl schlägt.Und noch was: alles, was auf Siliziumchips abläuft, kann man als “bloße weiterentwicklung von Bekanntem” verunglimpfen. Selbst andere Materialien sind eigentlich nix neues, denn ein Flip-Flop funktionierte auch mit Relais schon genauso. Also was wäre echte Innovation? Quantencomputer?
-
4. Juli 2012 um 11:07 Uhr #923229HorstelinTeilnehmer
Und wieder sind wir beim Grundproblem unserer Zivilisation angelangt:Wieso fahren wir alle schwere Autos mit massig PS anstatt kleine, sparsame?Wieso isst man Fleisch, obwohl jeder weiß dass die Ernährung der Weltbevölkerung gesichert wäre, wenn wir nur drauf verzichten würden?Und mal ganz ehrlich, als ihr das letzte mal einem Bekannten einen Pc zusammen geschraubt habt, wer hat da ein ATX Board mit NT >350W verwendet, obwohl es inzwischen auch billige alternativen gibt (z.B. http://geizhals.at/de/726285).Ich kann eure Diskussion trotzdem nicht ganz nachvollziehen. Da wird sich gleichzeitig über sperrige ATX Boards und fehlende Innovation gerade bei diesen beschwert. Fakt ist einfach, dass sich inzwischen der Großteil der Nutzer eh ein Notebook kauft, und wer den Markt dort mal beobachtet hat, wird einiges an Innovationen finden (Laufzeiten >8h, dank verbrauch<5W bei kleinen, leichten aber leistungsfähige Geräten, mSATA oder auch Auslagerung von rechenintensiven Prozessen in die Cloud). Dass das nun mal nicht ganz dem Meisterkühler Wunsch entspricht, am PC herumzubasteln, nun dafür könne die Hersteller ja nichts 😉 und niemand sagt dass es verboten ist, das Teil zugeklappt auf den Schreibtisch zu stellen und externen Monitor und Tastatur anzuschließen. ;)MfG Urs
-
4. Juli 2012 um 20:07 Uhr #923250VJoe2maxTeilnehmer
drdope;492426 said:
Was würdest du konkret ändern wollen?
😉Ich spiele das Spiel in einigen Bereichen einfach nicht mit und hoffe, dass der ein oder andere es mir gleichtut oder in anderen Gebieten aktiv versucht etwas zu entschleunigen ;).
Das fängt schon damit an keine Schulden zu machen, nicht jedem Trend hinterher zu rennen, das Konsumieren unnötiger Produkte auf ein oder sehr wenige Hobbys zu beschränken und wenn man etwas kauft darauf zu achten, dass es einigermaßen langlebige Produkte sind, und dass man sie dann auch lange nutzt. Natürlich gelingt das nicht in allen Bereichen aber man kann sich schon recht problemlos von der heutigen Hyper-Konsumgesellschaft abkoppeln, ohne dass man dadurch einen Nachteil hätte ;).ThaRippa said:
Genau das hab ich doch quasi geschrieben? Ich hab da eher Borsti geantwortet…Dann hab ich dich da wohl missverstanden ;).
ThaRippa said:
Egal. Dir muss ich aber entgegenhalten, dass Entwickeln in der IT-Welt nicht mehr so leicht ist, wie 1997. Damals gab es noch >5 GPU-Hersteller. CPU-Hersteller (x86) waren bis auf AMD und intel schon ausgestorben. Wer neuentwickelt hat, und dabei kein Glück hatte, der ging in die Geschichte ein. Viel wurde über die Treiber und Spieleunterstützung entschieden. Aber Wenn die neue Hardware funktioniert, wie die alte – nur schneller – dann ist es leichter für Programmierer sie anzusprechen.Das ist auch ganz normal. Wenn man nicht so auf Wachstum erpicht wäre, ist das auch kein Problem. Dann geht es eben langsamer – weil schlicht und einfach nicht immer Mehr oder immer Schnelleres gebraucht wird ;). Wenn ein Markt gesättigt und nahezu vollständig diversifiziert ist, kann man eben nur noch ein wenig Optimieren und die Versorgung mit Ersatzteilen aufrecht erhalten. Viel Neues braucht man da einfach nicht mehr – zumindest kein Wachstum mehr. Das wäre effektiv und sinnvoll, aber es wird eben stattdessen versucht mit einer Produktflut die von kleinen Veränderungen, Optimierungen, Verschlimmbesserungen usw. lebt zu versuchen ein Scheinwachstum zu erzeugen, das auf keiner soliden Grundlage steht und damit tendenziell ruinös ist.
ThaRippa said:
Und heute sind die Entwicklungszyklen kürzer, die Kosten höher (weil wir schon so weit optimiert haben) und die Aktienkurse fallen ins Bodenlose wenn eine Entwicklung fehl schlägt.Das ist z.B. eines der Probleme die wir der inflationären und allübergreifenden Wachstumsgier verdanken ;).
ThaRippa said:
Und noch was: alles, was auf Siliziumchips abläuft, kann man als “bloße weiterentwicklung von Bekanntem” verunglimpfen. Selbst andere Materialien sind eigentlich nix neues, denn ein Flip-Flop funktionierte auch mit Relais schon genauso. Also was wäre echte Innovation? Quantencomputer?Solche Schlüsselinnovationen sind naturgemäß sehr selten, aber ich fürchte mit der derzeit in Forschung und Wissenschaften vorherrschenden Herangehensweise werden sie noch seltener, denn auch in diesen Bereichen wird heute direkt nach dem Aufglimmen einer möglicherweise neuen Idee zuallererst an die Vermarktungsmöglichkeiten gedacht. So mauert man sich aktiv in einem Elfenbeinturm ein und kommt nur sehr schwer auf wirklich neue Ideen ;).
Horstelin said:
Und wieder sind wir beim Grundproblem unserer Zivilisation angelangt:
Wieso fahren wir alle schwere Autos mit massig PS anstatt kleine, sparsame?
Wieso isst man Fleisch, obwohl jeder weiß dass die Ernährung der Weltbevölkerung gesichert wäre, wenn wir nur drauf verzichten würden?Das tun nicht alle – nur leider tut es eine Mehrheit, die momentan keine Anstalten macht kleiner zu werden. Der Mensch in Form menschlicher Gesellschaften ist leider nicht intelligent genug nachhaltig aus Fehlern zu lernen oder Missentwicklungen zu erkennen und zu vermeiden, obwohl einzelne Individuen dazu fähig sind.
Horstelin said:
Und mal ganz ehrlich, als ihr das letzte mal einem Bekannten einen Pc zusammen geschraubt habt, wer hat da ein ATX Board mit NT >350W verwendet, obwohl es inzwischen auch billige alternativen gibt (z.B. http://geizhals.at/de/726285).Hab jetzt schon länger keinen mehr für andere gebaut (außer im Büro), aber die letzten die ich privat für andere gebaut habe, waren alles Stromspar-Rechner. Bei einem Spiele-PC würde ich allerdings wieder zu einem klassischen PC greifen. Was mir nur widerstrebt sind eierlegende Wollmilchsäue die nicht wirklich gut machen. Aber das ist halt ein Hobby – man könnte auch ein anderes haben … – möglicherweise wäre es für Viele auch sinnvoller, ein anderes Hobby zu verfolgen, denn es ist gerade bei PCs für viele schwierig nicht dem Takt der Industrie zu verfallen, obwohl ja fast jeder erkennt, dass die tatsächliche Entwicklung nur minimal ist und sich schnelle Upgrades noch weniger lohnen als früher.
Horstelin said:
Ich kann eure Diskussion trotzdem nicht ganz nachvollziehen. Da wird sich gleichzeitig über sperrige ATX Boards und fehlende Innovation gerade bei diesen beschwert. Fakt ist einfach, dass sich inzwischen der Großteil der Nutzer eh ein Notebook kauft, und wer den Markt dort mal beobachtet hat, wird einiges an Innovationen finden (Laufzeiten >8h, dank verbrauch<5W bei kleinen, leichten aber leistungsfähige Geräten, mSATA oder auch Auslagerung von rechenintensiven Prozessen in die Cloud).Das sind aber alles keine Innovationen sondern nur kleine Weiterentwicklungen die grundlegend auf ziemlich alten Standards aufbauen und kaum neue Ideen mitbringen. Auf jeden Fall alles Dinge auf die man auch ohne großen Innovationsgeist erschaffen kann.
Horstelin said:
Dass das nun mal nicht ganz dem Meisterkühler Wunsch entspricht, am PC herumzubasteln, nun dafür könne die Hersteller ja nichts und niemand sagt dass es verboten ist, das Teil zugeklappt auf den Schreibtisch zu stellen und externen Monitor und Tastatur anzuschließen.Sicher nutzen viele heute Laptops. Da ist im Sinn des Energieverbrauchs ja auch begrüssenswert, aber so nutzt man natürlich nicht die technische Vielfalt und die Möglichkeiten die PC-Systeme prinzipiell bieten. Das PC-Basteln ist nicht als ein Hobby, wie Modelleisenbahn oder Schlagzeug spielen. Gerade hier bei den Meisterkühlern wird sich wohl niemand beschweren, wenn man sich selbst Gedanken machen muss, um am etwas PC zu basteln. Einen Laptop auf Wakü umzubauen ist doch z.B. ne schöne Herausforderung ;). Es geht, zumindest für meinen Teil sowieso mehr darum, mit dem PC eine Basis zu haben Bastelideen zu verwirklichen oder zumindest daran herumzuknoblen. Im Prinzip könnte man auch was anderes dafür hernehmen.
-
5. Juli 2012 um 13:07 Uhr #923263ghostadminTeilnehmer
@VJoe2max
ja so kleine Gehäuse gibt es wohl aber die sind auch mehr für Atom CPU oder sowas gedacht. Zum richtigen arbeiten taugt so eine CPU mE nicht, eher als Surfstation oder als Server.Ich meinte so Gehäuse wie das:
http://geizhals.at/de/429663
Wenn schon ITX, warum dann so ein riesen DVD oder Netzteil reinwürgen.Irgendwie auch erschreckend das die Gehäuse immer dünner werden. Unter 100€ fast alles klapprig und windschief.
-
5. Juli 2012 um 13:07 Uhr #923264hreTeilnehmer
ghostadmin;492472 said:
Irgendwie auch erschreckend das die Gehäuse immer dünner werden. Unter 100€ fast alles klapprig und windschief.Das ist aber nicht nur da so.
Wenns nicht teurer wird, wirds Material weniger.
Jeans z.B. kauf ich seit Jahren das gleiche Modell und fast jedes Mal ist der Stoff etwas dünner.
Ebenso 100g-Lebensmittelverpackungen mit 80g abgepackt usw. -
5. Juli 2012 um 14:07 Uhr #923266drdopeTeilnehmer
VJoe2max;492458 said:
Ich spiele das Spiel in einigen Bereichen einfach nicht mit und hoffe, dass der ein oder andere es mir gleichtut oder in anderen Gebieten aktiv versucht etwas zu entschleunigen ;).
Das fängt schon damit an keine Schulden zu machen, nicht jedem Trend hinterher zu rennen, das Konsumieren unnötiger Produkte auf ein oder sehr wenige Hobbys zu beschränken und wenn man etwas kauft darauf zu achten, dass es einigermaßen langlebige Produkte sind, und dass man sie dann auch lange nutzt. Natürlich gelingt das nicht in allen Bereichen aber man kann sich schon recht problemlos von der heutigen Hyper-Konsumgesellschaft abkoppeln, ohne dass man dadurch einen Nachteil hätte ;).Das betreibe ich schon länger so, zumindest bei Dingen abseits des Hobbys “EDV”, aber eher aus sehr pragmatischen Gründen -> ich hab zu wenig Kohle , um mir billigen Kram zu kaufen und einkaufen bedeutet für mich generell Streß, wenn man Produkte nicht an klaren technischen Eigenschaften unterscheiden kann (z.B. graust es mich alle paar Jahre davor, mir neue Klamotten kaufen zu müssen, weil ich dafür keinerlei “Gefühl” habe.
-
5. Juli 2012 um 20:07 Uhr #923276VJoe2maxTeilnehmer
drdope;492476 said:
Das betreibe ich schon länger so, zumindest bei Dingen abseits des Hobbys “EDV”, aber eher aus sehr pragmatischen Gründen -> ich hab zu wenig Kohle , um mir billigen Kram zu kaufen und einkaufen bedeutet für mich generell Streß, wenn man Produkte nicht an klaren technischen Eigenschaften unterscheiden kann (z.B. graust es mich alle paar Jahre davor, mir neue Klamotten kaufen zu müssen, weil ich dafür keinerlei “Gefühl” habe.Da sind wir auf der gleichen Wellenlänge – geht mir ganz genauso!
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.