Micron: Erste Muster von DDR4-Arbeitsspeicher

Die nächste Arbeitsspeicher-Generation soll ab dem kommenden Jahr in neuen Computern Verwendung finden. Der Chiphersteller Micron hat jetzt damit begonnen, erste Testmuster von DDR4-Bauelementen, die den aktuellen DDR3-DRAM ablösen sollen, an ... mehr... Amd, Arbeitsspeicher, Ram, Ddr3 Bildquelle: AMD Amd, Arbeitsspeicher, Ram, Ddr3 Amd, Arbeitsspeicher, Ram, Ddr3 AMD

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich hab bisher immer noch 4GB DDR2-RAM, da gibts jetzt schon DDR4... ich kann alles flüssig mit super Auflösung und hohen Details spielen, was hab ich nun also verpasst? Für mich ist dieses ständige weiterrüsten einfach nur fragwürdig, genauso wie jedes halbe Jahr eine neue GraKa rauszubringen, oder einen Prozessor, der jetzt noch ein paar Mhz mehr hat.. Das könnten die Hersteller alles schon seit Jahren, tun es aber so ab, als wäre es die NEUSTE Erfindung überhaupt... tatsächlich KÖNNTEN sie alles schon vor ein paar Jahren rausgebracht haben, aber erstmal schön den Markt immer und immer wieder abschröpfen mit marginalen Verbesserungen.
 
@citrix no. 2: Nur weil du es nicht benötigst, heisst das ja nicht, dass es gar nicht benötigt wird. Mein Rechner ist auch schon 3,5 Jahre alt und ich kann damit auch aktuelle Spiele ganz gut spielen. Die Entwicklung geht halt nicht sprungweise, sondern eher fließend. Die Unterschiede zwischen Autos zweier benachbarter Generationen ist auch minimal, zwischen größeren Abständen fallen die Unterschiede dann aber schon ins Gewicht (z.B. Golf 5->6 vs Golf 1->6), bei PCs usw. ist das genauso.
 
@citrix no. 2: Dieses Wetterüsten geht mir auch schon auf die Nerven. Vorallem zuwas brauch ich 17GB/sec wenn DDR3 des auch erreicht und man den Speed eh nie ausnützt. Vorallem ist der Stromspar gedanken fadenscheinig. Wir reden da grad mal um 0,5W weniger verbrauch pro Modul und des macht in ein PC kein unterschied. Laptop lass ich mir ja noch einreden ... aber PC?!
 
@WosWasI: Es gibt mittlerweile 8-Kern CPUs und wer brauchts? Welche Anwendung oder welches Spiel unterstützt es wirklich? Kein einziges Programm. Es ist wirklich fadenscheinig, diese Änderung immer als "besser" zu verkaufen. Am End braucht kein Mensch diese Änderungen, solange Anwendungen/Games nicht auch mal optimiert werden und wirklich durchgängig mal 4Kerne unterstützen... (Gleicher Mist bei den Smartphones mit 4-Kern CPU *facepalm)
 
@citrix no. 2: Ich finde eine fließende Weiterentwicklung sinnvoll. Ich mein die könnten auch direkt CPU's mit was weiß ich wie vielen Kernen bauen oder was auch immer. Aber du stellst dir das einfacher vor wie es ist. Durch diese Weiterentwickelung ist ja gerade sichergestellt das Anwendungen vernünftig laufen und Softwareentwickler sich darauf einstellen können. Naja und nur weil du es derzeit nicht benötigt oder meinst es sei schlecht, heißt es nicht das es auch so ist. Man sollte ja auch mal über den eigenen Tellerrand schauen. Zudem irrst du dich das die Anwendungen nicht auf die neue Anzahl von Kerne oder wie auch immer klarkommen. Sicherlich könnten ältere Anwendungen einen Octa-Core noch effizienter nutzen, das stimmt. Aber so bald ein neuer Standard vorhanden ist werden neuere Anwendungen auch den dementsprechenden Support leisten. Zudem ist es völlig ausreichend wie ältere Anwendungen mit neuen CPU's umgehen. Alle Kerne werden dennoch genutzt, alles läuft schnell, stabil und die CPU wird weniger ausgelastet. Zudem mag bei DDR4 der Stromspargedanke fadenscheinig herüberkommen, aber es geht viel mehr ums Prinzip. Du hast mehr Leistung und das für weniger Stromverbrauch. Ich finde es ist ein schöner Gedanke, ganz gleich wie viel eingespart wird. Zudem finde ich von 1,5V auf 1,2V im Vergleich nicht wirklich wenig, das sind immerhin 20%!
 
@citrix no. 2: Das Mehrkerne selten oder schlecht unterstützt werden ist auch nicht richtig. Wenn ein Programm richtig geschrieben ist um auf Mehrkernen zu laufen, dann schaut es selber nach wieviele Kerne vorhanden sind und nimmt sich so viele wie es braucht, oder verteilt sich selber auf die Kernprozesse. Wenn es schlecht programmiert ist gebe ich dir recht. Wenn ein Programmierer die Rechenthreads von Hand zugeordnet hat, sprich damals Thread 1 geht auf Kern 1 und Thread 2 auf Kern 2, dann wird es nicht richtig genutzt. Aber wie gesagt, die meisten Programme dürften, wenn sie denn Mehrkern benötigen, so sauber programmiert worden sein dass das Programm seine Threads selber aufteilt.
 
@citrix no. 2: Es gibt anwendungen: Blender, und andere rendering bzw. bearbeitungssoftware (cad) oder auch betriebssysteme wie z.b. windows 7 oder vista... Außerdem spielt ein vergleich leistung--> stomverbrauch/kühlung eine rolle... Ein Quad-core ist bei gleicher leistung deutlich kühler als ein dual core, da die last besser verteilt wird...
 
@WosWasI: Das rechnet sich vor allem für Server bzw. RZ ;-)
 
@WosWasI: Dass es auch noch andere Bereiche gibt außer deinem tollen PC zu Hause ist dir noch nicht eingefallen, oder?
Manche Bereiche können nie genug Leistung haben. Bei großen Simulationen oder der Wissenschaft wird einfach Leistung benötigt, im Gegensatz zu deinem neuen Crysis oder Battlefield 10.
 
@citrix no. 2: sehe es von der Seite: kommen die DDR4 Teile raus, werden die DDR3 schön billig! :)
 
@Bellras: Weil DDR2 dank DDR3 auch ultrabillig geworden ist. Nicht.
 
@BajK511: Das stimmt nicht, der wird im Preis steigen. Das war schon immer so. Denn der wird weniger Produziert und dadurch wird er sogar teurer sein als der neue RAM. Schau mal was bei DDR1, DDR2 und DDR3 im Preisvergleich abgeht. DDR3 bekommst du am billigsten, so bescheuert das auch ist.
 
@Si13nt: Das meine ich ja ;) Wenn sich DDR4 etabliert hat, wird DDR3 auch schweineteuer werden.
 
@BajK511: Aso, dann habe ich dich falsch verstanden. =)
 
@Bellras: Und nach einer Weile werden die sauteuer, siehe DDR2 zu DDR3.
 
@citrix no. 2: Daher kaufe ich mir nur alle 5-10 Jahre einen "ultra guten PC". Bisher habe ich nichts vermisst. Lass sie doch einfach dauernd was neues entwickeln.
 
@DonElTomato: Dann machst du aber kräftig Miese, lieber öfter im Preis-/Leistungssektor kaufen..
 
@citrix no. 2: Mag sein, dass die DDR2-Geschwindigkeit vollkommen ausreichend ist, aber in ein paar Jahren wird man sich schnelleren RAM wünschen, spätestens bei in-RAM-Datenbanken. Da ist wurscht, ob du spielen kannst. Ausserdem soll DDR4 ja sparsamer sein und da wird sich dein Laptop bedanken.
 
@citrix no. 2: Soll sich die Industrie jetzt nur an dich richten und alle vier Jahre oder je nachdem, wann du ein neuen PC zusammenbauen willst, neue Produkte rausbringen, oder was?
 
@citrix no. 2: Ich sehe es genau so wie du, naja fast! Mein PC hat jetzt 5 Jahre auf dem Buckel, würde der bei BF 3 im TDM oder auch mal Rush nicht ruckeln, wenn viele Leute aufeinander sind oO, würde ich mir noch keinen neuen kaufen. ;)
 
@citrix no. 2: Klar wird so was gebraucht besonders im Serverbereich, Render- und Physik-Farmen ist Bandbreite das Stichwort. Der Homebereich ist mehr ein Abfallprodukt. Ich zu meinem Teil würde lieber DDR5 Speicher sehen(wie auf den Grafikkarten). Pfeilschnell und niedrige Latenzen. Wer mit Raytracing, Bildbearbeitung und Videoschnitt zu tun hat kann nicht genug davon haben. @Bellras: Noch billiger geht es fast nicht mehr. Die arbeiten schon fast am Selbstkostenpreis.
 
@citrix no. 2: Zwischen Marktreife und den technischen Fähgikeiten ist ein Himmelweiter unterschiede. Mit sicherheit hätte man auch DDR4 vor 5 Jahren produzieren könnnen. Mit den heutigen Produktionsmethoden ist die Fertigung aber deutlich günstiger und der produzierte Ausschuss geringer.

Es bedarf einer Entwicklung im Sinne eines voranschreitenden Prozesses um Dinge fertigen&entwicklent zu können. Deiner Theorie nach hätten die Steinzeitmenschen auch schon Verbrennungsmotoren bauen können. Da man aber auf das Erfahrungen Sammeln angewiesen ist, kann man nicht von heute auf morgen einen Quantensprung in der Entwicklung machen.
 
@citrix no. 2: Mag sein das DDR2 bei deiner vermutlich eher schwachen CPU noch ausreicht. Aber es gibt bereits 6, 8 und 12kern CPUs und es reicht daher nicht nur die Arbeitsspeichergröße anzuheben, man muss auch die Geschindigkeit verbessern weil die sich ja auf alle Kerne aufteilen muss. Außerdem wird die Größe des Arbeitsspeichers immer weiter ansteigen und damit die Anzahl Speichermodule. Die brauchen dann natürlich auch mehr Strom also ist es durchaus positiv wenn die Energieaufnahme sinkt. Mal ein Beispiel, ich hab vor, ende des Jahres auf ein AMD Vishera System aufzurüsten. Die CPU hat 4 module 8 Kerne und wird wahrscheinlich 16 oder gar 32Gb DDR3 RAM verpasst bekommen. (kommt auf den Preis an) Derzeit sind 8Gb DDR2 verbaut und die kann man bereits heute fast ausreizen, stichwort Virtual Box, Virtual PC, Videoschnitt. An 16gb komme ich beim nächsten Rechner zumindest nicht vorbei.
 
@citrix no. 2: Woher nimmst du die Weisheit, dass heutige Hardware schon vor Jahren hätte produziert werden können? Ein Quadcore mit 3,5 GHz wäre vll. tatsächlich vor 5 Jahren machbar gewesen - aber sicherlich nicht in 28 oder 32 nm Bauweise, d.h. das Ding hätte keiner kühlen können. Aber wenn du da etwas weist, das das Gegenteil belegt, dann raus damit.
 
@citrix no. 2: Man kann rechner auch für etwas mehr als spiele gebrauchen und unter den möglichen anwendungsfällen sind durchaus auch welche die von zb ddr4 , cpus mit ein paar megaherz mehr (was wenn du dich mal mit den eigenschaften neuer cpu-generationen beschäftigen würdest bei weitem nicht alles ist) oder einer neuen grakageneration stark profitieren. und beim gamer-schwanzvergleich -zwingt dich niemand mitzumachen!
 
mehr leistung bei weniger verbrauch, es geht in die richtige richtung =)
 
@joj0r: im Prinzip hast du Recht, nur bezweifle ich, dass es sich bei Desktop-Systemen bemerkbar macht, wenn man beim RAM vielleicht 1-2W oder so einsparrt, während die Graka daneben 200 oder mehr verballert (von Multi-GPU-Systemen ganz zu schweigen). Bei Laptops, speziell Ultrabooks mag das hingegen tatsächlich bemerkbar sein, von daher ist es Schade, das DDR4 für diese Systeme später kommen soll.
 
@Link: Naja, 1-2 W weniger sind nunmal 1-2 W weniger, egal wieviel die anderen Komponennten verbrauchen. Mal abgesehen davon dass diese ja auch immer sparsamer gebaut werden. Und du weißt ja, der Standby der gerade mal unter 1 W verbraucht würde auch schon 1-2 Kraftwerke einsparen wenn jeder den Fernseher und die Anlage ganz aus machen würde.
 
@Tomarr: also ich weiß nicht, ob die sparsamer gebaut werden, bei den aktuellen Topmodellen hab ich schon wieder etwas knapp unter 400W gesehen, weiß nicht mehr obs ATI oder nVidia war.
 
@Link: Ja gut, nicht alles wird sparsamer, dachte da mehr an CPUs als an GPUs. Wobei natürlich die Frage ist weviel würden heutige Grakas verbrauchen wenn sie wie vor 10 Jahren die Sau raus lassen würden. Aber dennoch, deine GraKa würde so oder so 400 W verbrauchen, trotzdem sind 1-2 W auf die Masse gesehen doch eine Ersparnis.
 
@Tomarr: CPUs haben doch auch seit den Prescotts 130W, außer LowEnd-Modelle (und ja, ich weiß, dass das ist nur die TDP und nicht der exakte Verbrauch ist).
 
@Link: Kleinvieh macht auch Mist... rechne mal 1-2 Watt auf millionen Computer. Da spart man sicher hier und da ein Kraftwerk.
 
@lutschboy: gute denkweise, danke für deinen kommentar.
 
@joj0r: gebe ich dir vollkommen recht, ich liebe solche veränderungen und freue mich jedes mal aufs neue wenn ich sowas lese :D
 
Würde jeder in die Richtung "... wozu braucht man´s?" denken, gäbe es keinen Fortschritt, alles würde stagnieren. "Wozu brauch ich eine 2-Liter-Maschine im neuen Audi A4? Damals konnte ich mit dem alten VW Polo mit seinem 1-Liter-Aggregat und seinen 33 PS oder mit dem Fahrrad auch schon von zu Hause zu Omi fahren!"
 
@MaikEF: die Frage bei Autos sollte allerdings eher lauten "warum muss ich mich mit einer 2-Liter-Maschine bei einem Neuwagen zufriedengeben, wenn ein 59er Cadillac einen hübschen V8 mit 6,4L hat?"
 
@Link: eigentlich sollte die frage eher sein "warum fahren so viele leute total überdimensionierte karren, verschwenden ressourcen und machen die umwelt wissentlich und absichtlich kaputt, anstatt den täglichen weg ins büro mit einem ausreichenden fahrzeug zu fahren?"
 
@DataLohr: Weil sie die Konsequenzen mit großer Wahrscheinlichkeit eh nicht mehr erleben...
 
@DataLohr: weil es noch Leute gibt, die auch noch etwas Spaß am Autofahren haben?
 
@Link: Spaß auf dem Weg zur Arbeit? Im Stau habe ich keinen Spaß! Egal ob mit 1,2L oder 6,4L.
 
@DataLohr: Die Antwort ist, weil sie es können.. Bin auch etwas neidisch auf die Amis und ihre billigen Spritpreise..
 
Weniger Verbrauch, gefällt mir!
 
Es ist mitnichten so das man heute schon die übernächste CPU-, Grafikkarten, Arbeitsspeicher-Generation auf den Markt schmeißen könnte, es aber nicht tut um dem dummen Kunden das Geld Säckeweise aus der Tasche zu ziehen. Die Unterschiede von Generation zu Generation sind in den letzten Jahren kleiner geworden, dass stimmt. Das liegt aber nur daran, dass die Fertigungsprozesse immer aufwendiger werden und die Architektur langsam aber sicher an seine Grenzen kommt. Bevor man an Optimierungen arbeiten kann, muss erstmal das grundsätzliche Design lauffähig werden. Und das heißt nicht nur das das Ding macht was es soll, sondern auch das man es überhaupt effizient produzieren kann. Im nächsten Schritt kann man dann Optimierungen angehen. Intels Tick-Tock Prinzip halt... Das ist nicht nur Mathematik (und Physik) allererster Güte um überhaupt die Funktionen zu definieren sondern wir haben es hier zusätzlich mit Milliarden von Transistoren zu tun, die alle korrekt verschaltet werden wollen. Das haste nicht mal eben in der Mittagspause auf 'ner Serviette aufgemalt... Wie manche sich das vorstellen... ohh man...
 
Naja, nur weil die Spannung sinkt heißt es ja noch nicht das die unterm Strich auch weniger verbrauchen... Wenn aber doch fänd ich's top. Wären in 'nem Stromspar-PC wieder 1-2 Watt die man einsparen könnte um die Mehrkosten für unseren Atomausstieg ein bissel kompensieren zu können ;)
 
Ich habe ehrlich gesagt gar keine Lust mehr, mir meinen Desktop-PC selbst zusammenzuschrauben. Kauft man sich einen schnellen Arbeitsspeicher, bremst irgendwas am Mainboard alles aus, usw. - klüger ist man meist erst im Nachhinein. Dafür mag ich meine Zeit nicht mehr verschwenden - habe mittlerweile auch andere Hobbies. Mir kommen deshalb nur noch durchdachte Komplettsysteme in die Tüte, die ich mir ca. im 3-Jahrestakt zulege (allerdings keine, bei denen die Hardware im Bildschirm verbaut ist, denn da kann man selbst kaum Reparaturen vornehmen).
 
@Heimwerkerkönig: "durchdacht" und "Komplettsysteme"? Schließt das eine nicht das andere aus? Keine Ahnung was du da immer falsch machst, aber selberbauen ist meistens billiger (oder man hat wenigstens hochwertige Komponenten, speziell Netzteil) und zweitens hat man einen auf die eigene Bedürfnisse abgestimmten PC. Und was den Zeitaufwand betrifft: ob ich nun die Zeit dafür aufwende, die Hardware auszutauschen oder Crapware vom System zu entfernen... da nehm ich lieber Hardware austauschen, ist besser für die Nerven.
 
@Link: Auch Notebooks sind Komplettsysteme - und auch dort gibt es durchdachte, und nicht durchdachte - gleiches gilt für den Desktop. Man darf eben, wie beim Kauf von Einzelkomponenten, nicht wahllos zugreifen. Die meisten Leute die sich ihr System zusammenbasteln, bemerken außerdem gar nicht, wie sich die verbaute Hardware gegenseitig punktuell ausbremst. Man kann übrigens problemlos "nackte" Komplettsysteme erwerben. Und von wegen "Zeitaufwand" fürs Entfernen von Crapware". Ein modernes BS ist in max 30 Minuten neuinstalliert - bau mal einen Rechner in der Zeit zusammen (der Zeitaufwand für den Einkauf der Einzelkomponenten nicht einmal mitgerechnet). Dass der Einkauf von Einzelkomponenten immer billiger ist als ein Komplettsystem, ist übrigens ein Mythos. Rechnet man Versandkosten und Arbeitsaufwand mitein, stimmt das meist nicht. Die PC-Hersteller kaufen ihre verbaute Hardware außerdem wesentlich günstiger ein, als Privatkunden.
 
@Heimwerkerkönig: 1. Um das Betriebssystem in 30 Minuten neuzuinstallieren braucht man aber eine vernünftiges Installationsmedium, welches nun mal nicht mitgeliefert wird, das muss man dann auch erstmal haben. 2. Selberbauen ist i.d.R billiger, wenn ich einen Rechner zusammenbaue, schaue ich schon, ob ich das so auch fertig und u.U. preiswerter bekommen kann, bisher war meine Konfig immer um mind. 150€ billiger (und das war bei einem LowEnd-PC für insgesamt ca. 350€, ein vergleichbarer Fertig-PC hätte 500 gekostet). Geld spart man auch in dem man nicht alle Komponenten tauscht, ein ordentliches Gehäuse + Netzteil alleine können 200€ (und mehr) kosten, wobei man da Qualität bekommt, die bei Fetig-PCs nunmal nicht vorhanden ist. Wenn man dann ein 600-800W Netzteil hat, muss man den auch nicht jedesmal tauschen, das Gehäuse genauso wenig, andere Komponenten wie z.B. diese SATA-HotSwap-Dinger auch nicht. Von der völlig unzureichender/billiger/lauter Kühlung der Komponenten und praktisch nicht vorhanderner Gehäusebelüftung von Fertig-PCs will ich lieber nicht weiter reden, da regt man sich eh nur drüber auf. 3. weiß ich immer noch nicht, was sich da ausbremsen soll, hab es auch weder selbst erlebt noch von gehört, wenn man bei der Auswahl der Komponenten ein wenig geschickt ist, kann man Taktraten erreichen, von denen Fertig-PCs nicht mal träumen können. Und dann dreht so ein Selbstbau-PC Runden um einen gleich teuren Fertig-PC, die kann man schon alleine wegen der schlechten Kühlung, des viel zu schwaches Netzteils (welches i.d.R. schon bei 24/7 Vollast bei Standardeinstellungen nach ner Weile Probleme macht) und natürlich nicht so guten MoBos kaum übertakten.
 
@Link: Die von dir angeführten Probleme kommen vor allem dann vor, wenn man Billigsysteme bei Aldi und Konsorten kauft. Das tue ich nicht. Ich kaufe mir stattdessen "Business"-Maschinen von namhaften Herstellern, die z.B. auch bei uns in der Firma eingesetzt werden. Da passt alles - vom leistungsfähigen Marken-Netzteil, bis hin zu einer Cherry-Tastatur, die man an die Wand knallen kann, ohne dass sie dabei Schaden nehmen würde. Wären das nicht so gute Geräte, und würden dort die Fehler auftreten, die du beschreibst, dann würde ich auch noch schrauben. Punkto ausbremsen: Bei mir hat in gewisser Weise eine Graka dafür gesorgt, dass die CPU viel zu oft Vollgas gab und deshalb der Lüfter ständig auf voller Drehzal lief. Ich habe die teure Graka dann mal testweise durch eine schwächere ersetzt, und siehe da, die CPU war plötzlich viel weniger stark belastet. Schuld war, wie ich später drauf kam, aber eigentlich weder die Graka, noch die CPU - sondern das Mainboard das mit der Graka Probleme hatte... Aber Komm da mal drauf! Der Durchschnittschrauber denkt sich doch bloß "sch... CPU" und kauft sich einen Monsterlüfter oder eine Wakü. Womit er bloß für teures Geld die Symptome unterdrückt, nicht aber das eigentliche Problem behebt.
 
@Heimwerkerkönig: na gut, dann hattest du eben das eine mal so ein Problem, stellst es aber so dar, als obs die Regel wäre. Und die Business-Maschinen sind dann noch mal um einiges teurer als die Discounter-PC, die man beim Selbstbau schon problemlos unterbieten kann. Und ob die immer noch so gut laufen bei 4,5 oder mehr GHz, was ein aktueller habwegs vernünftig zusammengebauter Selbstbau-PC i.d.R. ohne weiteres schafft, bleibt auch noch offen. Dafür fehlen den OEM-Mainboards aber meistens die nötigen Features, so dass man es nicht mal testen kann.
 
Kann mir jemand erklären, weshalb es schwer war diesen Standard zu definieren wenn bereits ~jede~ Grafikkarte DDR5 eingebaut hat? Also was ist da jetzt der Unterschied? AMD / NVIDIA gehen doch nicht zu den RAM Herstellern und sagen "Hallo, wir hätten gerne Steine mit Spezifikation XY, das verkaufen wir dann als DDR6 GG " oder wie?
 
@flail: beim GDDR ist man halt schon bei 5 angekommen, dort wechselt es schneller, vermutlich z.T. deshalb, weil der RAM bei Grakas fest verbaut ist, da muss man nicht so viel auf Kompatibilität achten und die Kunden regen sich nicht über ständig neue Standards auf.
 
@Link: Hm stimmt an die Endkunden, die von der (In)Kompatibilität nichts mitbekommen, habe ich gar nicht Gedacht. So eine einzelne Referenz Platine für die Graka ist dann wohl doch schneller auf wechselnde RAMs angepasst. Zusätzlich kann jeder sein eigenes Brot backen da sie nur auf den PCI-Express angewiesen sind, während die Arbeitspeichermenschen sich dann auf Steuerprotokolle mit allen CPU Herstellern einigen müssen.
 
Ich fände es trotzdem toll, wenn man mal eine Abwärtskompatibilität hinbekommen würde, also dass DDR 4 Ram auch in DDR3-Slots passen und umgekehrt. Ich meine wenn ich mir ein neues Mainboard kaufe kann ich meine 4x4GB DDR3-Ram wegwerfen, weil sie nicht mehr passen und muss mir neue DDr4-Ram kaufen, was totaler Müll ist, weil mit 16Gb Ram kommt man noch eine ganze Weile locker hin, was ich von meinem momentanen DualCore nicht behaupten kann.
 
@Memfis: Wenns so läuft wie bei der Einführung von DDR3, vergehen eh noch Jahre, bis man überhaupt drüber nachdenkt. DDR3 war zunächst so unverschämt teuer und kaum besser. Wenn das diesmal auch so ist sehe ich noch lange schwarz, vor allem weil der große Markt mitlerweile doch wohl eher Laptops sind und nicht mehr Desktops.... Bei Servern mag das sinn machen, aber dort gilt oft: "never touch a running system" und wer will da betatester für neue DDR4-Speicher spielen....
 
@Memfis: wenn man nicht gerade jedes Jahr ein neues Board kauft, ist die Überlegung, ob man den alten RAM behalten will eh nicht wirklich vorhanden. Es geht ja nicht nur um die Menge, sondern auch um Geschwindigkeit, den alten kann man zusammen mit dem Rest auch auf eBay verkaufen, wenn mans nicht mehr braucht.
 
@Link: eBay? Schlechtes Beispiel.
 
WOZU? Es gibt im PC Bereich nichts was ich mal als "Fortschritt" bezeichnen würde und das schon seit Jahrzehnten nicht. (Wenn ich von irgendwelchen "Hardcore Games" vielleicht mal absehe) Ich kann auf einem 10 Jahre alten Notebook ein Full-HD Video sehen und FB und Co ist damit auch kein Problem. Ich persönlich sehe auch nicht, dass sich das in den nächsten 5-10 Jahren ändert. "Fortschritt", in diesem Fall eher "bessere PCs" betrachte ich persönlich, ohne irgendwelche neuen Anforderungen, die ich aber nirgendwo auch nur erahne, als ziemlich witzlos. Um bei dem Autovergleich von oben zu bleiben, jeder fährt bereits mit einem A4 Quadro in Vollausstatung durch die Gegend. Aotufanatiker kaufen sich dann vieleicht einen Ferrari, selbst wenn fast überall das Tempolimit 120 ist.
 
@Lastwebpage: Stell dir vor, man kann mit Computern mehr machen als Videos anzuschauen und seinen Exhibitionismus auszuleben.
 
@Lastwebpage: Du musst die Technik kennen... Die Hyperthreading-Technologie der CPUs war ein Quantensprung, genauso das dynamische takten um strom zu sparen und die kühlung zu verbessern, ssds sind auch so ein sprung, nur sehen die meisten diese nicht, weil sie nicht davon profitieren, full-hd und facebook kann man mittlerweile schon mit einem smartphone, vor 10 jahren undenkbar... Die internetgeschwindigkeit war damals auch high-end wenn man nur ganz normales dsl hatte...
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles