PCM: 50 Mal schneller als Flash und endlich auch billiger als DRAM

Speicher, Flash, Ibm, Ram, Pcm, Phasenwechselspeicher Speicher, Flash, Ibm, Ram, Pcm, Phasenwechselspeicher

Infografik: Entwicklung von Arbeitsspeicher und ProzessorEntwicklung von Arbeitsspeicher und Prozessor
Die Forscher bei IBM konnten einen weiteren Durchbruch in ihrer Arbeit an Phasenwechselspeichern (Phase-Change-Memory, PCM) vermelden. Durch eine deutliche Steigerung der Speicherdichte werden die Chips wesentlich billiger und kommen langsam aber sicher in einen Bereich, in dem es realistisch wird, dass sie Flash- und Arbeits-Speicher in einem Rechner durch eine einzelne Technologie ersetzen.

Die grundlegende Funktionsweise von PCM kennt man im Grunde von optischen Medien. Durch extrem kurze Wärmeimpulse wird der Zustand einer Speicherzelle verändert und so eine Information repräsentiert. Die neue Speichertechnik ist dabei aber wesentlich schneller und kann sich fast schon mit der Geschwindigkeit von DRAM messen lassen. Es handelt sich also um einen sehr schnellen und nichtflüchtigen Speicher.

Schon länger träumen Hardware-Ingenieure davon, die Technologie einsetzen zu können. Denn durch eine Zusammenführung von Fest- und Arbeitsspeicher würde man nicht nur Kosten sparen. Der leichte Geschwindigkeitsnachteil gegenüber DRAM würde locker dadurch wettgemacht, dass die Daten nicht mehr zur Verarbeitung in den RAM gelesen und danach zurückgeschrieben werden müssen. Operationen können statt dessen direkt auf dem einheitlichen Speicher ausgeführt werden, was insbesondere beim Umgang mit großen Datenbanken einen enormen Vorteil hätte. PCM würde aber auch in anderen Anwendungen viel bringen - ein Smartphone, so schätzt man, wäre beispielsweise binnen Sekunden komplett gebootet.

3 Bit pro Zelle

Technische Fortschritte wurden über die Jahre immer wieder vermeldet. Es blieb aber das Problem, dass die Speichertechnik sogar noch viel teurer war als Arbeitsspeicher - vom vergleichsweise günstigen Flash ganz zu schweigen. Hier haben die IBM-Forscher nun aber durch den Einsatz einer neuen Architektur einen Durchbruch erzielt. Es gelang ihnen, in einer Speicherzelle nicht nur ein, sondern gleich drei Bits zu speichern und diese auch sicher wieder abrufbar zu machen. Dadurch sinken die Produktionskosten bei von Chips gleicher Kapazität deutlich unter den Preis von Arbeitsspeicher.

Sie sind zwar noch immer teurer als Flash, was durch die Einsparung im Zuge der Zusammenlegung beider Speichertechnologien weitgehend zu kompensieren wäre. Der von IBM gebaute PCM-Speicher ist dabei mehr als 50 Mal schneller als die Flash-Technologie. Noch nicht abgeschlossen ist die Entwicklung der Prozesstechniken, mit denen auch eine Massenproduktion im kommerziellen Maßstab möglich ist. Angesichts dessen, dass die Arbeit daran infolge des IBM-Durchbruchs wesentlich sinnvoller geworden ist, dürfte es hier aber in näherer Zukunft ebenfalls Fortschritte zu vermelden geben.
Dieses Video empfehlen
Kommentieren25
Jetzt einen Kommentar schreiben
 
Das würde die Art, wie heute programme funktionieren, Grundsätzlich verändern. Ich sehe darin große Vorteile, wenn Software darauf ausgerichtet wird.

Auf der anderen seite besteht dabei ein erhebliches Risiko im Falle von Speicherüberläufen.
 
@Bautz: Jepp.....Über den Resetknopf muss man sich dann mächtig Gedanken machen ;-). Der braucht dann eine eigene Subroutine.
 
@Bautz: Ich denke so gigantisch wäre der Unterschied gar nicht. Auf das Kopieren zwischen "Festplatte" und Arbeitsspeicher verzichten zu können würde sicher einiges vereinfachen und hauptsächlich Ladezeiten eindampfen, aber extreme Geschwindigkeitssteigerungen sind wohl trotzdem nur in einigen eher statischen Szenarien realistisch, also z.B. bei Datenbanken. Bei wirklich rechenlastigen Anwendungen hingegen wohl kaum (sofern nicht statische Teile wieder vorausberechnet dann TB-weise auf der Festplatte liegen würden). Schnell rechnen können heutige Prozessoren schließlich nur mit Daten im Cache, der winzig ist. 6MB LLC für 4 Kerne / 8 Threads sind ja nicht gerade üppig. Die Geschwindigkeitslück in der Speicherhierarchie würde aber dem Artikel nach gar nicht angetastet, die unzähligen Rechenkerne warten also nach wie vor aber-hunderte Taktzyklen auf Daten.
 
@thesunstar: Doch. Warum musst Du deinen PC denn hoch- und herunterfahren? Weil Daten von der HDD eingelesen und beim Herunterfahren wieder darauf gespeichert werden müssen. Weil Strom weg = Daten weg.

Mit PCM musst Du weder das OS noch Programme im eigentlichen Sinne starten. Sie liegen immer einfach immer vor. Die Startzeit von deinem OS samt geöffneter Anwendungen wäre also eher mit einem Stand-By vergleichbar, bei dem die Daten im RAM verbleiben.

Beim Anwendungsstart werden Daten ja nicht in den Cache der CPU geladen sondern in den RAM. Genau hier gibt es also gigantische Unterschiede. Und das gilt für alle geräte die irgendwie booten müssen. Von PCs über Smartphones bis zur Digitalkamera.
 
@Stratus-fan: Genau, wie ich auch geschrieben habe: Lade- und Startzeiten werden deutlich verkürzt oder gar ganz obsolet. Halt je nachdem ob die Daten exakt im richtigen Format da liegen, was dann ja sehr zu empfehlen wäre, oder noch mehr gemacht werden muss wie sie zu entpacken. Klassischer Größe/Geschwindigkeit Trade-Off.

Von dieser sicher willkommenen Vereinfachung abgesehen wird sich für rechenintensive Computerprogramme trotzdem nicht so viel ändern. Der immense Aufwand der getrieben wird um Caches optimal auszunutzen sodass notwendige Berechnungen schnellstmöglich durchgeführt werden können, statt ständig auf den langsamen Arbeitsspeicher zu warten, wird dort nach wie vor das Hauptproblem bleiben. Bei einem Computerspiel wird also z.B. das Streaming von Content (Teile der Spielwelt, Geometrie, Texturen ect.) einfacher, der eigentliche Flaschenhals bleibt aber erhalten.
 
@thesunstar: Da hast Du natürlich recht. An der Rechenleistung selbst wird sich nichts ändern. Aber sehen wir es realistisch: Ein Intel Atom mit SSD fühlt sich im Alltag oft schneller an als ein dicker Core i7 mit HDD.

Zumindest ich sehe hier ganz neue Szenarien und Paradigmen in der Software-Entwicklung. Auch Stand-By-Zustände könnten ein ganz neues Level erreichen, was insbesondere in der Masse viel Strom sparen dürfte.
 
3 Bits pro Zelle.....das wären dann 9 erkennbare Ladungszustände....nicht schlecht.
 
@escalator: 2 hoch 3 ergeben 8 mögliche Zustände. Oder habe ich einen extra Zustand übersehen?
 
@davidsung: 000 001 010 011 100 101 110 111 = 8......war nur daneben gerutscht so kurz nach dem Aufstehen.
 
@escalator: die Rechnung versteh ich net
 
@8oo5: es sind 8 mögliche Speicherzustände mit 3 Bit möglich... 1 = 000, 2 = 001, 3 = 010, ... , 8 = 111
 
@escalator: Beim 100 Mbit Ethernet hast du auch pro Rechteckimpuls 3 Zustände und beim Gigabit sogar 5 Zustände.

Wenn du diese Daten nicht als einzelnes betrachtest sondern als Reihung von Daten, so erreichst du irgendwann eine Anzahl die wieder ohne Rest durch 8 teilbar ist.
Und wenn man dann doch z.B. auf 9 kommen würde, so ignoriert man im schlimmsten Fall einfach das 9. Bit
 
"...dürfte es hier aber in näherer Zukunft ebenfalls Fortschritte zu vermelden geben."

Nicht so voreilig. 99 von 100 Durchbrüchen lassen in der Regel nie wieder was von sich hören.
 
@Knarzi81: Naja, hier gehts doch aber nicht um Akkus und Sprittsparen ;)
 
@bLu3t0oth: aber eine mächtige lobby dessen geschäftsmodell gefährdet sein könnte gibt es auch hier...wie bei jeder neuen technologie...
 
@Rulf: Denke ich eher weniger, da genau diese Lobby ja selbst PCM herstellen wird... bei der Ölindustrie ist das schon etwas anders.
 
Die Frage die ich mir dabei stelle: Kann man dabei einen Mischbetrieb mit anderen Speichertechniken(HDD/SSD) gewährleisten? Theoretisch ja schon, müsste dann vom BS entsprechend geregelt werden.
Dann wären auch die höheren Kosten ja kein Problem mehr...
 
@bLu3t0oth: wieso?...das würde die vorteile verkleinern und ließe sich darüber hinaus alles über schnittstellen anbinden...
 
@Rulf: Nur mal angenommen(ist bei mir nicht der Fall), dass du bereits 10TB in HDDs in deinem PC hast und du aufm PCM umstellen willst, dann willst du nicht 10TB PCM-Platten kaufen... verstehst?
 
Es wird sicher eine Herausforderung für die Programmierung, Doch auch der derzeitige Umgang mit "Netzwerklaufwerken" unterliegt der Veränderung.
 
Find diese Entwicklung sehr beeindruckend, da sie endlich mal wieder Fortschritte mache, da komm mir gleich die Erinnerungen von damals wieder hoch, das waren Zeiten, wo man Festplatten mir 20 MB hatte, scheiße, jetzt hab ich glatt vergessen, wie hoch die waren und nach und nach mehr wurde! ;) find das cool, das auch irgendwann mal die Festplatten was dazu beitragen, die Rechenleistung zu erhöhen! Thumbs up!
 
@OliverK1: Der letzte große Schritt in dieser Richtung war doch die "Umstellung" von HDD auf SSD. Da hat die Festplatte wohl bei vielen zum kräftigsten Schub der Arbeitsgeschwindigkeit beigetragen.

Denn ob ich im Office Betrieb einen i3 oder einen i7 nutze, ist eigentlich wurscht. Heftig ist der Unterschied aber bei SSD vs. HDD.

Grundsätzlich hast du natürlich recht. Das wäre DER nächste große Sprung!!!
 
"dass die Daten nicht mehr zur Verarbeitung in den RAM gelesen und danach zurückgeschrieben werden müssen"
Na, dann hat Bill Gates ja doch recht mit seiner Aussage das 640kb Arbeitsspeicher reichen. :)
 
Ist sau nice... aber das Ihr Werbung auf ein YT Video schaltet und mit fremden Content Geld verdient ist absolut mies.... Dann verlinkt doch bitte das Original. https://www.youtube.com/watch?v=q3dIw3uAyE8
 
Also RAM und Festspeicher zu kombinieren ist meiner Meinung nach sehr schwer und wird so schnell nicht i nicht-mobilen Bereich geschehen. Der Grund: RAM ist nicht nur in den Zellen schnell. Seine Geschwindigkeit kommt auch durch die Anbindung zur CPU zur Stande. Es reicht also nicht einfach eine Zelle zu bauen, die genau so schnell speichern kann. Der Inhalt muss auch zur CPU.

Wenn man also jetzt SSD nimmt, mit 1TB-Speicher, ist die mit SATA bei 6gbit/s. So ein RAM (siehe VRAM) kommt aber auf ca. 50-100x so schnell (heute, denn schon bald noch deutlich schneller). Das ist der Nachteil, wenn man viel Speicher haben möchte.

Umgekehrt: wenn man den Speicher schnell haben möchte, siehe RAM, ist man bei grad mal 128GB. Da sind die 1TB noch recht weit entfernt. Das ist immerhin 10x mehr. Aber 10x mehr Speicher mal eben so anbinden is nicht.

Also, Handy, wo man grad so 32GB Flash hat, da kann ich es mir vorstellen. Aber dass ich bald ne SSD kaufe, und die dort einstecke, wo sonst der RAM steckt :D das passiert nicht.
Kommentar abgeben Netiquette beachten!