SSD-Langzeittest: Modelle im Handel leben länger als erwartet

Handelsübliche SSDs in einem Langzeit-Test auf den Prüfstand stellen - das war das Ziel der Redaktion von TechReport. Das Ergebnis: Der Käufer muss zwar damit rechnen, dass die Speicher irgendwann kaputt gehen, sie halten aber durchaus mehr aus, ... mehr... Samsung, Ssd, 840 EVO Bildquelle: Samsung Samsung, Ssd, 840 EVO Samsung, Ssd, 840 EVO Samsung

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Naja, wiederum schmeißen in meinem Kreis ständig Leuts SSD weg, weil sie durch sind. Bei anderen halten bereits ~5 Jahre. Meine Crucial belaste ich so minimal wie möglich. Temps, Auslagerungsdatei sogar den Desktop habe ich auf eine HDD verschoben. Den Desktop deshalb, weil ich da ne ziemliche Sau bin und vieles Temporär auf dem Desk schmeiße.
 
@knirps: meine ist nun 2 jahre alt und bin echt mal gespannt wie lange sie hält. ich behandle sie nicht absichtlich vorsichtig, sondern wie zuvor meine hdd auch.

man schiebt ja sowieso nicht den ganzen tag daten hin und her.
 
@Mezo: Doch das tut man, vll. nicht immer bewusst aber die temporären Dateien und die Auslagerungsdatei ist ständig in Bewegung. Dein Browser ist ständig am Chachen. Es ist kaum übertrieben zu sagen das du bestimmt mehrere hundert MB Cache am Tag alleine nur durch deinen Browser generierst.
 
@knirps: und selbst wenn. sowas muss meine ssd abkönnen oder sie ist es einfach nicht wert. ich passe mein verhalten doch nicht meiner ssd an. entweder sie kommt damit klar oder sie kann mich mal ;)

ich glaube kaum, dass meine ssd deswegen bald den geist aufgibt.
 
@Mezo: ich wage da auch keine prognose, nur die Dinger sind eben begrenzt in ihrer Beschreibbarkeit.
 
@knirps: klar begrenzt, aber nicht so begrenzt, dass man sich über jede kleinigkeit einen kopf machen muss.
 
@Mezo: Ich habe drei SSDs eine Samsung 830 256Gb eine Samsung 840 pro 128gb pro für den HTPC, eine Samsung 840 EVO 128gb für den Laptop. Zwei davon haben jetzt schon ca ein 3/4 Tb Schreibleistung auf dem Buckel und sind ca 1 Jahr alt. Wenn ich jetzt sehe wie lange die Samsung teile durchalten, dann mache ich mir keinerlei Sorgen das die schnell kaputt gehen.
 
@knirps: Auch wenn die anderen nicht Deiner Meinung sind, dann muss ich Dir recht geben. Geräte sollte man mit Verstand einsetzen und die Grenzen bedingt durch die verschiedene Technologie kennen. Im privaten Bereich mögen die Nachteile der SSDs nicht so gravierend sein. Die meisten Leute nutzen ihren Rechner nur wenig, etwas surfen, etwas mailen, etwas spielen. Da macht die 'falsche' Nutzung der SSD vermutlich nicht so viel aus. Aber wenn Du in den Bereich der Servernutzung kommst, dann wird das wirklich wichtig. Unsere neuen Server in der Firma haben auch SSDs, aber da ist es notwendig Schreibzugriffe zu minimieren. Beispiel bei einem Mailserver wären die SSDs sonst in kurzer Zeit hin. Also OS auf die SSD, aber die Daten aufs SAN mit klassischen HDDs. Da gehen im Schnitt auch so ein knappes Dutzend pro Monat hinüber (obwohl kein Shelf älter als 5 Jahre wird), aber das ist natürlich kein Problemda alles hochverfügbar ist. SSDs sind für den Einsatzzweck einfach technologisch ungeeignet. Aber im Homebereich macht es vielleicht Sinn, aber ist nicht so entscheidend die Technik richtig einzusetzen.
 
@knirps: Dafür sind Festplatten aber nun mal da. Was bringt mir eine SSD, auf der ich nicht arbeite?
 
@knirps: Dann will ich mal deine Browser Temp sehen habe meine Samsung 840 Pro mit 256gb jetzt seit 2 Jahren praktisch im Dauerbetrieb gut ich zocke nicht aber der Rechner läuft Praktisch 24/7 und habe erst 5 TB daten geschrieben selbst wenn nur die Herstellerangabe Stimmt. Raucht meine SSD erst 2023 ab also bitte mach mir das mal mit ner Normalen HDD vor. Dieses Ausfall datum sagt mir jedenfals SSD life Pro.
 
@timeghost2012: Theorie und Praxis sind so zwei Sachen.
 
@knirps: ich will damit nur sagen das man heutige SSD nicht sonderlich schonen muss.
 
@timeghost2012: Ja, naja, ich sehe das in der Praxis halt anders. Die Entsorgungsrate im Bekannschaftskreis ist recht groß.
 
@knirps: Sorry aber dann würde ich mich mal fragen ob deine Bekannten da nicht etwas falsch machen. Mir rauchen die normalen hdds jedenfals schneller ab als die sdds.
 
@timeghost2012: Ich hab 20 Jahre allte HDDs hier, die noch funktionieren. Meine SSD ist erst zwei Monate alt, da kann ich noch nicht mitreden ^^.
 
@knirps: die Hdds waren noch von Wert nimm mal ne billige von Heute da musste ich schon 3 Stck nach 2 Jahren austauschen.
 
@timeghost2012: Definiere von heute, mein letzter Einkauf ist ~5 Jahre her, läuft noch ohne Anzeichen des Verschleißes.
 
@knirps: HDDs sind nicht schlecht und auch die heutigen halten ~5 Jahre. Nun gibt es SSDs und die halten ebend nochmal länger. Ja, LÄNGER. Siehe Test. Alles gut, die NSA und die Nazis planen keine Verschwörung.
 
@UnPr3diCtabl3: "Klinische" Tests bringen mir gar nichts, wenn ich sehe das SSDs reihenweise entsorgt werden.
 
@knirps: Ich hab für meine Kunden schon boa ... 150?! SSDs verbaut. Noch ist KEINER wegen ner Reperatur wiedergekommen. Ich muss mir überlegen nicht bald Chinaböller-Netzteile zu verbauen für mehr Kunden im Laden.^^
Ne, aber im ernst macht euch weniger Sorgen wegen so nem Mist. Gibt Wichtigeres. Das Gleiche mit CPUs und übertakten... "oh nein die Lebensdauer .." ja.... wann habt ihr das letzte mal ne tote CPU gesehen? Ja, dachte ich es mir doch. Das Gehäule wird wohl nie aufhören -.-
 
@UnPr3diCtabl3: Ja, naja. Ich kann es mir nicht leisten mir alle halbe Jahre ne neue SSD anzuschaffen, darum bin ich lieber zu viel als zu wenig vorsichtig.
 
@UnPr3diCtabl3: CPUs sterben beim Übertakten nur wenn mans falsch macht. Die Lebensdauer geht runter da bei temperaturen über 60°C verschleiß einsetzt, aber selbst damit halten die locker 6-7 jahre und das ist meist länger als das ganze System überhaupt benutzt wird.
 
@knirps: kauf dir halt einmal ne ordentliche (zB: Intel), pflege sie mit der TRIM-Funktion und die wirst keine Probleme bei normaler Nutzung haben. Is ja völliger Bullshit ne teure SSD zu verbauen und dann trotzdem die HDD rödeln zu lassen. Es ist ein WERKZEUG und Werkzeuge halten nunmal nich ewig.
 
@Aerith: Die HDD rödelt so oder so, SSD hin oder her.
 
@knirps: Also meine rödelt minimal. Videos, Musik etc sowas halt. Kram wo geschwindigkeit völlig banane ist.
 
@Aerith: Das ist bei mir ganz ähnlich. Trotz Auslagerung der temporären dateien ist der Geschwindigkeitsvorteil von Windows enorm.
 
@Aerith: Stimmt, aber es dauert ebend ewig. Für alle die es wissen wollen: http://www.anandtech.com/show/2468/6
 
@knirps: Naja sein wir mal ehrlich: mit 8G+ an Ram hat Windoof eigentlich nicht viel Grund mit der Auslagerungsdatei rumzumachen. Ich hab meine auf 1G gsetzt und irgendwo in der hintersten Ecke einer HDD versteckt weil meine SSD nur 120G groß ist. Sinnlos vergeudete SSD kapazität ist viel eher nen Grund die Auslagerungsdatei zu verlegen als Paranoia über NAND Schreibzyklen.
 
@UnPr3diCtabl3: KP warum die Leute dir negative Bewertungen geben. Was der Artikel sagt stimmt: mehr Temperatur = mehr Verschleiß. Aufgrund der schnellen Entwicklung der Technologie für den Endkunden aber größtenteils uninteressant.
 
@knirps: "Meine Crucial belaste ich so minimal wie möglich. Temps, Auslagerungsdatei sogar den Desktop habe ich auf eine SSD verschoben" .... meinst Du nicht, dass Du den Kram auf eine HDD geschoben hast? Und so die SSD weniger belastet? Also ich schone meine SSD auch, indem ich dort nur das BS, einige Programme und gelegentlich Spiele draufschiebe. Auslangerungsdatei, Indizierung etc deaktiviert.
 
@tomsan: Hups, natürlich...
 
@knirps: Sogar Microsoft selbst schreibt in ihrer Knowledge Base, dass es kaum etwas gibt, das sinnvoller auf einer SSD gelagert wird, als die Auslagerungsdatei. Wird die nämlich mal tatsächlich gebraucht und liegt sie dann auf einer HDD, spürst du deutlich, wie das System ins Stottern gerät. Bei einer SSD läuft es dann wesentlich flüssiger. Zumal bei ausreichend RAM zwar viel Platz für die Auslagerungsdatei reserviert wird, allerdings im normalen Betrieb so gut wie gar nichts reingeschrieben wird.
Dann hab ich selber auch ein vollkommen anderes Bild bezüglich Zuverlässigkeit. Mir ist bislang noch keine einzige Hardwarekomponente im Betrieb kaputtgegangen außer HDDs. Ich hatte noch keinen einzigen PC, in dem nicht irgendwann nach einigen Jahren eine der HDDs kaputt gegangen ist durch Defekte in der Mechanik (das sind ja die, die sich dann meist durch lautes Klackern bemerkbar machen).
Daher sind nach meiner Erfahrung die HDDs das mit Abstand Unzuverlässigste in einem PC. Aber auch in der Theorie ist das Risiko viel größer, dass irgendwann die Positionierungsmechanik in der HDD kaputt geht als dass man defekte Flash-Zellen verursacht.
Die Ausfälle, wie man sie von SSDs (vor allem den ersten Modellen!) kennst, liegen übrigens fast ausnahmslos an Fehlern in der Controller-Firmware. Die Speicherzellen an sich sind in Ordnung, nur haben viele der früheren SSD-Serien teilweise schlimme Bugs in ihrer Firmware gehabt, die dann je nachdem an welchem SATA-Controller sie betrieben wurden nach einiger Zeit zu einem Totalausfall der SSD-Controller geführt haben. Bei aktuellen SSDs sind solche Kinderkrankheiten aber längst nicht mehr an der Tagesordnung. Bei diesen Bugs ist es im Übrigen auch völlig wurscht, ob man viel oder wenig Daten auf die SSD geschrieben hat. Da heißt es eher: 1% Chance, dass die SSD beim nächsten Einschalten für immer aussteigt.

Naja, ich mache es jedenfalls genau andersrum als du. Ich packe gerade das, was permanent verändert wird, auf die SSD, also auch sowas wie den Browsercache. Gerade die zahlreichen verteilten Mini-Zugriffe sind das, worin der Hauptvorteil einer SSD liegt. Außerdem schaltet man damit einen Großteil des HDD-Gerödels aus.
Bei mir kommen nur große Dateien, die unmodifiziert gebunkert werden sollen, auf die HDD, z.B. Videos, Musik etc., oder Spiele, bei denen es bis auf wenige Ausnahmen meist egal ist, ob sie auf einer SSD oder HDD liegen.
 
@knirps: Total Sinnlos seine SSD so zu behandeln...das ist wie mit Aktion Figuren spielen die noch in der Verpackung sind...bei normaler Behandlung sollte ne SSD Jahre halten... Da ne SSD nicht so groß ist ( Normalerweise) sollte man für Games ne Extra HDD benutzen und evtl. den "Eigene Dateien" Ordner verschieben ...
 
@knirps: Ich hab hier Privat und geschäftlich ungefähr nen Dutzend SSDs verbaut und bisher ist mal eine einzige kaputt gegangen. Wohl aber nicht durch zu viel Schreibleistung, sondern weil der Controller nciht mehr wollte.
Gab vom Support auch kostenlos ne bessere dafür^^

Wenn du Auslagerungsdatei und Tempordner auf ne normale HDD legst, um die SSD zu schonen, machst du damit wohl die hälfte des Nutzens der SSD zu nichte. Wozu hast du das Teil, wenn du gerade die Dateien, bei denen du am meisten von den Fähigkeiten einer SSD profitierst, wo anders lagerst?

Bei mir ist die älteste SSD ca. 2 Jahre alt und keine davon ist bsiher in den 2 stelligen TB Bereich vorgedrungen beim Schreiben von Daten.
Laut Lebensdauerkurve noch alles auf 100%.
 
@pcfan: Ich habe genug von der SSD. Ich arbeite ja nicht primär mit temp dateien.
 
@knirps: Aber die Temp Dateien und vor allem die Auslagerungsdatei macht dein Betriebssystem schneller.
Und genau das ist es normalerweise, was man erreichen möchte.

Hab grad nochmal geschaut.
Meine erste SSD (Forc3 120Gb) hat 15.000 Betriebsstunden und ich habe 6,4 Tb geschrieben und 17,9 Tb gelesen.
Die Lebensdauer der Zellen ist also bei weitem nicht in Gefahr.
 
@pcfan: ich bin sehr zu frieden mit der veschwindigkeit.
 
Meine kleine Intel X25-M kurz nach Release gekauft laut SSD Toolbox nach 20TB geschrieben noch bei guten 94%, wenn man bedenkt wann die rauskam und bis heute ohne Fehler/Ausfälle läuft kann ich mich nicht beklagen
 
Interessante Info. Wenn ich mit dem Tool 'CrystalDiskInfo' meine Kingston (SH100S3120G) SSD auslese, dann habe ich z.Z.: 18522 GB Host-Lesevorgänge und 6157 GB Host-Schreibvorgänge. Ich vermute, dass muss man noch zusammenzählen, also 24,679 TB. Demnach noch viel Luft noch Oben. Ich hoffe, dass ich einen SSD-Ausfall nicht miterleben muss. Früher bei den HDDs habe ich das schon mal öfter durch.
 
@Superia: Nö, nur Schreibvorgänge sind wichtig, da das neu Beschreiben das Gate des Transistors belastet. Lesen kannste so oft wie du willst. Also 6TB Schreibvorgänge. :)
 
Das fiese an SSDs ist eben daß sie ohne jede Vorwarnung über den Jordan gehen. Bei Festplatten kann man den Verschleiß meist hören, während meine beiden OCZ von jetzt auf nachher ihren Dienst eingestellt haben.
Es ist schon erschreckend daß ich denen noch weniger traue als Festplatten, von denen mir jedes Jahr eine verreckt.
 
@Johnny Cache: Wiederum sind SSDs doch immer lesbar, sprich es findet kein Datenverlust statt... in der Theorie...
 
@knirps: Von der Theorie haben meine defekten SSDs leider nie etwas gehört. ;)
 
@Johnny Cache: das is in der praxis ja ziemlich scheisse.
 
@knirps: Wenn du ein Problem hast weil eine Festplatte nicht mehr lesbar ist, dann hast du eine dämliche Praxis. ^^
 
@Johnny Cache: Es heißt nicht umsonst "Wer OCZ kauft, kauft zweimal" :P
 
@Hendi48: Für die zweite gehöre ich auch echt geschlagen. Kein Plan warum ich zwei mal so einen Elektroschrott gekauft habe.
 
@Johnny Cache:
Ich wollte gerade jemanden oben weiter schreiben dass die SSDs die abkratzen meist OCZ sind, und dann lese ich deinen Post. ;)
 
@Johnny Cache: Bei nem korrekt konfigurierten System ist das aber völlig Hupe, da SSDs eigentlich nur OS und programminstallationen beinhalten. Meine könnte Jeden Moment abrauchen und mich würds (vonner Datenperspektive her) nicht jucken.

Wehe jedoch meine randvolle 2TB Platte macht irgendwann die Grätsche. :X
 
@Aerith: Auf eine SSD gehören auch alle anderen Daten auf die man schnell und häufig zugreifen muß. Das ist nicht auf das OS beschränkt sondern auch auf Dinge wie Datenbanken oder auch Bild und Videodateien die gerade in Bearbeitung sind.
Es ist ein Datenträger wie eine HDD auch. Da gibt es keine korrekte oder falsche Verwendung.
 
@Johnny Cache: Relativ sinnbefreit, da diese Prozesse in der Regel nicht durch die Plattengeschwindigkeit begrenzt werden (zB video encoding) aber na gut.Jeder wie er will.
 
@Aerith: Man muß ja nicht immer reencoden. Und beim muxen ist schon die Platte das Problem.
 
@Johnny Cache: Ja das ist wahr. Aber solange TB SSDs ned preiswert zu haben sind muß mach nach der Bearbeitung die Daten leider eh wieder auf ne HDD schieben. ._.
 
Meine ADATA S510 ist neulich(letzten Mittwoch war das glaube) nach etwa 16TB insgesamt Lesen und 9TB Schreiben gestorben. Und das nach 2 Jahren Benutzung.
 
Wer billig kauft, kauft öfter. Man muss schon den einen oder anderen Euro ausgeben, sonst muss man sich nicht wundern.
 
Meine Intel 520 eiert nach 2 jahren bei 3.6TB writes herum. Ich glaub nich das der Rest des Rechners solange durchhält wie der NAND Speicher (ca 500 jahre). :D
 
Ausser der Stossfestigkeit sehe ich keine Vorteile in einer SSD, daher läuft sowas bei mir nur in Notebooks bzw. Tablet-Convertibles. Meine Workstations und Server kommen mit Energiesparplatten aus. Die haben jede Menge Hauptspeicher und der ist gewiss schneller als jede SSD.

Wozu sollte ich mir also eine ab der ersten Benutzung durch Schreibzugriffe sterbende Speichertechnik in den Rechner einbauen? So ein Konzept finde ich nicht besonders elegant.
 
@nOOwin: man muß selbst annem Rechner mit SSD systemplatte drangesessen haben um zu verstehen warum das Spaß macht. Aber schön zu sehen das du nicht das technische oder mathematische Verständnis hast um aus dem techreport Artikel zu entnehmen, dass alle anderen Komponenten (z.B. die Controller der Platten, Schnittstellenstandards, kapazitätszunahme neuer Technologien) eher abnippeln/obsolet werden als das dem NAND speicher die Puste ausgeht. Meine alte 150GB Raptor Festplatte funzt immer noch tadellos. Trotzdem verstaubt sie in der Vitrine.
 
@Aerith: Einige meiner Notebooks/Tablet-Convertibles haben SSDs aufgrund der besseren Erschütterungsresistenz von SSDs gegenüber konventionellen Festplatten. Insofern sitze ich durchaus häufiger an Rechnern mit SSDs. Aber ausser einem etwas schnelleren Boot und einer etwas höheren Geschwindigkei beim ersten Öffnen einer Applikation nach einem Neuboot ist mir da bisher keine bessere Performance aufgefallen. Da ich meine Rechner normalerweise über Monate nicht neu boote, sondern lediglich in den Standby fahre, würde es mich nicht einmal interessieren, wenn ein Rechner beim Booten wirklich Minuten länger als mit einer SSD bräuchte und so gross ist die Zeitdifferenz nicht einmal.

Ich nutze übrigens heute noch einen inzwischen um die 17 Jahre alten Rechner mit einer der berühmten IBM "DeathStar" Platten von Anfang 2000. Die ist 8 Jahre lang täglich in diesem Rechner täglich zum Internetsurfen genutzt worden, bevor er dann zu meinem beständig laufenden SFTP-/Webserver wurde und sie läuft heute noch da drin. Ich habe in meinem ganzen Leben noch keine komplett defekte Festplatte unter meinen wohl inzwischen um die 200 eigenen Festplatten gehabt und einige davon sind sogar aus den 80er Jahren. Von meinen SSDs hatte auch noch keine einen Defekt, aber die werden Abseits von dem Herunterfahren und neu Booten alle paar Monate auch nicht sonderlich beansprucht, da meine Systeme alle hauptsächlich aus dem Hauptspeicher laufen und vergleichsweise selten einen Sync mit der SSD durchführen. Ohne Schreibzugriffe altern SSDs nur langsam. Daher wären sie eigentlich eher als Datenarchiv und weniger als Systemfestplatte geeignet, wenn sie nicht so teuer im Vergleich zum gebotenen Speicherplatz wären.
 
@nOOwin: Jo und in 17 jahren hält der Flash speicher deiner SSD dann immer noch 480 Jahre. (Bei zB 5GB/Tag an Schreibzyklen). Was der TR artikel klar macht ist das es völliger Schwachsinn ist sich über die Schreibzyklen überhaupt Gedanken zu machen. Es sei denn man ist nen Extremuser der pro Monat 10TB auf dem Teil schreibt. Und SSDs als Datengrab zu verwenden ist kompletter Blödsinn, da die meisten großen Daten nie schnell gelesen werden müssen.
 
@Aerith: Ich würde in den Test nicht zuviel hineininterpretieren, denn er gibt die reale Verwendung der SSDs beim Einsatz als Systemlaufwerk nicht wieder.

Dummerweise sind bei normaler Nutzung einer SSD der 250GB-Klasse als Systemlaufwerk wohl eher immer um die 200GB belegt und die Schreibaktionen konzentrieren sich damit auf die verbleibenden 50GB oder noch weniger Speicherzellen. Und bei denen ist es schon laut diesem Test sehr unwahrscheinlich, dass man da auch nur 200TB darauf schreibt bevor sie ausfallen. Nicht gerade bei mir, aber beim Normalnutzer schreibt das Betriebssystem beständig auf diesen Bereich und über die Zeit sicherlich grössere Datenmengen als der Nutzer auf eine Systemplatte kopiert und wieder löscht um neue darauf zu kopieren. Dazu kommen Benutzer, die ihre Festplatten im Hintergrund ständig defragmentieren lassen, ihren Pagefile auf der SSD abgelegt haben (den Windows 7/8 ja aufgrund seiner gegenüber Vista verschlimmbesserten Speicherverwaltung schon direkt nach dem Boot nutzt, selbst wenn ich z.B. noch über 23GB Hauptspeicher auf meiner Workstation frei habe und damit kein Anlass besteht den Pagefile zu nutzen) und z.B. auch das Prefetching, welches Dateien auf der Platte günstiger anordnet, sowie Dateien die beständig per Sync-Befehl auf der Platte auf den aktuellen Stand gebracht werden, wie z.B. das NTFS-Journal.

Dann kommen Dienste wie z.B. der Schattenkopiedienst bei Windows dazu, an die viele Nutzer überhaupt nicht denken und sie daher auch auf einer SSD bedenkenlos aktiviert lassen, weil z.B. irgendein Spiel gerne mal seine Setup-Dateien zerhackt und es dann sehr bequem ist, diese per Schattenkopie auf den Stand vom Tag davor zurückzusetzen.
Diese ganze Dienste und Tools schreiben beständig auf die SSD und erreichen damit über die Zeit oft grössere Datenmengen als der Nutzer selber auf eine Systemplatte schreibt.

Der im Test praktizierte Fall, dass man eine SSD vom Anfang an bis zum letzten Bit vollschreibt, dann komplett wieder löscht und so quasi nicht einmal ein Wear-Leveling benötigt, um auf eine gleichmässige Auslastung zu kommen, kommt in der Praxis wohl nur bei SSDs für Backups oder zum Datentransport vor.

Bei dem vorliegenden Testsetup wäre also noch nicht einmal aufgefallen, wenn eine der SSDs ein schlechteres oder garkein Wear-Leveling gehabt hätte, da alle Speicherzellen ohnehin der Reihe nach vollgeschrieben und danach komplett wieder gelöscht worden sind um wieder der Reihe nach vollgeschrieben zu werden. Da ist Wear-Leveling nutzlos.

Hätten sie bei dem Test 1TB-SSDs statt ~250GB-SSDs mit derselben Speicherzellen-Technologie verwendet, wären alle weit über das willkürlich als Meilenstein gesetzte eine Petabyte hinausgekommen, weil bei diesem Test die gemessene Menge der Daten die man auf eine SSD schreiben kann mit der Menge der Speicherzellen die diese SSD besitzt wächst. Insofern hatte die Samsung 840 Pro als grösste Festplatte im Test von vorneherein einen Vorteil, da sie schon laut Nenngrösse gegenüber 3 anderen SSDs im Test ganze 16GB an Speicherzellen mehr zu bieten hat. Schon das ist ein Fehler im Test, der die Vergleichbarkeit der Resultate stört.

Wie lange SSDs halten, sehe ich seit Jahren in meinem Bekanntenkreis, der sich grösstenteils nicht um die Reduzierung von Schreibzugriffen kümmert oder das erst nach der ersten innerhalb eines Jahres gestorbenen SSD tut. Da gibt es durchaus Leute, die schon zwei SSDs innerhalb von zwei Jahren kaputt hatten, während bei Festplatten auch bei denen gilt: "Fällt sie nicht in den ersten Monaten aus, hält sie für gewöhnlich mehr als 5 Jahre durch." Ausnahmen bestätigen die Regel und so gibt es auch wenige Festplatten die in meinem Bekanntenkreis nach um die 2 Jahren zumindest plötzlich fehlerhafte Sektoren meldeten und danach getauscht wurden. Allerdings sterben in meinem Bekanntenkreis zu viele SSDs in kurzer Zeit, als das ich das auch als Ausnahme von der Regel ansehen würde und wenn die sterben sind die oft wirklich komplett hinüber, d.h. da liest man i.d.R. nicht mehr das komplette System mit ein paar wenigen kaputten Dateien herunter wie von den Festplatten mit Oberflächenschaden. Da liest man ohne grösseren Aufstand garnichts mehr herunter.
 
@nOOwin: Deswegen pflegt man SSDs ja auch mit der TRIM Funktion der mitgelieferten Software. Denn der Wear Leveling Algorithmus packt selten verwendete Dateien auf Zellen die am häufigsten beschrieben wurden und macht Zellen die seltener beschrieben wurden frei. Das man Zeugse wie Precaching und Schattenkopien ausschalten sollte ist logisch, darauf weist die mitgelieferte Software den User sogar hin.

Du solltest auch den Artikel mal lesen eh du den Test beurteilst:
"Anvil's endurance test writes files sequentially, so it's not an ideal real-world simulation. However, it's the best tool we have, and it allows us to load drives with a portion of static data to challenge wear-leveling routines. We're using 10GB of static data, including a copy of the Windows 7 installation folder, a handful of application files, and a few movies."

(Wobei ich nich sicher bin ob die ned 100GB statische Daten meinten, denn mehrere Movies und Windoof installation in 10GB?!)

Ich geb dir aber in sofern Recht: Das "self bricking" der SSDs ist wirklich lästig. Statt das die Dinger einfach in den "Read only" modus gehn werden sie dann gar nicht mehr erkannt. Darum vertrau ich meiner SSD auch keine wichtigen Daten an. Ob das installierte OS flöten geht oder nich is mir ziemlich fluppe, das System hab ich in 2-3h neu aufgesetzt.

Fakt ist: Wenn eine SSD/HDD 5-6 jahre durchhält wird sie meist eh vom User aus anderen Gründen getauscht. Meine SSD würde in 6 jahren ca. 12TB schreiben, wenn ich so unbesorgt weitermache wie jetzt. Intel gibt an: 20GB/Tag für 5 Jahre, das wären: 35,6TB.
(Quelle: http://download.intel.com/newsroom/kits/ssd/pdfs/intel_ssd_520_product_spec_325968.pdf )
Kommentar abgeben Netiquette beachten!

Beiträge aus dem Forum

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles