"Kraft der zwei Arme": Seagate macht Festplatten doppelt so schnell

Der Speicherspezialist Seagate muss in Zeiten immer günstigerer Flash-Speicher natürlich Wege finden, um auch in Zukunft mit seinen zwar langsameren, aber in Sachen Speicherkapazität noch immer unschlagbaren traditionellen Festplatten ... mehr... Festplatte, Hdd, Seagate, Multi-Actuator Festplatte, Hdd, Seagate, Multi-Actuator Seagate

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Sowas hätte man vor 10 Jahren gebraucht. Der Zug ist abgefahren.
 
@Homie75:

das glaub ich nicht das der Zug schon abgefahren ist...mich würde so eine Festplatte schon reizen zu verwenden..man kann riesige Datenmengen speichern und ist doppelt so schnell..
bei SSD dauerts ja noch bis die mal wirklich grosse Speicherkapazitäten haben..mit 1 oder 8 TB kommste bei ner SSD auch an die Grenzen...

alleine hier in meinen Rechner werkeln normale Festplatten mit bis zu 10 TB..und davon sind mehrere verbaut... für den Preis bekommste keine vernünftige SSD!

die grösste SSD mit 15 TB kostet immer noch um die 9000 €..
 
@Computerfreak-007: Man kommt bei SSDs mit 8 TB wenn überhaupt nur finanzell an die Grenzen. Es ist technisch heute kein Problem 50 TB und vermutlich deutlich mehr in ein 3,5 Zoll Gehäuse zu packen. Es gibt heute schon MicroSD Karten mit 400 GB und da ist der Chip kaum so groß, wie der kleine Fingernagel. 100 Davon passen locker in ein 3,5 Zoll Gehäuse.
 
@FatEric: So einfach ist das nicht, jede Menge einfache SSD-Chips in ein Gehaeuse zu packem, um zum Beispiel 50 TB zu erreichen. Du brauchst Controller (einer wird wohl nicht reichen) um die SSD-Chips "anzusteuern" und die Controllerchips muessen dann auch noch untereinander Daten austauschen. Weiterhin brauchst du einen breiten Bus, um alle SSD-Chips miteinander zu verbinden. Ist der Bus zu schmal sinkt die Zugriffszeit, ist der Bus sehr breit ist eine sehr sehr aufwendige Hardware notwendig, worauf die SSD-Chips selbst verbaut sind.
 
@drhook: Im Prinzip ist es so einfach. Die üblichen großen SSDs als PCIe-Karten funktionierten alle nach dem Prinzip eines RAIDs. Da sitzen handelsübliche Marvell-Controller auf einer Karte mit den entsprechenden Speicherchips an ihren ~acht Kanälen und die werden über einen RAID-Controller auf der Karte zusammengefasst. Ich meine die können intern auch als übliche RAIDs konfiguriert werden, ab Werk sind sie aber erstmal als JBOD konfiguriert. Als Beispiel sei mal das damalige Supertalent RAIDdrive angeführt. Nichtsdestotrotz leidet darunter die Latenz, weswegen enterprise-SSDs mit speziellen controllern mittlerweile ~8TB erreichen. Und rein vom Platzbedarf ist eine 2,5" SSD mit U.2-Anschluss und 8TB einer 3,5" HDD mit 8TB auch nicht unterlegen. Es ist aber ein enormer Preisunterschied :)
 
@drhook: Zu den bereits angesprochenen Problemen kommt dann auch noch das Thema Hitzeentwicklung. SSDs sind nur im Idle wirklich sparsam. Wenn man mit mehreren GB/s schreiben will, sieht die Welt aber gleich ganz anders aus.
 
@FatEric: Und dann vergleich mal bitte die Lese-/Schreibgeschwindigkeiten von aktuellen HDDs und den 400GB SD Karten.
 
@Sledgehamma: Du weißt schon, dass bei SSDs parallel auf so Chips gelesen und geschrieben wird?! Das ist auch der Grund, warum größere SSDs schneller bei der Datenübertragung sind, als kleinere SSDs, weil dort mehr Chips verbaut sind. Bitte erst informieren.
 
@Computerfreak-007: "die grösste SSD mit 15 TB kostet immer noch um die 9000 €.." Willkommen im Land des Skimmings :) Da wird jeder Cent ausgeschöpft der geht...
 
@Computerfreak-007 (re:1): Wenn Du schreibst, "... bei SSD dauerts ja noch bis die mal wirklich grosse Speicherkapazitäten haben..." solltest Du /andere auch, bedenken, dass das ja eine Entwicklung ist die weiter fortschreiten wird. Genauso eine Entwicklung wie hier die jetzt vorgestellte von Seagate! Denn noch ist die bei Seagate nicht abgeschlossen und marktfertig. Deshalb heisst es ja in der News auch "...Bei einer erfolgreichen Weiterentwicklung der Technologie......."!
 
@Homie75: Nachdem SSDs als OFFLINE-Medium komplett ohne Strom maximal 1 Jahr funktionieren und die Speicherdichte von HDDs noch nicht bezahlbar erreicht haben, sind neben den klassischen Speichermedien HDD sogar noch LTO, sprich MAGNETBÄNDER(!) heutzutage noch lange nicht tot - nur weil es beim 08/15-User privat nicht unbedingt im Einsatz ist, heißt das noch lange nicht, dass es tot ist ;-) ... Ich war heute in einem hochmodernen Rechenzentrum in München, in dem ein LTO8-Autoloader mit 192 Laufwerken und ca. 65.000 Cartridges a 12 TB als ein Real-Time-Online-Backup-Storage läuft - die Daten-Ausfallrate bei LTO ist geringer als die von HDDs, und der Speed liegt jenseits dessen, was ein 08/15-User sich jemals vorstellen kann :-D
 
@TierparkToni:
Dieses SSD Gerücht ist einfach nur Unsinn. Ich habe hier SSDs liegen die waren 1-5 Jahre ohne Strom und alle Daten gingen noch prima danach. Eine ist sogar regelmäßig immer 2 Jahre ohne Strom seit 2010. Keinerlei Probleme.
 
@Freudian: Dann hat der RZ-Betreiber deiner Meinung nach wohl aufs falsche Pferd gesetzt und hätte vorher besser Dich um deine Einschätzung fragen sollen .... glaub mir, die Leute wissen dort sehr wohl, dass SSDs als Long-Time-Offline-Medium nicht wirklich taugen ...
 
@TierparkToni: Speed ist beim Medium Magnetband wohl eher zweitrangig. Es geht dabei doch wohl eher um zuverlässige Archivierung. Und wenn ich an archivierte Daten von Anno Tuck-Tuck will, ist es egal, ob ich die Daten hochperformant oder nach einer akzeptablen Wartezeit aufbereitet habe.
 
@Roy Bear: ist/war aber dennoch faszinierend zu sehen, dass ein kompletter Snapshot unserer SQL-Server-VM mit ca. 500 GB Storage nach 3 Minuten
"ad hoc" komplett auf den Cartridge(s) war und nach 1 Stunde regulärem Backup-Betrieb des Autoloader von den Cartridge(s) in ebenfalls 3 Minuten wieder am Laufen war - die 16 Cartridges mit dem Backup waren in der Zeit übrigens nicht im Autoloader-Archiv, sondern wurden "offline" in einem Labor-Büro manuell in 8 Laufwerken zum testen und demonstrieren der Sicherheit wiederhergestellt - das dauerte aber ebenfalls mit "händischen" Bandwechsel max 15. Minuten und dank Tape-RAID10 waren für eine komplette Wiederherstellung nur wahlfrei 12 von 16 Bänder notwendig...
Über den Preis des Equipments brauchen wir hier jetzt nicht reden, da standen alleine in dem Labor-Büro mal eben für 40.000 € Laufwerke und für 55.000 € ein RAM(!)-Storage-Rack mit dementsprechend Netzwerkanbindung rum - was man sich jedoch auch zur Offline-Sicherung/-Wiederherstellung für 1.500 €/Tag beim RZ leihen kann...
 
@TierparkToni: Bei einem Snapshot ist es quasi egal wie groß das Volume ist: Es geht nur um die Menge der veränderten Daten. Wenn das Volume 500 gb groß ist und ein Snapshot erzeugt wird, sind 3 Minuten dafür nun nichts besonderes, wenn man nicht weiß wie viel Differenz erzeugt wurde.
 
@TierparkToni: dass die Ausfallrate bei LTO geringer ist als bei HDDs halte ich für ein Gerücht. Das hängt massiv von den mechanischen Einwirkungen und der Nutzlast ab, aber es hat schon seinen Grund warum viele Unternehmen ihr Backup auf HDDs ablegen seit Jahren und nicht mehr auf LTO.
 
@TierparkToni: dieses "speichern nicht offline" trifft nur auf bestimmt Server SSDs zu .... da diese onehin 24h am Strom sind ist dies also vernachlässigbar dafür haben sie andere vorteile. Consumer SSDs funktionieren Problemlos weiter und SPeichern die Daten.

Vieleicht erstmal richtig Informieren befohr man falsche Informationen verbreitet?
 
@Conos: ohnehin, Vorteile, Konsumer, speichern, vielleicht, informieren, bevor... Vielleicht erst einmal richtig schreiben lernen, bevor man hier Informationen verbreitet! :-)))
 
@Lecter: Woran sieht man immer wenn jemand keine Ahnung hat? Richtig wenn er in einem am Handy getippten Beitrag auf Tippfehler eingeht und nicht auf den Inhalt :) Darfst du gerne behalten und in deine Sammlung aufnehmen. Dankööö :) Btw. würde ich mal über deine eigene Grammatik und Zeichensetzung nachdenken und mit Englisch scheint es bei dir auch nicht weit her zu sein :) Sehr süß :*
 
@Homie75: Solange die SSDs immer noch so teuer sind, nein.
 
@Homie75: Wenn ich mir ansehe, wie lange HDDs halten und wie lange SSDs (Consumer Bereich genauso wie Server Bereich), so sind HDDs noch lange nicht am Ende, wenn man auf Langlebigkeit setzt. Dazu die weitaus größeren Datenmengen bei weitaus geringeren Kosten.

Es sind einfach unterschiedliche Produkte, die man zuhause wie auch im Serverbereich oder in SANs gut mixen kann, um das beste aus beiden Welten zu haben.
 
Ist ja sehr löblich an der Geschwindigkeit von HDDs zu schrauben. Seagate sollte vieleicht mehr Augenmerk auf Zuverlässigkeit legen, bevor man neue Baustellen eröffnet.
 
@Roger_Tuff: Seagate hat bei mir immer am besten gehalten ... ;-)
 
@xerex.exe: Da scheinste ja ein Glückspils zu sein, gratuliere. Wie hieß doch die Serverfarm, die Handelsübliche Festplatten aller Hersteller verbaut und denen Haltbarkeit veröffentlicht, wo Seagate in der Regel das Rücklicht bildet an einer Teleskopstange. Hab noch mal für dich geguckt: https://www.heise.de/ct/artikel/Ausfallraten-von-SATA-Festplatten-im-harten-Server-Einsatz-3210460.html
 
@Roger_Tuff: Seagate oder sie geht nicht, ist das immer noch der Fall?
 
@kickers2k1: Der Spruch galt schon vor 25 Jahren und ist heute noch aktuell
 
@Roger_Tuff: zu Zeiten von U2W SCSI Platten war IBM ja auch noch hervorragend, was mein damaliges System mehr als bewiesen hat.
 
@Roger_Tuff:
Wieso haste nicht die aktuelle Statistik genommen? Dort schneiden die neueren Seagates ab 6 TB fast genauso gut ab wie WD und HGST, oder gar besser.
https://www.backblaze.com/blog/hard-drive-failure-rates-q3-2017/
 
@Freudian: Ja danke,war halt mein erstes Ergebnis der Suche. Hatte danach nochmal nack Backblaze suchen sollen. Ist ja noch krasser geworden. Waren die bei der Planung BER auch dabei?
 
@Roger_Tuff: entweder bin ich grad zu blöd die Statistik zu lesen, aber die WD ist dort doch die höhere mit 12,57 % gegenüber Seagate mit 9,63%.
 
@xerex.exe: Haste die letzten Jahre verschlafen? Seagate und WD sind mitlerweile eine Klitsche!
 
@Roger_Tuff: Wann? Ich finde dazu auch nichts auf Wikipedia.
 
@xerex.exe: Sorry, mein Fehler, Samsung und Sandisk wars!
 
@Roger_Tuff: nee... wd und sandisk
 
@xerex.exe: Ja hast recht. Das WD Red Modell mit 2 TB ist noch schlimmer. IMHO ist das einzige was man aus der Statistik entnehmen kann das, dass Hitachi kein Modell mit hoher Ausfallsrate hat. Seagate, Toshiba und WD haben schwarze Schafe im Stall. WD mehr als die anderen.
 
@paul1508: Die Schlimmsten sind die grünen von WD. Kotz. Hab die Platten irgendwann bekommen. Waren bezahlt und lagen darum. Als ich sie nun ausprobierte sah ich die scheiße. Verlässlichkeit = 0 beim dauerbetrieb. Sie werden zu heiß und schalten sich einfach ab. Dafür wird aber Strom gesparrt nämlich an der Kühlung. Na toll. Son Müll können die behalten. Für mich ist WD gestorben für IMMER!
 
@MancusNemo: Bei mir laufen die Green sowie die red im Dauerbetrieb, die green sogar seit 5 Jahren, die red seit 3 Jahren und kein Ausfall, keine Fehler.
 
@Odi waN: wd green sind mir schon diverse defekte untergekommen (waren in nem alten mac pro der als mac server lief eingesetzt)

in meinem privat genutzten nas laufen 3 jahre alte wd red 2tb ohne fehler (das nas läuft allerdings nicht 24/7 sondern nur wenn auch jemand zuhause ist (feste wakeup- und shutdown zeiten)
 
@Odi waN: Dann hast du glück. Und kannst dich Freuen. :)
 
@Roger_Tuff: Du sagst es: Eine Serverfarm verbaut Client-HDDs die nicht für den Server-Einsatz gedacht sind und erlebt hohe Ausfallraten. Welch Wunder :D
 
@Stratus-fan: Das ist bei Cloud-Anbietern völlig normal. Die Ausfallraten sind auch nicht anders als man sie zuhause hätte bei 24/7-Betrieb, eher sogar leicht geringer, da bessere Kühlung.
 
@Roger_Tuff: Das ist absoluter Schwachsinn. Ich nutze seit Jahren Seagate-HDDs und es ist nicht eine ausgefallen ;) Die Platten werden irgendwann durch größere ersetzt, ebenfalls von Seagate.
 
Ausfallgefahr der Köpfe wurde damit auch verdoppelt, wenn nicht sogar mehr, wenn dies eine weniger zuverlässige Technik ist als die alte bewährte.
 
@Freudian: Würd ich so nicht sagen. Es mag zwar doppelt so wahrscheinlich sein, dass etwas ausfällt, dafür ist dann nur die halbe Platte tot ^^ Ich wäre ja eigentlich dafür, dass sie in da Gehäuse zwei gegenüberliegende Arme platzieren. Da hätte man dann eine gewisse Redundanz.
 
@paul1508: Also 16 Köpfe von der einen Seite und 16 von der anderen? Lesen und Schreiben auf dem selben Platter gleichzeitig? Klingt höchst interessant.
 
kein plan ob die heutigen seagate platten was taugen. hab länger mehr keine gekauft. aber vor jahren haben die 80GB platten von seagate bei mir immer nach spätestens 1 jahr ihren dienst versagt.
erst klicken sie, dann klackern sie, dann piepsen, dann alles auf einmal und dann ging garnichts mehr ^^
 
@stf: Kann ich nur bestätigen. Seagate musste ich schon immer nach sehr kurzer Zeit aussortieren, weil die Dinger seltsame Geräusche machten und damit ihre Zuverlässigkeit selbst in Frage gestellt haben. Selbst uralte Platten von WD, die jahrelang im Dauerbetrieb waren, laufen heute noch als gelegentliches Backup immer noch einwandfrei!
 
@Jakker: und bei mir sind 2 WD und keine Seagate verreckt... was machen wir nun?
 
"eine Steigerung der Übertragungsraten um bis zu das Doppelte ermöglichen"

warum soll die Platte 3 mal so schnell sein?
 
@steffen2: Ist die Platte bei " 3 mal so schnell " nicht bei der vierfachen Geschwindigkeit? *g*
 
@bebe1231: Nein, steffen2 hat durchaus recht.

eine Steigerung UM das doppelte ist eine Steigerung von 100% (Basis) UM 2 x 100 % = 300 % also drei mal so schnell (100 % x 3 = 300 %)

Korrekt müsste es im Text heißen eine Steigerung AUF das Doppelte, also mal 2.

Aber ich sehe das in letzter Zeit immer wieder, dass man schreibt eine Steigerung UM das doppelte, obwohl man nur eine Verdopplung meint und eben nicht eine Verdreifachung. Scheint sich irgendwie einzubürgern.
 
@pcfan: auch hier können (Stand jetzt) 40 Prozent nicht rechnen.
(Ich habe 3 + und 2 - erhalten)
 
@steffen2: Aktuell sinds nur noch ca. 33 % (4:2)
 
@pcfan: Anscheinend hast du leider die Ironie nicht verstanden. ;)
 
@bebe1231: Zuerst nicht später schon. Aber helfen tuts nicht.
 
Also eigentlich ist das ganze doch nur ein PR Gag oder? Da könnte ich auch 2 Platten mit jeweils 4TB im Raid betreiben. Dann habe ich auch 2 Lese- Schreibköpfe ^^
Mir erschließt sich hier der perfekte Anwendungsfall gerade nicht so. In Rechenzentren kommen ja Raids zum Einsatz mit zig Festplatten. Privat drüfte ein kleines Raid vermutlich auch besser sein.
 
Früher sagte man, SEAGATE ODER SIE GEHT NICHT... und kaufte Maxtor...
 
@Siamkat: Oder Samung, die waren auch eine Zeit lange extrem beliebt. (Spinpoint 500 - 2000 Mb Serie).
 
Und es hat gefühlt 2000 Jahre gedauert mal auf die Idee zu kommen?
Hätte jeder 12jährige in 10min geschafft.
 
@AngelusJimenez: wenn du den Artikel gelesen hättest, wüstest du, dass die Idee nicht neu ist, sondern bisher lediglich aus Kostengründen darauf verzichtet wurde.
 
Was für ein Geschwindigkeitsvorteil bringen bitte zwei Aktuatoren?
>_ In diesem Beilspiel: zwei Platten (= zwei Speicher-Platter) mit zwei Aktuator.
1) Wenn meine Daten auf der ersten Platte liegen, bringt mir der zweite Aktuator, der auf die zweite Platte zugreift, nichts.
2) Wenn meine Daten zu Teilen auf der ersten und der zweiten Platte liegen. Könnte man mit zwei Aktuator die Daten schneller lesen, aber
a) dabei muss aber garantiert sein, dass man die Teildaten von Platte 1 und Platte 2 so zusammensetzt, dass die Daten nicht beschädigt werden und
b) auch beide müssen wissen welcher Teil wo liegt. Es gibt kein Geschwindigkietsvorteil, wenn ich warten muss bis einer mit lesen fertig ist und dann der zweite die anderen Teildaten liest.
D.h. das Problem der Datenorganisation wird größer und wichtiger. Die Software muss wesentlich intelligenter die Daten auf die Platte packen, damit auch wirklich ein Geschwindigkietsvorteil entsteht.

Was wirklich geil wäre, wenn jedes Schreib-/Lesekopfpaar einen eigenen Aktuator bekommt und die Software die Daten so organisieren kann, dass jedes Kopfpaar gleichzeitig einen Teill liest. Dadurch verringert sich die Zugriffszeit enorm. Die einzigen Probleme wären dann noch:
a) zu teuer, b) Platz in der HDD c) Organisationssoftware für die Teildaten und d) Backup/Speicher für die Position aller Teildaten.

HDD wird es noch lange geben, weil sie billig sind, eine 1TB HDD kostet 70€ und eine 1TB SSD 280€.
Kommentar abgeben Netiquette beachten!
Einloggen

Seagates Aktienkurs in Euro

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles

❤ WinFuture unterstützen

Sie wollen online einkaufen? Dann nutzen Sie bitte einen der folgenden Links, um WinFuture zu unterstützen: Vielen Dank!