Neuer Festplattenstandard bringt Leistungszuwachs

Hardware Die in der International Disk Drive, Equipment and Materials Association (IDEMA) zusammengeschlossenen Festplattenhersteller haben sich nach jahrelangen Verhandlungen auf eine Erweiterung der Blockgrößen bei HDDs geeinigt. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
aha, vermutlich genauso wie der Geschwindigkeitszwachs von S-ATA Platten im Vergleich zum alten IDE-Standard.. :-)
 
@bachmaniac: ja, der wird nur minimal sein. aber warte mal auf sata III (600mbyte/s) :D
 
Naja, SATA ist auch deutlich schneller als IDE, nur wenn die Festplatte da nicht mithalten kann, bringt der schnelleste SATA Anschluss nicht. WD Raptor forever! P.S. Bin froh das ich dieses scheiß IDE Kabel nicht mehr im PC haben muss.
 
@britneyfreek: Du meinst, die Platten werden schneller, weil sie an einem anderen Kabel hängen?...
 
@twinky: Das hat er nicht gesagt.
 
@bachmaniac: xD Genau das dachte ich auch gerade! Übrigens brauch ich keinen neuen Standard.. habe hier seit ein paar Tagen 2x500GB Samsung als RAID1 am laufen.
 
@bachmaniac: IDE ist genauso ATA wie S-ATA. Der Schnittstellenstandard wird davon unabhängig sein. Die jetzigen Vorteile von S-ATA liegen auch nur sekundär in der Geschwindigkeit.
 
@SpaceHorsti: Das habe ich auch nicht behauptet.
 
@Maniac-X: Du meinst jetzt nicht im ernst das ne Raptor so schnell ist das IDE es nicht aushalten würde?!
 
@demmi: Also wenn Du 2 Platten als Raid 1 am Laufen hast bringt das nix in Bezug auf Performance sondern eher für Datensicherheit. Raid1=gespiegelt.
 
@balu2004: Schon klar. Ich meinte damit ja auch nur, dass ich Vorerst keine neuen HDs brauche, weil ich gerade erst aufgerüstet hab.
 
Er meinte das S-ATA mehr Daten transportieren kann, aber die HDD an sich noch nicht mal genug für IDE liefert, also man die zusätzliche Übertragungsrate nicht merkt.
 
Heißt das im Umkehrschluss icht auch das jede gespeicherte Datei Mindestens 4096 Byte groß ist?
 
@BigBrainbug: in zeiten von terabyte-platten wohl das geringste problem, oder? :)
 
@BigBrainbug: Joa, so wird es sein. Also wenn eine Datei dann 10240 Byte groß ist, dann werden dafür 3 Blöcke genutzt. Der Rest bleibt ungenutzt. 3 Blöcke wären 12288 Byte. Bei 512 Byte Blöcken wären es genau 20 Blöcke. Im Endeffekt wird mehr Speicher verschenkt. greetz
 
@GuybrushThreepwood: In der Zeit von Terabyte Festplatten sind viele kleine Dateien sehr wohl ein Problem.
 
@BigBrainbug: In Zeiten von TB-Festplatten werden die Zuordnungseinheiten bei NTFS-basierten Dateisystemen wohl sowieso bei mindestens 4.096 Bytes liegen, wo ist das Problem? @Deepthrow: Wie groß sind denn deine Zuordnungseinheiten?
 
Wodrin liegt denn der Unterschied zwischen den in dieser News angesprochenen 4096Byte und den 4096Byte, die einem beim Formatieren angeboten werden???
 
@knoxyz: wenn das wirklich nur die einzigste Veränderung sein soll, dann gibt es darin keinen unterschied.
 
@knoxyz: Windows verwaltet die Platte in Stücken (Cluster) zu je 4 kB, die jedoch auf den bisherigen Platten aus jeweils 8 Sektoren mit 512 Byte bestehen. Mit dem neuen System wäre 1 NTFS-Cluster auch 1 Festplatten-Sektor.
 
@ knoxyz:
Der Unterschied ligt darin, dass du jetzt noch die Möglichkeit hast deine Partition mit 512Byte pro Cluster zu formatieren womit sich die Platzverschwendung bei kleinen Files(ConfigFiles) noch in grenzen hällt!

@ GuybrushThreepwood:
Diese Denkweiso sollte sich jeder abgewöhnen :D
Durch sollch denken wird extrem viel platzt verschwendet
kenne paar coder die das gleiche über RAM denken und deswegen nicht
mal auf die Idee kommen den Speicher in ihren Programmen wieder FREI zu geben (ganz nach dem Motto hat doch eh genung!)

im Zeitalter von 64 Bit und den Kommenden Flash HDDs sollte man den Plattenplatzt wie den Ram ansprechen?
 
@Deepthrow____ @BigBrainbug: Joa, so wird es sein. Also wenn eine Datei dann 10240 Byte groß ist, dann werden dafür 3 Blöcke genutzt. Der Rest bleibt ungenutzt. 3 Blöcke wären 12288 Byte. Bei 512 Byte Blöcken wären es genau 20 Blöcke. Im Endeffekt wird mehr Speicher verschenkt. greetz________-
genauso seh ich das auch, NATÜRLICH macht das pro datei vielleicht nicht viel aus, ABER....wenn man viele kleine "hutzli"-dateien von grade mal n paar KB größe hat, macht das schon was aus. da dürften einige hundert MB wenn nicht sogar gigabyte verschenkt werden...
ich hab zb an die 1,2 MIO dateien...mehr als 1/3 davon ist schätzungsweise weitaus kleiner als 1MB ... das macht schon einiges aus.

bedenkt man dann noch, dass von ner 500GB platte im formatiertem zustand "nur" noch 465 GB übrigbleiben bei 512er clustergröße, ...hat man bei einer knallvollen 500GB platte (4096er cluster) mit derartigen daten locker 50 GB verschenkt.

was wiedeurm an die 10% unnutzbare kapazität darstellt. ich finde, das ist viel, und nicht grade erstrebenswert...
 
@obiwankenobi: "hat man bei einer knallvollen 500GB platte (4096er cluster) mit derartigen daten locker 50 GB verschenkt".......
Falsch. Die 35 GiByte an "fehlender" Kapazität entstehen nicht durch lustige Clustergrössen, sondern durch den Unwillen von Willie und seiner Fenster-Gang, GByte und GiByte richtig anzuschreiben. Eine Festplatte mit 500 GByte Kapazität fasst (ungefähr) 500'000'000'000 Byte, was wiederum ungefähr 465 GiByte (man achte auf das kleine aber spassige "i": Gibibyte.) entspricht. Fenster Aussicht (ähem Windows Vista, sorry) vergisst aber das "i" gerne mal.
 
@obiwankenobi: Und du wirst bei deiner 4 TB-Platte Zuordnungseinheiten von 2 kB einsetzen?
 
@darthflo: dein geflame gegen MS kannste stecken lassen! Die Schuld liegt dabei nicht bei Windows sonder bei den Festplattenherstellern! Die verkaufen ihre Platten nämlich mit bsp.weise 500GByte und tatsächlich sind nur 500GiByte drauf! Windows ist in der Lage das richtig umzurechnen! Merke: Festplattenhersteller rechnen mit 1000 als Umrechungsfaktor, der richtige Umrechnugsfaktor ist jedoch 1024 (so wie Windows das richtig macht!) Und warum machen dass die Festplattenhersteller? Ganz klar: 500GByte klingt einfach nach mehr als 465GByte. Der Kunde schlägt zu. Was sollte Windows davon haben weniger anzuzeigen als die Festplatte verspricht?!
mfg Robin
 
@RobinPunk1988: Leider liegst du falsch... Windows zeigt dir statt 500 GB oder 465 GiB fälschlicherweise 465 GB an was laut der Si-Norm ja 465 * 1000*1000*1000 Bytes darstellt. In diesem Fall rechnen sogar die Festplattenhersteller richtig.
 
Lauter Schlaue.. (vor allem mibtng...sorry, aber ist doch wahr!)
Wahnsinn! Da erklärt RobinPunk1988 was Sache ist, auch darthflo (obwohl er wg Windows angegriffen wird): daß die Hersteller der HDs marketingtechnisch eine kleinere Platte künstlich aufblasen indem diese nur mit 1000er-Einheiten rechnen und dann checken es noch immer einige nicht!
@mibtng: Kannst ja mal versuchen, deinen Megabyte-großen Files einzureden daß sie a bisserl abnehmen sollen und nur noch den 1000er-Faktor verwenden dürfen... haha... schon mal was vom binären System gehört? Das ist jenes nachdem z.B. die Filegrößen angegeben werden!! Es ist auch jenes mit welchem die PCs rechnen und verwalten.
MERKE:
binär: 2*2*2*2*2*2*2*2*2*2 = 2^10 = 1024!!
dezimal: 10*10*10 = 10^3 = 1000!!
Somit haben wir jetzt gelernt: 1 MB = 1024 KB: 1 KB = 1024 Byte >> oder anders gesagt: die Festplattenhersteller verarschen ihre Kunden (und manche merkens nicht einmal)! >> Und die Festplattenhersteller rechnen NICHT richtig!
Jetzt könnt ihr meinetwegen auf mir rumhacken.. ist mir auch egal..
 
@works: So gerne ich auch sagen würde "De HDD-Hersteller sind alle böse und Windows macht alles richtig..." in diesem Fall muss ich mibtng rechtgeben, da die SI-Einheitenpräfixe "kilo" "mega" und "giga" international einheitlich als dezimale Potenzen definiert sind und die Binärpräfixe offiziell "kibi" "mebi" und "gibi" heissen.
Also: die HDD-Hersteller rechnen richtig und haben dabei auch noch nen Werbevorteil und Windows verwendet die falschen Einheiten
 
Auch wenn bet_on_M$ schon alles notwenidge gesagt hat, works, hast _du_ schon mal was von Binärpräfixen gehört? (z.B. http://de.wikipedia.org/wiki/Bin%C3%A4rpr%C3%A4fix )
 
eine ide rapto und ne sata rapto aus der gleichen baureihe sind nich wirklich unterschiedlich schneller :) soviel zu thema sata\ide ^^ mittlerweile funzt ide ja ganz gut am anfang war es ne qual ^^ aber is schon ganz gut so lassen sich kabel bequem unter dem board verstecken ^^ was mit ide relativ schwer war aber auch wunderabr funzte ^^
 
Was ich mich frage: Wie soll damit die Fehlerrate reduziert werden?
 
@mibtng: ich weiß auch nicht. die kurzlebigkeit der dinger wird damit jedenfalls nicht behoben - immernoch zu viele bewegliche teile. gerade vorgestern hat smart wieder rumgejammert, ich solle doch mal fix eine meiner 160er platten austauschen - zum kotzen - pünktlich nach 3 jahren...
 
Ist doch ganz einfach kleine Cluster viel defragmentieren... große Cluster, weniger!
 
toll, schüttet man ne kiste mit sand aus hat man viel dreck, schüttet man ne kiste mit kiesel aus, hat man auch genug dreck, der jedoch einfacher zu bereinigen ist. Muss man aber eine Sandburg aus diesen "dreck" basteln wird man wohl trotzdem den sand aus der kiste bevorzugen.

oder

Um die geschwindigkeit der CPU's zu erhöhen übertakten wir sie fabriksmässig schon auf das maximum, dafür liefern wir sie mit einem grösseren Lüfter aus
.
so richtig innovativ kann ich das nicht ansehn.

Dual Core CPU's
SLI GPU's

Warum gibts keine internal raid0 connected dual festplatten?
2 platten im gehäuse von einer internal in raid0 geschalten. die logic wird von der platte selbst verwaltet, sie ist schneller als jede andere, und man kann sie trotzdem noch zusätzlich in ein raid system einbinden.

DAS wäre mal innovativ! platzsparend, schneller, nur ein stecker benötigt...

 
Das was du schon sagst wird schon lange gemacht, was denkst du denn aus wievielen Magnetscheiben eine Festplatte besteht?
 
@mibtng: Nur hat es nur ein gelenk das sich bewegt der Kopf liest immer da wo es gerade nötig ist... Was TheVoodoo meint sind mehrere gelenke die gleichzeitig von den einzelnen Magnetplatten lesen können...
 
Hm, habe gerade eben noch mal nachgeschaut (man newfs), aber ich habe mich nicht getäuscht, block-size 4096 bytes als default, ist aber jetzt nicht soo wirklich neu: M. McKusick, W. Joy, S. Leffler und R. Fabry haben das schon im August 1984 beschrieben (A Fast File System for UNIX ACM Transactions on Computer Systems) Gruß, Fusselbär
 
Am Besten is eh immernoch SCSI :P
Höchste Übertragungsrate, mehr Geräte pro Controller, verschiedenste Geräte möglich (HDDs, CDs, Disketten, Scanner, Drucker, etc.).
 
@3-R4Z0R: besser noch sind SAS Platten: http://de.wikipedia.org/wiki/Small_Computer_System_Interface
 
@3-R4Z0R: mehr aufwand, dicke kabeln, aufwendige fehlersuche bei schlechter terminierung, hoher kostenaufwand.

wenn man 12HDD's in seinen rechner braucht, bestimmt keine schlechte wahl, aber für "normal" nutzung => mehr preis als heiss
 
FRAGE: Das wirkt sich auf den direkten Platzverbrauch der Datei auf der Festplatte aus oder? Die die mich verstehen, wissen was ich meine :) .... Weiß das jemand?
 
das is sowieso unsinnig denn erstens ist letztendlich ohnehin das dateisystem das problem denn was nutzt es wenn man 1byte blöcke machen würde wenn dann windows wieder genau das gegenteil tut und mit ihrem dateisytem 4kbyte pro datei veranschlagt ok es ginge 512byte auch noch aber kleiner da muß man dann schon hand anlegen sprich ist mit keinem mir bekannten tool machbar wenns eins gibt dass einem erlaubt 1byte blöcke zu realisieren wird jedoch das dateisystem unannehmbar groß wenn ich net irre also fürn hugo das ganze also würd ich vorschlagen dass man sich um sowas net alzu viele gedanken macht bringt ohnehin nix denn machen kann man dagegen rein gar nix
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles