Google übernimmt Chefentwickler von ext4

Wirtschaft & Firmen Ted Ts'o hat die Entwicklung des Dateisystems ext4 maßgeblich vorangetrieben. Der Entwickler hat nun eine Stelle bei Google angenommen und soll dort seine Kompetenzen auf diesem Gebiet einbringen, heißt es in einem 'Blogbeitrag'. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Hätte nicht gedacht, dass Google af ext2 gesetzt hatte. Ich war von ext3 ausgegangen. Immerhin ist das seit Jahren erprobt und läuft verdammt stabil...
 
@noneofthem: ext3 ist nichts weiter als ext2 mit Journaling. Wenn man das Journaling nicht unbedingt braucht, kann man durch Verzicht darauf etwas Performance rausholen.
 
Frag mich, warum die nicht NTFS einsetzen, ist doch bestimmt um Welten besser wenn man Micisoft glauben schenkt :-)
 
@d4n: Die hamm wohl keine Kapazitäten übrig für Defragmentierungen^^
 
@d4n: sollte man nicht, ext3 glänzt genauso mit stabilität wie ntfs, der hauptunterschied ist die lizenzbasis...
 
@d4n: ntfs ist gar nicht mal schlecht, wenn man mal die Struktur anschaut kann es sogar recht viel. Schwierig wird es da es keine richtige Doku zu gibt...
 
@tavoc: ntfs fehlt nur eine anständige art die dateien abzulegen um die fragmentierung zu veringern. ext3/4 fragmentieren idr. erst wenn die platte sehr voll ist. die lösung mit dem defragmentieren wenn der rechner gerade eh nicht zu tun hat ist meiner meinung nach eher ne notlösung wenn auch recht effektiv.
 
@d4n: Nicht gerade Sinnvoll das native ext* das seit Jahrzehnten seinen Dienst tut gegen NTFS zu ersetzen.
 
@d4n: he he roflol, wann erkennt ms vielleicht mal das es ext2-3-4 gibt. nicht alles was aus redmond kommt ist auch gleichzeitig gut
 
@Ensign Joe: Fragmentierung hast du auf kurz oder lang auch auf anderen Dateisystemen. Es ist nur der Unterschied wie damit umgegangen wird. Ich persönlich finde es unübersichtlich wieviele Dateisysteme in der *nix Welt umherschwirren....
 
@tavoc: NTFS nicht schlecht? Mmh.. dann hattest Du wohl noch nie millionen kleiner Bilder auf einer NTFS-Partition gespeichert. (Gebe zu, es ist ein sehr spezieller Anwendungsfall, der im Privathaushalt nicht vorkommen sollte.) - Fuelle eine NTFS-Partition mit zig Millionen kleiner Bilder, die in verschiedenen Unterverzeichnissen platziert sind. Diese Bilder sind teilweiwse so klein, dass NTFS diese direkt im MFT abspeichert. Dieser waechst nun je Datei weiter an. Fuer den MFT setzt Microsoft pro Partition erstmal defaultmaessig 20% einer Partition an, wenn Du diese formatierst. Diese 20% (egal ob von MFT belegt oder noch nicht), werden als freier Speicherplatz angezeigt. Wenn sich die Partition nun mit millionen kleiner Bilder fuellt, belegen diese sichtbar Platz auf der Partition. Wenn die Zuordnungen der millionen Bilddateien nicht mehr in die 20% MFT-Anteil der NTFS-Partition hineinpassen, so weitet NTFS automatisch den MFT aus. Hierbei entsteht Fragmentierung - PRO DATEI, die man dann noch hinzufuegt. D.h. wenn ich spaeter ein bestimmtes Bild auf der Partition anfordere, sucht NTFS zunaechst in dem Bereich der 20% vorallokierten MFT, und wenn es das Bild dort nicht findet, sucht es hinten auf der Partition in jedem kleinen MFT-Teilstueck, dass pro geaddeter Datei hinzugefuegt wurde. Das dauert nicht nur EWIG, sondern ist auch ineffizient hoch zehn. Aber das ist noch nichtmal das schlimmste: Da aber der in dem MFT belegte Speicherplatz nicht mitgerechnet wird, sieht NTFS nicht wieviel nun tatsaechlich noch frei sind. Irgendwann konkurriert der MFT mit den echten Userdaten um Speicherplatz. Angezeigt sind dann z.B. noch 10 GB frei, obwohl die Partition ratzefatz voll ist. Das Ende der Geschichte: MFT legt einen Eintrag an (soviel passt gerade noch drauf, auf die Partition), kann aber das dazugehoerige Bild nicht mehr auf der Partition unterbringen, da voll. Was passiert? Der MFT ist hinueber. - Und zwar der MFT und der backup-MFT, den NTFS parallel mitschreibt. Das Ende der Geschichte: Die NTFS-Partition wird als RAW angezeigt, und kann nicht mehr gelesen werden. Unter Linux wird die Partition zumindest als NTFS erkannt, kann aber auch nicht mehr gelesen werden. - Fazit: ALLE Daten futsch. Mit XFS und EXT2 ist mir soetwas noch NIE passiert. - NTFS kannst Du knicken, wenn Du Leistung und Zuverlaessigkeit willst.
 
Wenn man bei wiki mal schaut was die beiden Dateisysteme können. Sind keine sehr große Unterschiede mehr zuerkennen. Also ich meine NTFS und ext4.
Bei sone Server wird auch immer solange gewartet bis die fast an ihre Grenzen Stoßen, weil das gerade die Server von sehr große Unternehmen ist, umzusteigen.
Die werden sehr sehr lange damit beschäftigt sein.
 
@Rammstein_Fan: NTFS ist weiterhin unter Unix/Linux schlecht (inperformant), da die Spezifikationen nicht offen liegen und die Implementation daher nicht so einfach möglich ist.
 
@Rammstein_Fan: Würde ich genauso machen. Zb. Ext2 und 3 unterscheiden sich nur in Features und sind zu einander kompatibel. Das fehlende Journaling kann man auch mit Raid dämpfen. Sowieso nutzen die meisten solche Server, zusätzlich erweiterte Backup möglichkeiten.
 
Wie wäre es mit XFS oder einen Entwickler für btrfs abstellen?
 
@zivilist: Steht doch da, Mensch: Da ein Upgrade auf ext4 ohne Ausfallzeit durchgeführt werden kann, hat man sich im Hause Google darauf geeinigt.
 
@zivilist: wozu? Ist ja nicht so, als wäre ext4 eine Spontanentscheidung ohne vorherige Analyse gewesen
 
Und später kann Google die bestehenden ext4 FS einfach in Btrfs konvertieren mit btrfs-convert. :)
 
ich dachte mal gelesen zu haben, dass google auf seinen dataservern ein eigenes, nichtveröffentlichtes FS verwendet
 
Tja, eben noch ein Manko an Win7, mit einem 17 Jahre alten Dateisystem kann heutzutage nicht aufgetrumpft werden. Aber Win7 ist ja sooooo toll. :roll: Gute Entscheidung von Google. Am besten wäre noch, wenn mal jemand einen vernünftigen ext4-Treiber für Windows schreiben könnte, damit auch ext4-Partitionen problemlos unter Windows genutzt werden können. MS käme ja nie darauf, einen eigenen Treiber dafür zu schreiben und es zu unterstützen. Und der Quasi-Nachfolger von NTFS war schon zu Longhorn-Zeiten angekündigt, ist aber in's Wasser gefallen. Na mal schauen, was für proprietären Mist uns dieser Megakonzern in Win9 als neues Dateisystem präsentieren möchte.
 
@bgmnt: "Und der Quasi-Nachfolger von NTFS war schon zu Longhorn-Zeiten angekündigt" War er nicht! WinFS sollte kein Dateisystem werden, aber ich glaube das raffen die Leute auch in 20 Jahren nicht... Übrigens frage ich mich, warum man NTFS ersetzen sollte, wenn es seinen Dienst recht gut verrichtet. Das einzige Manko von NTFS ist die relativ starke Fragmentierung, die wird aber auch überbewertet. Außerdem ist es ja nicht so, dass NTFS nicht weiterentwickelt würde.
 
@bgmnt: ehm 17 jahre alt ??? erst informieren dann schreibe... NTFS is keine 17 jahre alt... Der Name und das grundprinzip vll aber NTFS wird stettig weiter entwickelt. Wenn man es so sieht wie du is ext auch schon so alt....
 
@TiKu: Also von Defragmentierung ist Win7 erheblich besser geworden. Vorgestern oder so, habe ich mal eine Defragmentierung manuel gestartet. Das hat zwar lange gedauert, aber am Ende hat es sich voll gelohnt. Mein langsam werdendes Win7 ist wieder flott. Bootet schnell, reagiert schnell und fährt auch schnell runter. Das kenne ich vom XP anders, da war ich der Meinung, das es einfach nur sinnlos war. NTFS wird zudem weiter entwickelt. Zusätzlich zu deinem Manko, würde ich noch hinzufügen, das NTFS langsam ist.
 
@bgmnt: Wikipedia Zitat (Gekürzt): "NTFS-Versionen: NTFS 1.0: Microsoft Windows NT 3.1, NTFS 1.1: Windows NT 3.5/3.51, NTFS 2: Windows NT 4.0, NTFS 3.0: NT 4.0 mit Service Pack 4, Windows 2000 (NT 5.0) mit 3.1-kompatiblem Datenträgerformat, NTFS 3.1: Windows XP (NT 5.1) bis Windows 7 (NT 6.1)

Frag Wikipedia, Wikipedia weis es
 
@TiKu: Quasi ist ein Wort, das auch gelesen werden möchte. Und die Fragmentierung ist aus meiner Sicht erstens sehr verheerend (denn sie müsste nicht sein), die mangelnde Geschwindigkeit des Dateisystems ist ein weiterer Punkt, der es heutzutage nicht mehr tragbar werden lässt und das Hauptargument überhaupt ist die Entwicklung hin zur metadatenbasierenden Dateiverwaltung (GTK und KDE sind gut dabei), wo NTFS einfach aussterben muss. Die gesamte Informationstechnik könnte im Heimbereich schon viel weiter sein, aber MS verschläft jedwege Entwicklung. Und nur durch die Marktmacht von MS haben diese Flaschenhälse leider einen so großen, negativen Einfluß auf den Fortschritt. NTFS ist alt und muss sterben. Hätte schon lange sterben müssen, aber MS bleibt eben gern in alten Strukturen stecken.
 
Da Google offensichtlich Interesse an Theodore Y. "Ted" Ts'o und ext4 hat, darf wohl geschätzt werden, das ext4 forciert noch weiter vorangebracht wird. Gut für die Linux Welt.
 
@Fusselbär: Vorangebracht? Btrfs steht doch eh schon in den Startlöchern und soll ext* ersetzen.
 
Ext2 ... meine Güte ^^ und ich denke schon darüber nach mein System auf Ext4 aufzusetzen, obwohl ich es eigentlich nicht bräuchte. Hut ab :)
 
@kinterra: Google nutzt die Kisten sicherlich anders, als Normalbenutzer. Die haben ja nicht eine Kiste, oder wenige Kisten, sondern viele, sehr viele, sehr einfache Kisten die wiederum in Containern in zusammengefasst sind. Schätze mal, dass die so was ähnliches wie HAST benutzen könnten: http://tinyurl.com/yzm7mkk Wenn dann ein einzelnes Laufwerk, oder eine einzelne Kiste kaputt ist, ex und hopp! Hinterher wird dann einfach mit dem Cluster synchronisiert. Da bot bislang für Google vermutlich wohl ext2 den größeren Vorteil gegenüber ext3. Der Einzelplatzuser an sich, wird aber wohl lieber auf die größere Datensichereit im Falle eines Stromausfalls setzen und hat daher lieber ext3 anstatt ext2 genutzt. Google hat das ja quasi in meisterlicher RC-Modellbauer Frickelmanier gelöst. Die haben nur ganz einfache Netzteile die nur eine Spannung liefern, dahinter sitzt ein billiger Bleiakku zur Absicherung gegen Stromausfall zwischen Netzteil und Mainboard. Die Mainboards sind eine Google Spezialanfertigung und versorgen dann die Komponenten mit der jeweils benötigten Spannung (oder die haben da ein Bauteil dazwischen das dies macht). Das macht den "Google Way of UPS" (deutsch: USV) besonders effizient. Da gibt es irgendwo auch ein Video, wo man das mal betrachten kann und die raffinierte Einfachheit und "Frickel-Eleganz" bewundern darf, ja hier ist es ja: http://www.youtube.com/watch?v=zRwPSFpLX8I Jetzt fehlt nur noch *BOINC for Google*! Da sollte es keine Denksperren geben, aber vielleicht eine kleine Belohnung in irgendeiner Art und Weise vielleicht, quasi als Anreiz. ,)
 
@kinterra: Also ich nutzt lieber JFS bis Btrfs fertig ist.. Vorallem mit grossen Dateien reagiert JFS zusammen mit dem CFQ einiges besser als ext3/4 + CFQ.
 
@kinterra: Die Server laufen 24 Stunden/Tag und das teilweise schon (vermutlich) Jahre bei google. Da gab es erstens noch kein stabiles ext3 geschweige dann ext4. Private Nutzung eines Rechners/Servers unterscheidet sich meistens enorm von der Nutzung in großen Netzwerken.
Kommentar abgeben Netiquette beachten!

Googles Aktienkurs in Euro

Google Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Google Galaxy Nexus im Preis-Check