120 Petabyte: IBM baut bisher größtes "Laufwerk"

Der IT-Konzern IBM hat ein Speichersystem gebaut, was alles bisher Dagewesene in den Schatten stellt: 120 Petabyte Storage-Kapazität werden geboten, berichtete das US-Magazin 'TechnologyReview. Das gesamte System setzt sich dabei aus 200.000 ... mehr... Speicher, Festplatte, Storage Speicher, Festplatte, Storage

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Jau, und das ganze nun noch als RAID-0 ;-)
 
@awacs: Dort wird sicher kein normale RAID im Einsatz sein. Steht aber auch im Artikel das es sich um eine neue Technologie handelt. Davon abgesehen wie hoch sind dann wohl die IO-Werte bei 200.000 HDD's im normalem RAID?
 
@awacs: Dann noch SSD xD
 
@awacs: Und als USB Stick :)
 
@awacs: na toll und dann geht eine platte kaputt :D .. dann kannste alles in die tonne kloppen :P
 
übertrieben gesagt - wenn die entwicklung so weitergeht, gibt es in 15 - 20 jahren 120 petabyte festplatten. dann paßt das auf eine platte.
 
@karl marx: Eher unwahrscheinlich! In 15-20 Jahren wird vermutlich 1PB erreicht sein, wenn die Entwicklung so weitergeht, wie bisher.
Dann stellt sich allerdings auch die Frage, wie man so eine Festplatte vollmachen will, bzw. wie sinnvoll so viel Speicherplatz überhaupt ist.
Die meisten Leute machen ja heutzutage nicht mal ihre 250GB Festplatte richtig voll.
 
@ctl: WoW ist 25GB gross, die MMORGPS in der Zukunft werden sicher so um die 100 brauchen ... und wenn dann wieder so ein "Ich bin AION, der WoW-Killer"-MMORPG (gschafft hams es ned), die einen "Grafik > all" Plan verfolgen, braucht man so ne Platte für so ein Spiel allein, in, sagen wir 10 Jahren :P ... Naja in meinem Laptop sind 500 drin, die sind zu wenig ... meine XBox hat auch 250, welche auch zu wenig sind (boa vor nem halben Jahr noch mit ner 60er war ein Krampf...^^)
 
@Ðeru: Ok, angenommen dass die MMORGPS in Zukunft 100GB brauchen, so könntest du auf einer 1PB Festplatte 10000 MMORGPS speichern. Ich bezweifle, dass du so viel spielst oder so viel Geld hast oder geschweige denn, dass es überhaupt so viele MMORPGS gibt, als dass du die Festplatte damit füllen könntest.
@ds94: Ja, das ist richtig. Allerdings hätte ich 1998, als ich meinen Schulfreunden stolz von meiner 8GB Platte berichtete, auch nicht gedacht, dass es 13-14 Jahre später 3TB Platten zu kaufen gibt. Also mal abwarten, wie weit es die Technik in den nächsten 15 Jahren bringt.
@Marcosch: Für solch grosse Festplatten müssen auch andere Technologien weiterentwickelt werden. Was bringt dir eine 1PB Festplatte, wenn du die Daten beispielsweise nur mit 200MB/Sek kopieren kannst? Auch die Grösse der Videodateien hat sich in den letzten 15 Jahren nicht dramatisch erhöht. Eine DVD braucht rund 8GB, eine Bluray 25-50GB. Wenn man davon ausgeht, dass die Bluray frühestens in 10 Jahren durch eine neue Technologie ersetzt wird, kann man noch höhere Videoauflösungen wirklich nur als Zukunftsmusik bezeichnen. Selbst heute haben die meisten Leute noch Röhrenfernseher. Es gibt also auf lange Sicht gar keinen Markt für noch höher auflösende Videos und die nötigen Speicherkapazitäten.
 
@ctl: @ctl:Nun ja, ich nehme mal an, dass sich auch die Lese-und Schreibraten in 10 Jahren weiterentwickeln wird ;). Intern wird Intel ja auch längst mit 10GB/Sek experimentieren. Wie wie weit die Markteife angelangt ist, steht noch auf einem anderen Blatt. Die Veränderung der Dateigröße sehe ich aber schon als beachtlich an. Was war vor 15 Jahren denn Standard? 15GB? 30GB? DVD war damals ja im Kommen. mit 8GB wäre eine damalige HDD auch schnell voll, Verbreitet war damals ja noch die CD mit ca 700MB. Das entspricht einn 10fache Vergrößerung von CD auf DVD. Und die jetzigen 50GB der Blu Ray sind ja genauso wie damals bei der DVD noch nicht das Ende des Möglichen. Theroetisch kann die auch weit über 100GB fassen. Prototypen gibt es bereits mit 400GB. zur Zeit ist die Holographic Versatile Disc in Entwicklung, die im jetzigen Zustand 1TB fasst. Ich zumindest sehe zuversichtlich in die Zukunft, dass wir in 15-20 Jahren 1PB standardisiert haben. Natürlich ist das alles noch Zukunftsmusik, aber davon sprechen wir hier ja schließlich auch.
 
@ctl: Also wer ne interne 250GBer Platte nicht voll bekommt, der hat zu 99% ne externe Platte wo Daten drauf liegen oder einen oder mehrere andere Rechner am laufen. Dann kann man einfach sagen: ich bekomm meine 250er Platte nicht voll! (weil ich alles auf meine 5x 2TB extern speichere) > ok is übertrieben, aber weißt was ich meine.
P.S
Meine Windows Partition hat auch nur 90GB, die wird auch nie voll ;)
 
@fuba: Auch wenn du es nicht für möglich hältst, aber es gibt tatsächlich Leute, die kommen sogar mit einer 40-80GB Platte aus, ohne weitere Speichermöglichkeiten.
 
@ctl: Déjà-vu? Ich erinnere mich an zahllose Diskussionen, wo 1:1 so argumentiert wurde, wie Du es gerade tust. 20MB? Puh, wie soll man das blos vollkriegen; wer braucht schon soviel Platz? 500MB? Wiea, es gibt doch gar nicht genug Daten, um die voll zu machen; außerdem stoßen wir demnächst an gewisse physikalische Grenzen ...! 20GB? Das sollte nun aber für jeden und für immer reichen. 200GB? Komisch, waren da nicht irgendwelche physikalischen Grenzen, die wir vor ein paar Jahren überschritten haben? 4TB? usw. usf. Merkst Du etwas? Mit immer den gleichen Einwänden/Fragen wird von Jahr zu Jahr das Ende der Speicherplatzaufrüstung heraufbeschworen. Und jedes Jahr werden die Massenspeicher noch größer. Bisher ist kein Einbruch bei der Entwicklung der Kapazitäten zu verzeichnen, wieso sollte es also in kürze soweit sein?
 
@webmantz: Merkst du etwas? Du hast meine Beiträge offensichtlich nicht vollständig gelesen. Dass die Speicher immer grösser werden, habe ich zu keinem Zeitpunkt in Frage gestellt. Ich habe lediglich den Sinn, der unproportional zum Speicherplatzbedarf steigenen Speicherkapazitäten, in Frage gestellt. Um ein paar Word-Dokumente zu speichern, braucht man keine 1PB Festplatte. Weder heute noch in 20 Jahren.
 
@ctl: da hast du schon recht. textdokumente werden eben nicht größer. aber filme und bilder schon. was sind schon 4mb jpg? viel? vor 5 jahren bestimmt. aber jetzt ist das für manche kameras sogar recht wenig. irgendwann werden bilder 20mb groß sein. ich weiß nicht wie viel bilder du machst, aber mein bilderordner ist schon relativ groß.. und 5x größer würde schon gar nicht mehr auf die partition passen.. da müsste ich dann wieder ne neue platte kaufen und umstrukturieren.. bei filmen verhält sich das nicht anders. ich denke da sind wir bei weitem noch nicht an irgendwelche grenzen gestoßen, grade mit der 3d-technik usw.
 
@CruZad3r: Nehmen wir an, die Bilder wären in Zukunft sogar 50MB gross. Dann könntest du auf einer 1PB Platte 20000000 Bilder speichern. Um solch eine Menge zu erzeugen, müsstest du 231 Tage lang, Tag und Nacht, jede Sekunde ein Bild schiessen. Ich glaube, dass die meisten Berufsfotografen in ihrer ganzen Karriere nicht so viele Bilder machen. Ganz zu schweigen davon, dass eine solche Datenmenge nicht von einer einzelnen Person ausgewertet werden kann.
 
@ctl: Unwahrscheinlich mit der aktuellen Technologie.
Ich weiß das die derzeitigen Festplatten bei 5TB an die grenzen Stoßen werden (ich weiß jetzt nicht ob die scheibe, oder die ganze Platte damit gemeint war).
Sofern eine neue Technologie den Platz der aktuellen Festplatten einnehmen wird, bejahe ich deine Aussage! LG
 
@ds94: damit werden die Plattern gemeint sein... du bekommst halt in 3.5" nur eine begrenzte Anzahl davon rein und dort werden entsprechen die Daten immer dichter gespeichert was wiederum eine hohe Fehlerquote zur Folge hat.
 
@ds94: Abwarten IBM arbeitet zum Beispiel an der Racetrack Technologie. Da ist ne menge potenzial drin.
 
@ctl: Naja... diese Frage haben wir uns auch gestellt bei 20MB, 43MB. 100MB, 1GB, 20GB (könnte so weiter machen). Unterm Strich ist heutzutage selbst 2TB/HDD knapp
 
@ctl: "...Die meisten Leute machen ja heutzutage nicht mal ihre 250GB Festplatte richtig voll. ..." Eben gerade diese "meisten" Leute schaffen das. Das wird wahllos installiert und abgespeichert, ohne auch nur irgendeine Art von Qualitäts- und Versionskontrolle durchzuführen...DAU eben.
 
@ctl: Sportwagen sind auch nicht für 80kmh Sonntagsfahrer gedacht. Sind halt eine andere Zielgruppe.
In 15 oder 20 Jahren wirst du solche Festplatten genauso schnell voll kriegen wie heute 2 oder 3 TB Platten. Wenn Super High Vision sich erst einmal verbreitet hat, dann wirst du auch solche Kapazitäten brauchen. Download Inhalte werden ja immer populärer. Vielleicht gibt es bis dahin keine Datenträger mehr. Steam, Origin und weiß der Geier machen es ja vor. Games egal ob für Konsole oder PC werden auch immer größer. Heutzutage kann eine Spielesammlung bei Steam schon mehr als 400GB groß sein.
 
@ctl: bis dahin ist die Rechenleistung so hoch das sicherlich 100 Polygone pro mm² Verarbeitet werden können, und die wollen gespeichert werden. Sicherlich, eine gewisse exorbitante wird es geben da Textdokumente nicht 1GB groß werden (pro A4 Seite) :)
 
@ctl: MHHH, also alleine mein Fernseher hat eine 320GB Festplatte zum aufnehemn . Die geht recht schnell voll!!!! Also ich denke deine Aussage ist nicht ganz zutreffend was die Speicher auslastung heutiger System angeht. Alleine was Spiele heutzutage für größen auf einer Festplatte angenommen haben ist unglaublich! 15 Gigabyte ist keine seltenheit mehr .Und so wird es in der Zukunft weitergehen !! Immer mehr ,immer mehr ,immer mehr.....
 
@Lordlinux: Wir reden hier von 1PB Festplatten, nicht von 320GB Festplatten. Selbst eine 3TB kriegt man mit heutigen Daten recht schnell voll, gar keine Frage. Eine 1PB Festplatte lohnt sich aber erst dann, wenn Filme eine Grössenordnung von 1TB haben und Spiele eine Grösse von 10TB.
 
@ctl: wenn du richtig lesen würdest ist mein schreiben eine Antwort auf dieses hier;Zitat von Dir :@karl marx: Eher unwahrscheinlich! In 15-20 Jahren wird vermutlich 1PB erreicht sein, wenn die Entwicklung so weitergeht, wie bisher. Dann stellt sich allerdings auch die Frage, wie man so eine Festplatte vollmachen will, bzw. wie sinnvoll so viel Speicherplatz überhaupt ist. Die meisten Leute machen ja heutzutage nicht mal ihre 250GB Festplatte richtig voll.) Zitat ende. Vieleicht verstehste jetzt meinereiner?!
 
@Lordlinux: Und du meinst deine Situation kann man verallgemeinern? Ich kann dir eine ganze Reihe von Leuten aufzählen, die ihr System nur für Office verwenden, für nichts sonst. Die brauchen keine 250GB, nicht mal 40GB.
 
@ctl: Den kann man dann aber auch wirklich nicht mehr helfen! Ne.. aber mal im ernst. Es hängt sicherlich vom Alter ab. Gebe mal heute nen Jugendlichen nen Rechner mit 40GB. Der knallt den Dir um die Ohren !! ( Wo soll den meine Video und Music-sammmlung hin) Ich denke nicht ,das die Situation ,die Du beschreibst dem Durchschnitt enspricht.
 
@ctl: Reine-Office-und-nichts-anderes-Nutzer sind aber auch nunmal die falsche Zielgruppe. Das ist heute so und auch morgen so. Ich schiele da eher auf die NAS-, Spiele- oder Home-Theater- Fraktion neben einem Arbeitsrechner. Es sind im Privatbereich nun mal Enthusiasten, die solche Platten füllen können/wollen. Ich kann deine Bedenken aber verstehen. 1PB ist kein Zuckerschlecken. Bis solche Platten im Privatbereich angekommen sind, werden noch etliche Jahre ins Land gehen, wenn man die damalige Zeitspanne von 1GB auf 1TB bedenkt. Aber hey, immer optimistisch denken:).
 
@karl marx: Gut das hier ist ja jetzt nur alte Technik neu verpackt...wenig Entwicklung oder neues... Aber ich denke das es nur eine frage der zeit ist bis man eine neue Technologien findet und dann sind die 12PT in einer größe von 3,5Zoll nicht mehr weit. @ctl: muss ja nicht für Heimanwender sein. Dann stellt man halt Speicherblöcke mit 200.000 1PT platten zusammen.
 
@karl marx: Ich denke mal 120 Petabyte pro Platte (3,5 Zoll) werden wir so schnell nicht erreichen, da wir bereits heute schon probleme haben die Datendichte zu erhöhen aufgrund physikalischer Eigenschaften
 
Wow das sind ja das 4000 fache meines derzeitigen Speichersystem.
 
@Menschenhasser: Was du hast ein 30,72 Terabyte System hut ab!
 
@fabian86: Jep
 
@fabian86: Hab ich auch im Mac Pro ;)
 
@JacksBauer: Hab ich in meinem Schweizer Taschenmesser :-)
 
@Menschenhasser: Was speichert man auf 30 TB wenn man fragen darf?
 
@___anonym___: geraubte Kopien oder Videoschnittzeuch ;)
 
@schnitzeljaeger: Nein!
 
@___anonym___: Er hat natürlich seine Schallplatten als RAW gerippt. Dazu liegen noch die Urlaubsfotos als Bitmaps bei. Dann ist noch genügend Platz um die täglich die Artikel von Winfuture zu backuppen.
 
@Danielku15: Du weisst schon das dies eine öffentliche diskriminierung ist und ich dich anzeigen könnte.
 
@Menschenhasser: Gut gewählter Nick. *g
 
@Apfelbitz: haha :) ja passt genau.
 
@Menschenhasser: 1'600'000 mal so viel Speicherkapazität wie ich in meinem Desktop verbaut habe. Bald sind's jedoch nur 1'000'000 mal so viel, wenn ich meine georderte SSD einbauen kann. Für so ziemlich alles ausser grosse Dokumente (und die Datenberge aus meiner P2P-Zeit, die einige Jahre zurückliegt) reicht das mehr als genug. Aus praktischen Gründen archiviere ich allerdings einige Downloads (hauptsächl. legale) auf meiner externen Platte, damit ich schnell diverse Sachen installieren kann (MSDN-AA und Autodesk for Students ftw).
 
Haben will :P
 
Ich kenne den Auftragsgeber. Google! Aber pssst nicht weitersagen.
 
@leviathan11: Das wäre sicher eine Möglichkeit. Es gibt aber auch andere Firmen, die vielleicht gar nicht so bekannt sind. Vielleicht wurde es auch für einen Geheimdienst entwickelt.
 
@ctl: oder für ein streamingportal...
 
@elektrosmoker: Der neue GEMA-Server, ganz klar^^
 
@Stratus-fan: an ne verwertungsgesellschaft dachte ich jetzt nicht wirklich, meinte es auch eher ironisch,aber ok...
 
@Stratus-fan: Zum Torrent Seeden xD
 
@elektrosmoker: Ich hatte es auch eher ironisch gemeint. Das CERN in der Schweiz wäre auch ein möglicher Auftraggeber. Ich hoffe nur das man die Abwärme die eine solches System produziert wieder sinnvoll zu nutzen weis.
 
@elektrosmoker: Ich auch, keine Angst. War nur ne Anspielung daraus, das der gehackte GEMA-Server wohl 35 TB Platz hatte und man überlegt wofür^^
 
Ist es wahrscheinlich das wir in 20-30 Jahren TB kopieren wie heute MB?
Derzeit kann ich mir vorstellen das die Daten nicht als Stück soooo sehr wachsen, aber das dachte man früher auch. Ist die Schätzung mit 10-30 Jahren plausibel?? LG
 
@ds94: So lange wirds wohl nicht dauern. Wenn die Systeme jetzt schon existieren, dann tippe ich mal optimistisch auf 5-10 Jahre.
 
@ds94: TB wird man wohl nicht so oft kopieren wie heute MB - eher GB. zudem sind 5-10 Jahre sehr optimistisch, wenn man 5 Jahre zurück denkt. Da hatten wir 2006 und da waren die Datenmengen auch nicht kleiner als heutzutage. Siehe z.B. Spiele. Die Waren genauso wie heute im Schnitt zwischen 4 und 8 oder mal 12GB groß - MP3s werden immernoch genauso genutzt und sind noch genauso groß - das gleiche mit Videos und Bildern... Erstmal müssen sich SSDs mit ihren mehr als 500 MB/s und mindestens 50 Mbit DSL Leitungen durchsetzen, bevor die User-masse so erheblich mehr Daten produziert, dass man sagen kann, man braucht ne höhere Maßeinheit.
 
ZPOOL mit ZFS? Aber genügend RAM bitte nicht vergessen, ZFS puffert gerne und viel.
 
@Feuerpferd: Nee, das ist IBM und damit direkte Konkurrenz zu Oracle. Ich vermute mal das gibt ein aufgebohrtes GPFS. IBM wollte mit GPFS schonmal eine Appliance für grosse Clustersystem bauen, ich glaube das lief unter dem Namen Sofs, ist aber auch schon wieder abgekündigt. Wenn das so toll läuft wie bei einem Kunden nach dem Update auf 3.4, na dann viel Spass. Hier ist die dazu passende Produktseite bei IBM, falls es jemand interessiert:

http://www-03.ibm.com/systems/software/gpfs/
 
@wunidso: Dankeschön für den Link, erinnert an das HAMMER clustering Filesystem von Matthew Dillon. http://www.dragonflybsd.org/hammer/hammer.pdf
 
@Feuerpferd: Interessant, das kannte ich jetzt bisher noch nicht, danke. Soweit ich das richtig verstehe ist der grundsätzliche Aufbau in einem zentralen Punkt unterschiedlich, hammer verwaltet die Metadaten im System in den Inodes, gpfs verwendet dazu einen Datenpool ausserhalb des Pools für die Nutzdaten. Daher kann man die Metadaten sehr leicht auf einen schnelleren Storage oder sogar auf Flash legen, weiterhin kann man die Datensicherheit erhöhen indem man mehrere gespiegelte Metadatenpools aufsetzt (wird üblicherweise auch so gemacht).
 
@wunidso: Mit ZFS gibt es ja auch solche Konstruktionen: http://blogs.oracle.com/brendan/entry/test Aber wie auch immer, worauf man eigentlich dann die Backups für 120 Petabyte Datenmasse?
 
@Feuerpferd: Die meisten Kunden möchten HW+SW aus einer Hand, und bei den Oracle HW-Supportkosten migrieren unsere Kunden schon wieder von zfs weg...

Zum Backup, die spannende Frage ist nicht worauf, sondern wie macht man ein Backup. Konventionelles Backup fällt bei dem Umfang sowieso aus, das würde Wochen laufen. Incremental forever wie z.B. IBM TSM hilft bei der Grösse aber auch nicht mehr weiter.

Oft macht man regelmässige Snapshots und holt gelöschte Daten aus den Snapshots wieder. Was natürlich ein gewisses Risiko darstellt, wenn aufgrund von SW/HW-Fehler mal ein korruptes FS hat. Dann wäre ein klassisches Backup als Desaster Recovery wünschenswert. Das Problem ist nur dass schon der Abgleich für ein incremental forever Tage läuft, selbst wenn das Inkrement an sich nichtmal so gross ist.

Bei zfs haben wir da immer über Tage ein Full-Backup gemacht und anschliessend snapshots gezogen und die dann gesichert, damit hat man dann das Delta abgegriffen.

Bei gpfs geht das ein bisschen eleganter, das hat eine API in der man die Veränderungen direkt abgreifen kann, damit erzeugt man dann eine Liste mit geänderten/neuen Dateien und sichert diese direkt.

Bezüglich worauf, das ist nichtmal so problematisch wie sich das anhört. Die aktuelle 3592-Generation von IBM schafft etwa 2TB auf ein Tape, damit kommst Du mit 10000 Tapes auf rohe 200PB, das sollte eigentlich reichen. Und 10000 Tapes bekommt man sogar noch halbwegs brauchbar in eine Library, 3584 mit HD-Frames wäre da wohl angesagt.
 
Wozu braucht man soviel Speicherplatz?
 
@Knerd: Pr0n
EDIT: Um die "Standardantwort" etwas aufzupeppen:
Datenbanken, Bilder,[...]
 
@bluewater: Also Datenbanken und Bilder des Pr0ntums?
 
@klein-m: Genau :-)
Man kann soviel Speicherplatz aber auch für die Vorratsdatenspeicherung gebrauchen oO
 
@Knerd: tja, warum wohl? Alles vom Menschen bzw. Bevölkerung zu speichen, wo du warst, was hast du alles gemacht und und und:)
 
@Knerd: Wie ich schon weiter oben gesagt habe: die gleiche frage stellte man sich so oft.... ob 10MB, 20MB, 43MB, 100MB, 500MB, 1GB, 1.5GB, 10GB, 20GB [...].... immer die selbe Frage "Wozu braucht man soviel Speicherplatz?" oder die Aussage "Das bekomm' ich doch niemals voll". Aber: Heute sind selbst 2TB HDDs vom Speicher her knapp während ich meine 43MB HDD von damals nie wirklich voll bekommen habe - ja diese dank DBLSPACE sogar unendliche Weiten von 90MB erreicht hat... Windows 3.11 drauf und lets rock... Die Zeiten ändern sich, der Speicherbedarf auch. Und mal Hand aufs Herz: Wer viel speichern kann wird auch viel horten was man aber erst merkt wenn denn der vorhandene Speicher knapp wird.
 
@Knerd: Für die Pornos. Und eine Floppy für den Rest vom Internet.
 
die kann mann voll müllen*ggg*
 
Das war bestimmt Anonymous, die müssen die "geholten" Daten ja irgendwo speichern.... :)
 
@JUPSIHOK: denke mal soviel wird das bei denen nicht sein... wer bilder oder sonstige Medien IN EINER DATENBANK speichert gehört erschossen und gelüncht... Das ist Gift für die performance und die Datenbank wächst expotentiel an. Was die Auslesen wird wohl ehr reiner Text sein - sprich sich ggf. im 100-1000MB Bereich (wenn überhaupt) bewegen. Wenn das komprimiert wird was ja bei ASCII-Files sehr effizient möglich ist hat man dann ein zehntel bis hunderstel der Größe der eigendlichen Daten
 
@Stefan_der_held: Erstens ist es einer Datenbank relativ egal ob Binär oder Raw/Ascii Daten eingespeichert werden. Zweitens macht die Art der Daten keine großen Unterschied. Natürlich sind longs größer als Ints.... usw. aber um die GLEICHE Information zu speichern und darum geht es ja, ist das Datenformat nahezu egal. Weil ich eine riesenzahl in long oder Int notieren kann... (bezogen auf die Datengröße). Drittens werden in den meisten Datenbanken intern die Datensätze ohnehin komprimiert bzw. in optimierter Form inkl. Verweise vorgehalten. Viertens, sind gerade Datenbanken auf absolute Performance getrimmt. Such mal mit PHP in einer 100 Verzeichnisse tiefen Struktur ein Wort innerhalb einer Datei... und dann mach das gleiche mal mit einer Datenbank... alles dünnes was Du da so weißt.... und ganz klar kann ich eine Grafik Base64 Encodieren und in eine Datenbank packen.... -woher du weißt das Anonymous nur Datensätze von 100-1000 MB besitzt würde mich noch interessieren.. die Medien sagen was anderes.... übrigens.... es war nur ein Witz mit Petabyte für Anonymous... un ein Ascii File komprimiere ich Dir noch kleiner... kommt immer auf den Inhalt an.... z.B. eine Datei mit 80 Millionnen Nullen... und RLE Verfahren... ;) Jedenfalls schönes bla bla als Reaktion auf einen Witz.....
 
Besteht das System somit aus 200.000 ~630 GB Festplatten.... Warum nicht 1,5 TB HDD´s verwenden, braucht man nurmehr 100.000 was den Stromverbrauch sowie alles andere wohl günstiger machen würde.
 
@mike4001: Es gibt Serverfestplatten und konventionelle Festplatten. Bei Serverfestplatten sind 600GB schon viel, da liegen die Prioräitäten wo anderst als am reinen Plattenplatz.
 
@mike4001: Das kannst du so nicht sagen das es Festplatten mit 630Gb sind. Im Artikel wird nirgends erwähnt was dort für eine Redudanz vorhanden ist, ich gehe aber von mindestens einer Kopie aus. Das würde also dann heißen das es 1,5TB HDD's sein könnten die gespiegelt sind.
 
@mike4001: je größer die HDD desto größer der Plattern desto größer die Zugriffszeit und letzteres ist das A und O im Serverbereich ;-)
 
Danke für die Kommentare, Redundanz und Zugriffszeit klingt logisch. Wobei man zb. im Raid 5-Verfahren jetzt nicht den doppelten Speicher benötigen würde... Aber schlussendlich werden sich die Leute bei IBM schon was dabei gedacht haben.
 
Weiss jemand wie gorss der Storage von der iClowd ist?
 
@cpu: du das Wissen über die Größe einer Cloud ist genauso interessant wie der Stand des Sekundenzeigers... (ernsthaft) denn: die Größe wächst mit dem Datenaufkommen um speicherengpässen zuvor zu kommen... Aber ich denke mal, dass sich die Größe dieser Cloud noch im Terrabytebereich bewegt.
 
@Stefan_der_held: Ich hab mich einbisschen falsch ausgedrückt, wollte eigentlich wissen wie gross der Storage von dem neuen Apple Rechencenter ist, welches in der Keynote zur iCloud zu sehen ist.
 
Und wie viele Por*os passen drauf?
 
@schmidtiboy92: nicht fragen... ausrechnen ;-)
 
@schmidtiboy92: Eins, wenns lang genug ist;)
 
@bambam84: Eins Porno ? Genau ...
 
coole sache.. wenn ich wiedermal von einem verwandten hoeren sollte "ich habe das internet geloescht" sag ich nur noch "macht nix.. wir haben 120petabyte.. da ist alles gesichert" (=
 
tz tz tz... Immer diese Stromfresser :). Ob Greenpeace sich schon angemeldet hat!
 
Könnte ich auch gleich ein solches Laufwerk bestellen? Denn meine illegalen Downloads nehmen langsam ungeheure Ausmasse an :-)) Nein, im Ernst: da man mal wieder, dass IBM halt immer noch ganz vorne mitspielt, wenn es im richtige Leistungen geht! Logisch! Schliesslich haben die ja auch den PC erfunden...
 
Wetter- und Klimamodelle? Dann ist es meist was millitärisches oder? ^^
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles