iSuppli: Festplatten mit 60 Terabyte kommen 2016

Bereits im Jahr 2016 werden voraussichtlich die ersten Festplatten mit einer Speicherkapazität von 60 Terabyte auf den Markt kommen. Eine der Grundlagen dafür ist die bis dahin zu erwartende Verdoppelung der Speicherdichte auf der gleichen ... mehr... Festplatte, Hdd, Seagate Bildquelle: Seagate Festplatte, Hdd, Seagate Festplatte, Hdd, Seagate Seagate

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Mir wären 60GB SSD's zum Preis von HDD's lieber.
 
@miranda: Der proGB Preis bei SSDs liegt mitlerweile bei unter einem EUR. Was willst du noch? Etwa sie geschenkt? Siehe: http://tinyurl.com/c8fns5r
 
@Tarnatos: Das sind dann bei einer Standardgröße von 1 TB rund 1000 Euro. Und das ist nach wie vor nicht mal ansatzweise konkurrenzfähig im Vergleich mit konventionellen HDs.
 
@chronos42: Wofür brauch' ein Ottonormalverbraucher eine 1TB SSD? Ich nutze in insg. 5 Systemen SSDs von 32 bis 120GB. Auf meinem Gaming PC ist eine 120GB SDD verbaut auf der Windows 7 x64, Office 2007, allerhand Programme, WoW, WoW Beta, Diablo, und SWTOR Platz finden. Gut 10GB sind nocht frei. Nach meiner Auffassung mehr als genug. Alles andere wird entweder auf der zweiten internen HDD zwischengelagert, oder auf einem NAS archiviert. Sicher sollte mit steigender Kapazität eines Speichermediums auch die Geschwindigkeit dessen steigen, aber eine SSD ist nun mal nicht für alle Bereiche sinnvoll. Das ist auch der Grund, warum a) SSD nicht die Kapazitäten von HDDs haben werden und b) nicht zu dessen GB/EUR Preis verkauft werden.
 
@Tarnatos: Alter, wer braucht das wofür. Immer das gleiche, bitte lern doch einfach mal dazu, das abgefuckt Sinnlose Drecksargument kann ich nicht mehr hören -.-.
 
@Smoke-2-Joints: Sehr gepflegte Wortwahl und eine tolle Basis für eine sinnvolle Diskussion :)
 
@Tarnatos: Lobst du dich jetzt selber?, die Basis hast du ja extrem gut gelegt XD.
 
@Tarnatos: Bei aller "Liebe" zu meiner SSD, die Preise - auch wenn sie mittlerweile knapp unter 1 Euro/GB sind - müssen weiter sinken um den SSD im Massenmarkt zum Durchbruch verhelfen.
Wenn ich in unserer Firma sehe was in den PC für HDD werkeln, da liegen Großteile des Platzes brach, doch viele meckern über die Geschwindigkeit.
Recht viele Anwender fahren ihr System auch nicht mehr herunter, da ein kompletter Boot bis zu 5 Minuten dauert.

Lieber ein 60 GB SSD als 500GB HDD.
 
@chris193: 5min, zum booten , dan frag ich mich was das den für Rechner sind, also bei mir dauert das booten keine 1min.
 
@CobraBBS: 1. Firmennetzwerk ;), 2. günstige 5400 UPM HDDs
Edit: Tellerrand und so. Mein Spiele PC braucht auch nur 40 Sekunden zum vollständigen Booten.
 
@chris193: Hier sieht man mal wieder, dass die Firma entweder schlecht beraten wurde, oder seit einiger Zeit nicht mehr in die IT investiert hat. Langsame IT Systeme kosten Zeit und damit Geld und demotivieren die Leute, da sie genau wissen "Ach ne, jetzt muss ich wieder mit dieser langsamen Kiste arbeiten". Dabei könnte es doch so einfach sein. PCs für den Office Bereich müßen doch nicht sonderlich leistungsstark sein. Mittlerweile gibt es da doch sowohl von AMD als auch von Intel passende CPUs. Verpasst man diesen Systemen eine kleine SSD (60GB) ausreichend RAM und sorgt für eine gute Netzwerkanbindung ist das doch schon die halbe Miete. Aber ich seh' das immer wieder, es werden scheinbar günstige komplett Systeme eingekauft die dann mit unzähligen anderen Clients in einem veralteten 100MBits Netzwerk an einem Server hängen, der damit maßlos überfordert ist. Montags morgens den Rechner anmachen, ist dann oft das erste was man macht, bevor man den Kaffee kocht, das Radio anmacht (...). Dabei wäre oft eine kleine Investition in die Infrastruktur genug um seine Leute produktiver und zufriedener arbeiten zu lassen.
 
@Tarnatos: Ein Firmen-PC ist kein Home-Rechner. Die Systeme müssen laufen und dürfen nicht abstürzen. Da kann man nicht einfach "mal so" irgendetwas wechseln. Zudem will man in Firmen die Anzahl an verschiedenen Systemen klein halten. Optimalerweise gibt es eine standard IT-Hardwarekonfiguration und wenn möglich nur wenige Spezialanfertigungen (Geräterechner, Workstations mit besonderen Anforderung). Wenn dann eine mittlere Firma hunderte bis tausende Rechner auf einen Schlag erneuern soll, reden wir schnell von einigen hunderttausend Euro für neue Hardware (ggf. ECC-RAM und SSD für den Business-Bereich), Validierung der Systeme, den Umzug von HDD auf SSD - und das muss sich rechnen. Sicherlich rechnet sich das relativ häufig, aber mach das mal den Leuten klar die das Geld verwalten ;-)
 
@Tarnatos: Ich bin in der IT in dieser Firma - noch, zum Glück bald wech ;)
Hier gehen Dinge vor sich, da schüttelt es jeden ITler.
Nutzer die MP3s (eindeutige) auf ihren Dienst-Laptop via Sync mit dem Server abgleichen und die Verantwortlichen zucken nur mit den Schultern.

Es ist aber so, wie Stratus-fan schon schrieb: die Rechner sind auf Laufzeit ausgelegt. Die müssen funktionieren und dürfen möglichst wenig kosten.

Bei knapp 2000 Anwender, davon min. 800 PCs, mal eben ne SSD spendieren, ist so nicht drin.
 
@Stratus-fan: Tut mir leid dem kann ich nicht zustimmen und Firmen wie Google machen es vor. Warum muss jeder Rechner 100%tig identisch mit dem anderen sein?! und ECC in Ram in Workstations?! Nein, beim besten Willen nicht. Nach deiner Beschreibung sind Heimrechner idR völlig instabile zusammengeschusterte Kisten. Ok in den meisten Fällen stimmt das auch, aber das liegt nun zum überwiegenden Fall an den Nutzern selbst. Ich kann nur für mich und aus meinen Erfahrungen sprechen aber meine Systeme laufen absolut stabil. Greifen wir doch nochmal das Beispiel von den NB meines Vaters auf: Es ist ein Lifebook E8310, der Firmenrechner mit XP und allerhand veralteter Software ist so langsam dass ein arbeiten damit keine Freude macht. Das identische Private Modell mit SSD eine durchdachten Softwarestruktur und ausreichend RAM macht genau das was es soll. "Freude". Die Software auf dem Firmen NB ist größtenteils veraltet und das obwohl es zum überwiegenden Teil Produkte sind, die kostenlos auf die akt. Version geupdatet werden können. Auch besondere Prozessoptimierte Programme kommen nicht zum Einsatz. Das einzige was benötigt wird ist MS Office inkl. Outlook sowie ein funktionstüchtiger Browser. Hier wäre deutlicher Optimierungsbedarf. Das schlimme die IT Abteilung wenn man sie denn so nenen möchte weiß dies und handelt nicht. Arbeitsplatzsysteme müßen meiner Meinung nach nicht immer identische Systeme von der Stange sein. Vielmehr ist es wichtiger die Komponenten abhängig vom wirklichen Bedarf auszuwählen. Das fängt bei leisen Lüftern an, geht über Wartungsfreudige und wenig Staub anfälligen Gehäusen bis hin zu einer performanten Gesamtkonfiguration die dem Nutzer nicht die Lust nimmt mit dem System zu arbeiten. Sicher Nachrüsten kostet bei großen Firmen Sicher viel Geld, aber dafür gibt es einen saloppen Spruch: "Wer doof ist muss leiden!". Denn all diese Probleme hätte man vorher bedenken und vermeiden können.
 
@Tarnatos: "Firmen wie Google" haben auch ein etwas anderes Budget, sind ein IT-Unternehmen, wahrscheinlich bestehen mind. 50% der Belegschaft aus IT-Cracks und geleitet wird es auch von IT-Experten - Schlechtes Beispiel für ein "normales Unternehmen" das vielleicht nicht x Mrd. Dollar Gewinn im Jahr macht und auch auf so etwas wie 100 k€ für neue PCs achten muss ;-) --- Es macht durchaus Sinn möglichst viele identische Systeme zu haben. Die IT-Admins können Probleme schneller lokalisieren, man benötigt nur wenige Images um diese auf Rechner neu aufzuspielen und muss nicht auf jedem die Treiber zu Fuß installieren. Wenn ich in der Firma etwas speziellere Software benutze und ein Update kommt, validiere ich das an einem System und kann es dann an alle Clients verteilen etc. --- Wenn man nur MS Office und einen Webbrowser zum Arbeiten braucht gebe ich dir natürlich recht. Das ist so allgemeines Zeug, da tuen Updates nicht weh und wenn was niht funktioniert setzt man es idR neu auf und fertig. --- Zum Thema Nachrüsten: SSDs sind für Firmen immer noch ein Problemfall. Firmen-PCs laufen durchaus mal 4-10 Jahre und normale SSDs kommen erst langsam in das Stadium, wo man etwas zur Langlebigkeit sagen kann. Bisher waren die Firmen also durchaus schlau eben NICHT auf SSDs zu setzen. Wer 2012/13 eine größere Neuinvestition plant sollte aber langsam zusehen ob es nicht sinnvoller ist.
 
@Tarnatos: Da kann ich dir leider nicht ganz recht geben. Es gibt genug Firmen, welche auf Standard Hardware angewiesen sind, weil da diverse Software oder Hardware Lösungen nötig sind um überhaupt arbeiten zu können. Unser Unternehmen zb. (Windkraftbranche) kann bei den Notebooks nicht auf die Serielle Schnittstelle verzichten weil die Service Monteure diese nutzen um auf Anlagen zu kommen. Wartungsverträge bis zu 30 Jahren sind in unserer Branche keine Seltenheit und solange muss die Möglichkeit dafür gegeben sein. Anderes Beispiel ist das Software Deployment. Willst du nicht für x tausend Rechner Treiber paketieren, dann kannst du nicht auf verschiedene Hersteller zurückgreifen. Bei einem 40 Mann Betrieb geht das sicherlich, aber ab mehreren 100 Anwendern wird das dann kritisch. Dann haste schon mehrere Leute damit beschäftigt ständig irgendwelche Treiberpakete zu stricken. Auch nicht sehr praktikabel. Man sieht also, man sollte immer alles etwas differenzierter betrachten. Bei den SSDs zum Beispiel gebe ich dir recht, das wäre durchaus relativ einfach lösbar, aber der Kostenfaktor spielt dann eben doch eine Rolle, welche nicht zu unterschätzen ist. Meiner Erfahrung nach ist es so, dass die IT immer mit den größten Budgetschwierigkeiten zu kämpfen hat, weil die Business Kasper darauf bauen, dass man schon "irgendwie eine Notlösung baut". In dem Sinne, just my 2 cents. :)
 
@Tarnatos:
Kleiner Wissenstest mit einem Augenzwinkern...
Welches Bauteil beim System User mit Rechner ist das mit Abstand langsamste?

Hinweis: Es macht Kaffee, Zigaretten, Meeting, Schönheits, Erschöpfungs- und sonstige Pausen...
Besitzt aber den besten und schnellsten weil kognitiven Speicher...
 
@chris193: Hier dasselbe. Ein Bekannter hatte eine 500GB HDD die nur mit 50GB belegt war. Also einfach eine 100GB SSD gekauft, Partition geshrinkt und als Image auf die SSD gehauen. Der PC läuft jetzt um ein vielfaches schneller und es sind noch etwas über 40GB frei.
 
@chris193: Tut mir leid, aber dann sind die IT Leute eurer Firma offensichtlich in der Zeit stehen geblieben. Doch das ist mir nichs neues. Mein Vater z.B. verwedet sowohl privat als auch beruflich das selbe Notebook. Das Private habe ich mit einer SSD und 4GB Ram versehen Kostenpunkt knapp 120€. Das berufliche, wohl bemerkt absolut identsch mit dem privaten, werkelt noch mit HDD und 2GB daher. Dazu kommt noch, das die hauseigene Managementsoftware das System derart ausbremst das der Rechner fast 10min benötigt um vollständig Einsatzbereit zu sein. Da kann ich absolut nachvollziehen, dass die Akzeptanz dieser Geräte zum einen niedrig ist und zu anderen keiner mehr seinen Rechner ausschalten möchte.
 
@Tarnatos: Es gibt viele Unternehmen die PCs solange nutzen bis diese kaputt gehen, dann trifft man teilweise Rechner mit Pentium 3 oder ähnliches. Ich kenne sehr viele Unternehmen und auch sehr große wo es ähnlich ist und wenn ein System über Jahre zugemüllt wird und nie neu aufgesetzt, dauert der Start nun einmal recht lange. Viele Unternehmen nehmen an, dass eine Neuanschaffung eines Rechners nicht wirtschaftlich ist, weil dabei recht hohe Kosten entstehen. Viele Unternehmen vergessen einfach, dass ein schnelleres System hohe Effizienz/Produktivität gewährleistet, womit man auch Geld sparen kann. Und zum Topic: ich weiß ja nicht wozu man 60TB brauchen soll. Selbst wenn man Filme und Videos hortet, kommt man doch nicht einmal auf 10-15TB. Kann mir auch schwer vorstellen, dass es von jetzt 4-5TB innerhalb von 4 Jahren verzehnfachte Größe bereitstehen wird.
 
@chris193: nur 5 minuten? wenn ich mein firmennotebook anschalte kann ich ganz in ruhe einen kaffe trinken gehen. da gehen locker 10 minuten drauf bis windows einsatzbereit ist :/
 
Was bringen 60TB, wenn man nur eine Übertragungsrate von 90MB/sek erreicht? Man würde ca. 8 Tage benötigen, um die Festplatte komplett vollzuschreiben. Mal davon abgesehen, dass ein Datenverlust bei einer solchen Kapazität deutlich schmerzhafter sein dürfte, da die Leute solchen Festplatten sicher nicht nur grössere Dateien, sondern vor allem auch mehr Dateien anvertrauen dürften.
 
@ctl: die gleichen sprüche gab es damals schon als die ersten gb platten kamen und so wirds auch sein wenn die ersten petabyte platten kommen.
 
Geil, endlich alle Blue-Movies auf einer Platte :D
 
@citrix no. 2: Blue-Movie? Ist das nicht so ein Streamingdienst für "Adultcontent"? :D
 
Mal schauen, ob es auch wirklich kommen wird. so berauschend war der Sprung in den letzten 4 Jahren nun auch nicht. Schön wäre es auch, wenn die Geschwindigkeit der Dinger endlich mal zulegen würde. Festplatten sind immer noch viel zu langsam.
 
@John2k: Festplatten sind doch schnell genug. nur moechte keiner den Preis bezahlen
 
@John2k: Das bringt eine höhere Speicherdichte in der Regel mit sich!
 
@John2k: Ich glaube dass vor allem wegen des Geschwindigkeitsunterschieds SSDs und HDDs ihre parallele Daseinsberechtigung haben werden.
Eine kleinere SSD für OS und Programme und die riesige Festplatte für HD-Filme (oder bis dahin ja vll schon in Richtung 4k). Ich stelle mir da eine praktikable Alternative zur BlueRaysammlung in Form eines NAS im Haushalt vor. Bisher bieten diese ja auch zu wenig Platz um HD-Filme dort zahlreich zu speichern.
 
beim bisherigen Wachstum geh ich 2016 maximal von 20TB aus, tendenz weniger.
 
@fraaay: Schauen wir mal wer 2016 richtig liegt.
 
@fraaay: bist du Analyst???
 
@chippimp: Liegen Analysten immer richtig???
 
@chippimp: Ist das Voraussetzung zm Äußern einer eigenen Meinung?
 
@Drachen + maatn: Ihr beide erkennt Ironie und Sarkasmus wohl auch nicht, wenn sie euch ins Gesicht schlagen würde, oder?
 
@chippimp: Ist das nicht schon etwas ausgelutscht, dusselige oder in Deinem vermutlich einfach nur mißglückte Äußerungen nachträglich als Ironie und Sarkasmus umzulabeln und dann den Hinterfragenen Unverständnis zu unterstellen?
 
@fraaay: Ich denke auch. Es gab auch vor kurzem eine Meldung das die aktuellen Verfahren noch grob für 10-16 TB 3,5" HDDs reichen werden. Weiter geht es dann erst mit HAMR, BPM und/oder SMR und diese Technologien müssen erst einmal reifen... Abgesehen davon verstehe ich die Rechnung dieser Leute nicht. Wenn die jährliche Steigerung aktuell 19 Prozent beträgt, dann ist das bis 2016 ziemlich genau Faktor 2 in der Speicherdichte (1,19^4) - Wo soll der restliche "Faktor 7,5" zu aktuellen 4 TB HDDs denn so schnell herkommen?
 
"Die Marktforscher gehen nicht davon aus, dass der Speicherhunger der Anwender in absehbarer Zeit auch nur annähernd gestillt sein könnte." -- Für Server-Farmen mag das Sinnvoll sein... aber bei allem Respekt, 60 TB kriegt man als Otto-Normal-Anwender doch nicht voll?! Ich fände es für Privat-Anwender viel interssanter die Geschwindigkeit anstatt immer nur die Speicherkapazität zu erhöhen...
 
@SynTraX: stimmt.. ich erinner mich noch wie eine dvd damals echt gross war ... komischerweise haben filme heute 10 gb und nicht mehr 700 mb
 
@-adrian-: Da gebe ich dir Recht ! Deshalb beziehe ich mich ja auch auf die normalen Privat-Anwender. Die müssen nicht jeden Film den Sie jemals gesehen haben in FULL-HD aus dem Internet-ziehen und auf ihrer Platte speichern...;)
 
@SynTraX: wenn ich meine Daten zusammenzähle, komme ich auf rund 1,2TB. Allerdings sind davon mindestens 400GB unnötig/Müll.
60 TB - Die wohl niemals volle Festplatte :)
 
@ds94: Das habe ich bei meiner ersten (PC) Festplatte auch gesagt. 8 GB waren damals gigantisch...
Und dann später 160 GB....
 
@ds94: Wenn ich meinen verfügbaren Speicherplatz von 3 Festplatten zusammenrechne, komme ich auf ca 1,5TB verfügbaren Speicher, davon sind 800GB alleine durch knapp 500 Videos (nicht ein Film dabei), 30GB durch MP3s, 80 GB durch Downloads wie Downloadversionen von Spielen, Software und Schwachsinn und knapp 40 GB durch Windows und installierte Programme belegt. Wenn ich bedenke, wie unendlich weit ich vor 10 Jahren mit einer 20GB-Festplatte kam und das heutzutage nicht einmal für einen Teil meiner Inhalte reichen würde, befürchte ich dass wir in nicht allzuferner Zukunft zumindest die 1TB-Festplatten schon müde belächeln werden.
 
@SynTraX: Die Platten sind ja nun nicht nur für Privatanwender sondern vor allem auch für Firmen. Und da fallen schon bei Mittelgroßen Firmen große Datenmengen an die gespeichert, gesichert und archiviert werden wollen.
 
@SynTraX: hmm, ich bin ein Datenmessi... Ich hab zb Rechnungen, Bilder, Fernsehaufnahmen, Bankauszüge usw von vor 10 Jahren noch aufm Rechner... Ich bekomm locker 5TB zuhause voll!
 
@SynTraX: Ich bekomm seit dem 1.April nicht mal mehr die 500gb von meinem Lappy voll ^^ ... Vorratsdatenspeicherung ... Jetzt stürmen warscheinlich gleich 3 Kleiderschränke meine Wohnung, weil ich es gewagt hab öffentlich darüber zu reden ^^
 
@SynTraX: Lächerliche Einstellung, wenn man bedenkt, dass Bilder und Videos immer weiter an Größe zunehmen. Damals zu Zeiten von Windows 95 gab es keine HD-Heimkameras; die 2 GB Festplatten hatte auch kaum einer voll geschafft.
 
Die Bedenken so eine Platte voll zu kriegen sind schon berechtigt. Natürlich werden es immer mehr Daten. Programme werden immer größer und alleine das OS wird nicht kleiner. Dennoch wird es dauern 60 TB voll zu kriegen, was mit Sicherheit geht. Doch sollte das mal der Fall sein sollte man sich auch überlegen wieviele Daten davon wirklich sinnvoll sind und welche nicht. Und vor allem werden die meisten Daten ja nicht per Datenträger auf der Platte landen sondern per Internet. Und da musst schon ne ganze Weile verbunden sein, einen großen temporären Speicher haben und auch da so ziemlich jeden Müll auf deine Festplatte holen.
 
@Tomarr: Wer seine grippten DVD´s durch 1080p Videos ersetzt, vervierfacht den Platzbedarf.
 
@Maik1000: Und selbst dann sind 60 TB sehr schwer zu füllen. Ich wollte mir auch schon einmal einen Filmserver fürs Wohnzimmer aufbauen. Das heißt alle DVDs die ich habe Digitalisieren und die Originale auf den Dachboden. Ich habe mit Serien so um die 280-300 DVDs. Also nicht so unbedingt sehr viele aber halt auch nicht wenige. Aber es reichte am Ende nicht um 2 TB voll zu bekommen. Gut, 1080p Filme brauchen wesentlich mehr. Aber wenn ich bedenke ws für Zeit ich fürs Rippen und speichern gebraucht habe, das war schon sehr lange. Wenn du das ganze jetzt auf Bluray umsetzt und die Menge an Daten hast du von der Zeit her noch immer verdammt lange die 60 TB nicht voll.
 
@Maik1000: verzehnfacht-bis-zwanzigfacht wäre wohl eher richtig (DVD-Image: 4,38GB; BluRay-Image: ~45GB ODER DVD-Rip: 800MB; BluRay-Rip: ~20GB)
 
@Tomarr: bei 300DVD's à 4,38GB wären das knappe 1,2TB, wenn man aber 300BluRay's á 45GB zugrunde legt sind das 13,5TB und wie du schon selbst sagtest sind ~300 nicht SEHR viele
 
@tapo: Na bei mir waren es halt keine 1,2 TB weil aus´ch Serien dabei sind. Aber gut, 13,5 TB da hast noch ein bisschen was vor dir um den Rest voll zu kriegen, bist bei den 13,5 TB aber sicher schon über zwei Monate dabei gewesen. Sicher, man kriegt jeden Speicher voll wenn man es nur möchte.
 
@Tomarr: ich habe keine solche Menge^^ ich meinte damit nur, dass es definitiv auch möglich ist eine solche Datenplatte voll zu bekommen, man kann ja zu den 300BluRays noch k.a. 1.000 Vektorgrafiken oder Grafikprojekte dazurechnen die man evtl in einer Designerlehre/einem Designerstudium anfertigt etc. pp. // Interessant ist eine solche Platte mit sicherheit auch um Festplattenverbünde zu sichern, auch private Systeme ala Homeserver wo evtl. 4 oder mehr Personen zentral Ihre Daten drauf ablegen können.
 
@tapo: Sagen wir mal so, bei uns in der Firma hatten wir einen Server auf dem 180 MAs ihre Daten zentral gespeichert haben. Die Platten waren gespiegelt, und der Platz war unter 1TB groß. Reichte locker 7 Jahre. Grafikagenturen ist natürlich schon ein wenig was anderes, und auch die Filmindustrie dürfte dafür schnell Verwendung finden, mal abgesehen von Webservern. Alles keine Frage. Aber was ich immer wieder erstaunlich finde ist das ausgerechnet Privatpersonen immer wieder das doppelte fordern und noch ein wenig mehr weil es da schon zur Fastpanik kommt es könnte nicht reichen. Wahrscheinlich weil Auch nur Privatpersonen, mich eingeschlossen, auf die Dusselige Idee kommen wirklich alle Filme, sämtliche Musik und überhaupt jeden Müll auf einem Server oder wo auch immer aufheben zu wollen. Stören tut es mich nicht im geringsten, aber ich finde es dennoch immer recht lustig anzusehen.
 
@Tomarr: +1 Naja, evtl. will die Industrie auch nur eindlich mal einen großen Sprung in der Hinsicht machen um sich danach ersteinmal anderen Zweigen zu widmen (z.B. Performance?)
 
@SynTraX: Tja mir fallen da schon eine spezielle Art von Anwendungen ein, die eine hohe Internetgeschwindigkeit und größere Festplatten von Vorteil sind... Besonders wenn man davon eine "sichere" Variante verwendet ist das Sharen von "möglichst viel" von Vorteil oder je nach Variante sogar erforderlich.
 
darauf könnte ich den gesamten internet-download meines ganzen lebens speichern:) wobei ich 80% nie wieder benötigen würde.
 
Die HAMR Technik sollte schon dieses Jahr Festplatten von 20TB ermöglichen. Die letzten Vorhersagen gingen von 8 TB Platten bis Ende 2011 aus und bei Notebooks sollten das 4 TB werden. Da es aber dank der Wettbewerbshüter zu einem Zusammenschluß der Festplattenhersteller gekommen ist, hat sich das wohl erledigt - und an die 60 TB bis Ende 2016 glaub ich genau so wenig !
 
Wenn es nur um die Verdopplung der Speicherdichte geht, müssten doch aber schon 30TB Festplatten am Markt sein...
 
Ich weiss nicht ob das ganze jetzt nur son Gefühl ist, aber ich find in den letzten 1-2 Jahren hat sich HDD-Technisch nicht soo viel getan, langsam werden die 3 TB-Modelle bezahlbar, aber rein prozentual betrachtet empfinde ich die steigerung als wesentlich langsamer als noch vor 4-5 Jahren. 60 TB in 4 Jahren, das wär das 15-fache vom heutigen maximum, kann ich mir ehrlich gesagt nur sehr schwer vorstellen...
 
60 tb nicht voll kriegen doch das geht hab ich heutzutage schon sollte aber erwähnen das ich ne private cloud betreibe für meine freunde und verwandte die schrauben mir wöchentlich ca 2-4 tb aufn server
 
Die Speicherdichte ist heute schon an der letzten Rille, das wird kaum so ungehemmt weiterwachsen. In den letzten 5 Jahren kamen wir von 1 auf 4 TB. Ich würde mir wünschen, das man zB Platten in doppelter Bauhöhe konstruiert, so würde man wohl statt 4 8-10TB reinbekommen, für externe Datengräber ideal, wobei extern natürlich 2,5Zoll das Maß aller Dinge ist, da man sich das Netzteil spart.
 
Ich verstehe die Rechnung nicht. Wenn sich die Speicherdichte wie angegeben verhält ist das eine Erhöhung um den Faktor 2,4 ausgehen von aktuellen Zahlen wären das keine 10 TB.... - wenn ich dann davon ausgehe, dass Hitachi mit 5 Plattern arbeitet, sieht das für mich so aus, als würde erwartet, dass 2016 >30 Plattern verbaut werden?!
 
@DRMfan^^: Dazu kommt noch, dass Festplatten heute noch um Faktor ~1,7 teurer sind als vor den Flutproblemen in Thailand und die Garantien immer weiter reduziert werden - kein vertrauen in die eigene Technik??
 
@DRMfan^^: Es ist wohl eher so, das sich die Festplattenpreise nichtmehr auf Ramschniveau befinden. Da es derzeit nurnoch 2 große Hersteller gibt, wir das auch so bleiben.
 
@Maik1000: Wenn die preise nicht auf Ramschniveau sind, warum haben dann Garantieleistungen, die Ramschniveau vermuten lassen? ;D
 
@DRMfan^^: warum soll man auf Festplatten 5 Jahre garantie geben, man will doch das wenn sie kaputt ist du eine neue kaufst.
 
...das sind dann umgerechnet rund 3 Milliarden Bit pro Quadratmillimeter. Oder anders: 250.000 Seiten Text pro mm² (Normseiten, plain text). Oder anders: 1,25 Tonnen Papier pro mm² (ohne Duplex, 80g/m²). Oder anders: Ein 60 TByte-Platter ersetzt 2,2 Millionen Tonnen Papier. Ehm... Wahnsinn?!? Einfach nur Wahnsinn?!? oO Und irgendwie auch wahnsinnig dumm, das auszurechnen... Ehm... Ja... danke... Gute Nacht.
 
Alter, ich bekomme schon meine 2TB-Platte zuhause nicht voll! o.O
Naja, anders rum ist es mit der Plattenkapazität wie mit dem Hubraum im Auto...
 
Zitat:
"Hierzu gehören insbesondere von den Anwendern selbst erstellte Video- und Audio-Produktionen wie YouTube-Videos und Podcasts, deren Rolle im Netz in den kommenden Jahren einhergehend mit der Verfügbarkeit besserer und preiswerterer Tools und schnellerer Internet-Anbindungen wohl weiter stark steigen wird."

Diese Tools für die Aufnahme, Bearbeitung, usw gibt es bereits jetzt kostenlos auf einem sehr hohen Niveau.
Auf einem so hohen Niveau das sie bereits ihre kostenpflichtige Konkurrenz hinter sich gelassen haben.
Nur sind diese Programme bisher sehr unbekannt.

Bestes Beispiel ist hier der MSI Afterburner.
Kennen viele Leute, aber vor allem zum übertakten der Grafikkarte.
Nur wenige Leute wissen das man damit Aufnehmen kann und das selbst Programme wie DXTory, Fraps und Co weit weg sind.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles