Magnetische Speicherung: 1 Bit in 12 Atomen

Forscher des IT-Konzerns IBM konnten zeigen, dass die Vergrößerung der theoretischen Speicherdichte bei Festplatten noch lange nicht an ihre Grenzen stößt. Wie das Unternehmen mitteilte, gelang es, ein Bit in lediglich zwölf Atomen zu speichern. mehr... Speicher, Atom, Physik Speicher, Atom, Physik

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"kann man in einem Gerät, das heute 1 Terabyte fasst, 100 bis 150 Terabyte unterbringen" - MAn denkt immer das ist das ultimo aber man sieht das es doch immer wieder was besseres geben kann. Super Fortschritt :D - Mehr Datenals zuvor auf der gleichen Speicherkapazität.
 
@BigSushi: Bei solchen Meldungen frage ich mich immer, wo des Ende des sinnvollen erreicht ist. Ich will nicht glauben, dass dies bis an die physikalischen Grenzen so weiter geht...
 
@Antiheld: Ein Ende ist nicht abzusehen und wo die wirklichen Physikalischen Grenzen liegen, kann man auch nicht absehen...
 
@alastor2001: ...doch, denn diese grenzen sind an die machbarkeit gebunden. dieses beispiel hier funktioniert bei 0 kelvin und ist äußerst störanfällig.
 
@laplainstein: Die Forscher suchen weltweit nach Materialien die sich selbst stabilisieren und bei Raumtemperatur funktionieren. UND ein ungeschützter aktueller Computerchip ist so anfällig, dass er von einem einzigen Staubkorn zerstört werden kann... Also, die Sicherheitstechnologien wird sich weiter entwickeln. Was ich sagen wollte, ist, dass es bei der Forschung keine Grenzen und Beschränkungen gibt, da jede beantwortete Frage und jedes gelöstes Rätsel, neue Möglichkeiten eröffnet, aber in der Regel auch tausend neu Fragen...
 
@Antiheld: Es ist immer Sinnvoll mehr Daten in einem "kleinen" Speicherplatz unterzubringen :D. Ist doch Super ^^
 
@BigSushi: und irgendwann: "Ich hab Datenverlust erlitten, weil mein Massenspeicher in der Hosentasche zwischen die Stofffasern gerutscht ist und jetzt kann ich ihn nicht wiederfinden."
 
@Len-S: Vor dem Verfassen eines solchen Kommentars, bitte erstmal etwas Schlau lesen, wie die heutige Technik funktioniert. Nehmen wir als Beispiel einen modernen Prozessor von 45nm Bauweise. Ein kleines Staubkorn allein ist schon um die 100nm groß. Das könnte die Struktur auch direkt zerstören. Dagegen gibt es aber Techniken, die den Chip schützen. Gleiches gilt für die aktuellen HDDs und Flashspeichermedien und wird es auch für moderne Technologien noch geben. Anderes Beispiel sind die OLED-Displays. Größtes Problem ist/war die Lebensdauer, da man die einzelnen Zellen nicht "einfach" isolieren kann. Entsprechende Technologien werden/wurden aber entwickelt und das Problem wird gelöst ;)
 
@BigSushi: Aber was fängt man damit an? Ein Gerät das heute 1TB fasst wäre eine 2,5" Platte bzw. 2 Platter. Soll das heißen theoretische maximale Kapazität eines 2,5" Platters wäre zwischen 50 und 75 TB? Wenn man es nicht einfach erklären kann versteht man es nicht gut genug.
 
@paul1508: Da das ganze noch einwenig dauert werden sie bis dahin auch wissen was sie alles damitanfangen sollen. Ich als Otto-Normal User brauche so viel nicht, aber wer weiß ob Firmen nicht später von profetieren. Vor allem wäre es ja blöde wenn die forschung an einem Punkt einfach stehen bleiben würde oder? Das wollenwir ja alle nicht.
 
@paul1508: Theoretisch schon. Praktisch kann ich mir das aber nicht vorstellen. Stell dir mal vor auch nur der kleinste Staubkrümel kommt an so ein Trägermedium dran. Zack ... schon ist das Atomgitter angeschlagen und du hast "defekte Sektoren".
 
@DennisMoore: Ist doch jetzt nicht anders...
 
@DennisMoore: Ist doch jetzt genauso, lass mal ein Staubkorn auf deine HDD kommen, zack schon hast du Datenverluste!
 
@desire: Jetzt ist das nicht so schlimm. Wir speichern ja noch nicht auf atomarer Basis. Die Enpfindlichkeit dürfte nochmal zunehmen.
 
@DennisMoore: Ja und? Die Geäuse sind doch komplett dicht, daher kein Problem.
 
@desire: Weißt du doch noch gar nicht wie das überhaupt realisiert wird. Ich mache doch nur darauf aufmerksam, dass es noch viel empfindlicher sein wird als heutige Platter. Tust ja gerade so, als wäre die Umsetzung von sowas überhaupt kein Problem und schon völlig klar.
 
@paul1508: Zitat 1996: die 2 Gigabyte Platte bekommst Du nie voll! .................. die Geschichte hat gezeigt: sobald höhere Speicherdichten möglich waren, gab es Anwendungsmöglichkeiten. Und so wird das auch hier sein. Es vergehen vermutlich noch JAHRZEHNTE, bis magnetische Speicher in die genannten Regionen vorstoßen. Bis dahin "brauchen" wir diese Speicherdichten auch.
 
in ein paar Jahren werden wir armanduhren haben und eine Brille die "Uhr" ist der Computer und die "Brille" der Monitor !
 
Die Gretchenfrage: Bei welcher Temperatur findet das Ganze statt??? Sicherlich nahe dem absoluten Nullpunkt! Und Festplatten mit einer Temperatur von -273 °C sind sicherlich nicht so ganz Konsumertauglich. Und wirklich neu ist das auch nicht, Forschergruppen der Uni Hamburg experimentieren schon deutlich länger mit atomaren Bits: http://l.hh.de/FhNeWo und http://l.hh.de/iKGVIX
Update: Der Spiegel schreibt es: -268°C! He, für Fakten und berechtigte Frage bekommt man hier ein Minus. Interessant... und sagt reichlich viel über den naturwissenschaftlichen Bildungsgrad hier bei winfuture aus!
 
@alastor2001: Also ich kann mich noch daran erinnern das Festplatten mit 5, 10 oder 20Mb gigantische Speichermedien waren und bei 80 - 100MB wurde damals gesagt das jetzt das physikalische Ende der Entwicklung erreicht ist. Warum sollen sich also heute die Speichermedien nicht auch genau so rasant weiterentwickeln.
Du kannst dir sicher gar nicht vorstellen mit Datenträgern zu arbeiten die mal 360Kb hatten und vergleich das mal mit heute übliche Speichergrößen. Mit Sicherheit werden in einigen Jahren 150 oder mehr TB ein normaler Datenträger sein der in Massenproduktion hergestellt wird.
 
@alastor2001: Is doch völlig egal bei welcher Temperatur! Schön auf intelligent machen und den Text nicht vernünftig lesen... Mal schauen was steht hier: Zitat Winfuture: "Forscher des IT-Konzerns IBM konnten zeigen, dass die Vergrößerung der theoretischen Speicherdichte bei Festplatten noch lange nicht an ihre Grenzen stößt." Da steht nicht das geringste von Konsumertauglichkeit!
 
@Peacekeeper7891: Ich finde das die Temperatur, bei der die Untersuchungen durchgeführt wurde, schon sehr wichtig sind und in den WinFuture-Text gehören. Denn oberhalb von -268°C verschwindet nicht nur die Kette, sondern auch die magnetisch gespeicherten Informationen. Aber solche Details haben die Redakteure nicht verstanden oder sie wollte sie der geschätzten Leserschaft nicht zumuten... Auf intelligent muss ich nicht machen, da ich mich täglich mit diesem Thema beschäftige...
 
@alastor2001: man geht zunächst ins extrem, um das prinzip zu verstehen - und daraufhin massentaugliches konzept zu entwickeln.
um es mit einer sportmetapher auszudrücken - ich lege mir gewichtsmanschetten beim training an, um meine bewegungen im eigentlichen spiel viel einfacher zu finden - und mich so mehr auf technik und taktik konzentrieren zu können. massentauglich war der zuse z1 auch nicht. massentauglich war auch der patent-motorwagen nummer 1 nicht. vieles, daß wir heute als unentbehrlich schätzen gelernt haben, sah man zu beginn als nutzlose spielerei an. vieles war in der ersten generation so aufwendig in der entwicklung und produktion, daß man heute sagen würde, daß sich das nicht lohnt.
 
@laplainstein: Das ist ja alles richtig! Aber hier geht es um Grundlagenforschung, die absolut nicht anwendungsorientiert ist, sondern sich einfach damit beschäftigt, warum etwas so ist wie es ist. Wenn es anwendungsorientiert wäre würde IBM das nicht bei Science veröffentlichen, sondern versuchen, mehrere Patente daraus zu machen. Das daraus später Anwendungsmöglichkeiten entstehen KÖNNEN, bestreite ich nicht. Aber vom Entwicklungsstand eines ZUSE Z1 ist diese Technologie weit weit entfernt. Alles was hier diskutiert wird ist nur PR-Getöse, in dem Original-Artikel in Science steht davon absolut nichts (http://l.hh.de/TVBfUW). Und führend ist IBM auf diesem Gebiet auch nicht, sondern Forschergruppen aus Deutschland. Aber die deutsche Presse interessiert sich leider nicht für die deutsche Forschung, was im Ausland lustigerweise ganz anders aussieht...
 
"Fünf solcher Anordnungen genügten, um das Wort "THINK" in der üblichen Form durch Nullen und Einsen zu repräsentieren." - Aber nur mit ASCII und das nutzt doch keiner mehr. :p
 
@timmy:
Und alle so :"UNICODE Yeahhhh" :-D
 
@b0a1337: http://geekandpoke.typepad.com/.a/6a00d8341d3df553ef015434abb173970c-800wi :-D
 
@timmy: AHAHAH :-D
 
@timmy: Denk mal ein wenig nach oder versuch es, deine MP3s und deine Videos sind auch nur Nullen und Einsen. Bedauerlich das vielen heute die geringsten Basiskenntnisse fehlen und da kommt dann solch ein Unsinn zusammen.
 
@timmy: was hat ascii mit dem binärsystem zutun?
 
Die andere frage ist eben, wie empfindlich ist so eine Technik - wie lange hält das ganze - bezw bleiben die Daten bei so einer hohen Datendichte gespeichert - bevor Fehler auftreten ... 100 Terabyte Daten auf einmal zu verlieren, das tut dann echt weh..
 
@Horstnotfound: Ich vermute das hat man früher auch bei 100MB Platten und 80GB Platten etc. gedacht. Jedoch vermute ich, dass noch eine Weile vergehen wird bis diese Technik bei uns angekommen ist. Dann sind evtl. aber auch Glaskabel zu deinem Router/SAN etc. standard und 100TB ist gar nichts besonderes mehr. Solange sich die Verbindungen und Datendurchsätze in einem ähnlichen Ausmass steigern sollte das Gefühl mit einer 100TB Platte nicht gross anders sein.
 
@Horstnotfound: Ähm, einzelne Atome die locker auf einer Oberfläche liegen und permanent auf -268°C gekühlt werden müssen... Noch Fragen. Es handelt sich hier um Grundlagenforschung. Ob diese Ergbnisse hemals angewendet werden können oder in ganz andere Produkte münden kann heute noch niemand sagen. Die Pressemitteilung werden natürlich reißerisch formuliert, sonst würde sie niemand beachten. Schlimm ist das WinFuture Pressemeldungen aus Deutschland nicht veröffentlicht (wie auch die meisten anderen privaten Medien). Wie gesagt, Hamburger Forschergruppen brauchten schon 2008 für ein Bit nur 1 Atom und nicht 12...
 
150 Terrabyte, endlich genug Platz für meine Pr0n-Sammlung :)
 
@citrix: kannste endlich alle in fullhd speichern ^^
 
@citrix: Und mit welcher Erde hat das jetzt zu tun?
 
Solange die keinen so coolen Werbespot wie damals der für "Perpendicular" drehen, ist mir die Technik egal :D
 
@LoD14: Der war wirklich genial, sehe ich mir heute noch gerne an^^
 
Ich bin erst beeindruckt wenn sie mit Quarks rechnen können. Und jedes Quark muß auf einem winzig kleinen Abakus aufgereiht sein ^^
 
@DennisMoore: Ich bin erst beeindruckt, wenn Du zu solchen Themen auch mal einen qualifizierten Kommentar abgibst.
 
@localghost: Hab ich schon weiter oben.
 
@DennisMoore: Soviel zum Thema Quark...
 
"Noch mussten die Atome quasi von Hand unter einem Elektronenmikroskop zusammengesetzt werden"...das bezweifle ich sehr! Ein Elektronenmikroskop hat zwar eine theoretische Auflösung von etwa 0.1 nm, in der Realität jedoch erreicht man "nur" einige nm. Wird wohl eher ein STM (Scanning Tunneling Microscope) gewesen sein.
 
@brnd: Richtig, das geht nicht mit einem Elektronenmikroskop, nur mit Rastertunnel- und Rasterkraftmikroskopen...
 
@alastor2001: ja, alastor2001. Langsam wissen wir, dass du den Physik-Leistungskurs belegt hast...
 
@matterno: kein grund ihm ein minus zu geben...
 
@brnd: das meinen sie viel. mit "per hand" ?
 
@mAsTErLi: verstehe deinen kommentar leider nicht ganz...
per hand heißt üblicherweise in diesem fall, dass man mit der spitze eines STM's die atome aufnimmt, sie bewegt und dann wieder absetzt, die steuerung pbernehmen in diesem fall piezo aktuatoren. per hand ist also lediglich eine bildliche umschreibung
 
@brnd: da steht doch "quasi".. ich denke daher, das die meinen, das du nicht einfach mal schnell ein pdf abspeichern kannst, sondern jeden bit einzeln auf die 12atome "manuell" mit einer maschine setzen musst. wenn die maschine das alleine macht(freie atome suchen, "beschreiben", zuordnen, lesen, etc), ohne weiteres menschliches zutun, dann fällt sicher das "quasi per hand" weg... sehe das so, als würde man "sektoren-beschreiben" erfinden, ohne das es eine festplatte gäbe... hoffe ihr versteht was ich meine ^^
 
@mAsTErLi: das "quasi" is mir entgangen ^^
seh ich auch so wie du es in re6 beschreibst
edit: omg das "quasi" hab ich ja sogar mit zitiert, zerstreut *wow*
 
Ich find ja den deutsche Akzent im Video am besten, für uns hätte der Andreas das doch auch auf deutsch erklären können^^
 
Selbst eine 20 oder 50 TB wäre schon der Hammer. Momentan sind es ja maximal 4TB.
 
@tim-lgb: Ja, echt öde. Die 4TB reichen gar nicht für alle Pornos, die man so im eigenen Hause auf dutzenden Festplatten herum zu liegen hat.
 
"... derzeit in der Praxis natürlich noch längst nicht für eine Produktion im größeren Umfang geeignet." das lese ich irgendwie bei jedem Forschungsergebnis von IBM über das hier berichtet wurde. Oder kann mir jemand ein Forschungsrojekt von IBM, sagen wir der letzten 10-20 Jahre, nennen, was man dann auch irgendwo kaufen konnte? Mir fällt spontan nichts ein.
 
ich benötige nicht mal 500 GB brauchen privatanwender 100 TB?
 
@fudda: Pornos
 
@seaman: Wie konnte das nur ausser Acht lassen? ^^
 
@fudda: für otto-normalverbraucher wird diese technik wohl auch noch nach markteinführung unerschwinglich bleiben. aber stell dir mal vor wenn die wirklich großen datenspeicherzentren ihren gesamten datenbestand auf eine handvoll server ablegen könnten. da könnte auf jeden fall ne menge strom gespart werden.
 
@JDP: Da bin ich auch völlig einverstanden damit, da es wirtschaftlich enormen Sinn machen würde. Nur meine Frage war ja ob es hier Privatanwender gibt, die so etwas benötigen würden. Aber das hat seaman ja mit seinem pregnanten "Pornos" kommentar zweifelsfrei beantwortet. :)
 
@fudda: Das fragt irgendjemand immer, wenn eine neue Technologie entwickelt wird... Motorkutschen? Bewegte Bilder? Fernsprechgeräte? Braucht das jemand?
 
Die Kehrseite der Medallie: größere Speicherdichte == steigende Fehleranfälligkeit (sprich ein kleiner Fehler kann schon enorme Auswirkungen haben). Was ich von keiner heutigen HDD erwarten kann ist das, was meine alte 43MB Seagate noch leistet (die Tage mal angeschlossen): 2 Sektorenfehler, sonst ist die Top-Fitt!. Bei heutigen Medien kann man ja schon froh sein wenn diese 2-3 Jahre durchhalten... die genannte Seagate hat bereits bei mir ~rechne~ mind. 17 Jahre auffen Buckel und ich hab die damals gebraucht bekommen. Denke mal mit nem lowlevelformat würden selbst die beiden schlechten Sektoren wieder reanimiert werden.
 
@Stefan_der_held: eine low-level-formatierung reanimiert keine defekten sektoren sondern löscht sie aus der zugriffstabelle der festplatte. diese sektoren werden also nicht mehr verwendet.
 
Ich frage mich eher wann kommt endlich: "Speicherung von 1 Atom in 1 Byte" Beamen wäre möglich
 
Sollte man nicht besser einmal an der Haltbarkeit arbeiten?
Idiotie zum Quadrat!

Gerade in Zeiten mit so hoher elektromagnetischer Strahlung, ist das als gezielter Anschlag an Datenverlust für Naive zu sehen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles