Computer-Leistung hat eine absolute Obergrenze

Forschung & Wissenschaft Die Rechengeschwindigkeit von Computern hat wohl eine absolute physikalische Obergrenze. Diese wollen Wissenschaftler der Boston University nun zumindest berechnet haben. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Das ist keine neue Erkenntnis...
 
@Demagoge: Das sehe ich genauso. Allerdings gibt es noch eingige andere Grenzen, die auf der momentan verwendeten Technologie beruhen. Der größte Bremsklotz ist die Binärlogik. Würden die Computer mit einem "reellen" Zahlensystem arbeiten, könnte die Leistungsfähigkeit der Computer massiv gesteigert werden und das bei gleicher Geschwindigkeit. Diese Grenze von 10 hoch 16 facher Geschwindigkeit kann man nur annehmen, wenn man auf heutige Technologien setzt. Gerade in der Quantenmechanik gibt es so viele Grenzen, die eine Geschwindigkeitssteigerung auf heutiger Technik verhindern würden. Z.B. stellt die Heisenbergsche Unschärferelation (http://de.wikipedia.org/wiki/Heisenbergsche_Unsch%C3%A4rferelation) eine nicht zu überwindende Grenze dar. Von daher müssen andere Wege gesucht werden, um Computer zu beschleunigen.
 
@kfedder: Die Binärlogik macht doch diese Geschwindigkeiten erst möglich. Bedenke bitte, dass bei aller Digitalität auf den Platinen und in den Prozessoren und Controllern die 1 und 0 durch Spannungen repräsentiert werden. Hohe Spannung = 1, keine Spannung = 0. Mit einem "reellen" System hättest du einen unheimlichen Aufwand, die verschiedenen Abstufungen immer korrekt erkennen und übertragen zu müssen. Nur weil dieses System so "grob" ist, können überhaupt solche Geschwindigkeiten erreicht werden, weil die Spannung eben innerhalb von Nano- oder sogar Picosekunden "nur" von 0V auf 3,3V oder 2,5V oder noch weniger gedrückt werden muss. Natürlich gebe ich dir recht, dass es ganz andere Ansätze geben kann und vielleicht irgendwann muss, aber die Binärlogik als Bremsklotz zu bezeichnen ist äußerst gewagt.
 
@kfedder: Was verstehst du denn unter einem"reellen" Zahlensystem ?
 
@drhook: Also, so wie ich es verstanden habe: Reelle Zahlen (|R), also alle positiven und negativen Zahlen inklusive der Null und alle dazugehörigen Dezimalzahlen. (hoffe, dass ich es richtig definiert habe)
 
@kfedder: Du willst also von Digital zurück zu Analog? xD
 
@kron: Da gebe ich dir recht.
 
@kfedder: was hat die heisenbergische unschärferelation damit zu tun??? rueschtuesch nix! und warum soll ein zahlensystem mit mehr zahlen effektiver sein? schau dir einfach mal binär-multiplikationen und potenzierungen an. und du wirst sehen wie effektiv das binärsystem ist :), solche rechnungen gehen dann nämlich nicht mehr so easy
 
@kfedder: "reelles"Zahlensystem? Was ist das? Reelle Zahlen gibt es auch im Dualsystem. Da ist die Basis 2, wir rechnen in unserem täglichen Leben mit dem Dezimalsystem (Basis 10). Das binäre System abzuschaffen ist (derzeit) sinnlos, denn das Rechnen mit Basis 2 ist für einen Computer unabdingbar. Über Quantencomputer muss man nichteinmal sprechen, man kann erklären wie ein solcher Computer funktioniert, aber bauen, noch lange nicht. Jetzt zu den Analogrechnern, diese Rechner können vl. unendlich viele Zwischenwerte annehmen, aber dafür sind diese Rechner ungenau. __________________________________________________ @Demagoge: Man kann nicht sagen, dass das keine neue Erkenntnis ist. Wenn etwas angenommen wird, dann soll das auch bewiesen werden. Wenn man z.B. sagt sqrt(2) ist keine rationale Zahl stimmt das, aber das muss man auch beweisen.
 
@Demagoge: Erkenntnisse von Kindern die noch nicht mal laufen können wenn man das (agenommene) Alter des Universums oder nur unseres Planeten zugrunde legt. Grenzen aufzeigen die sich nicht beweisen lassen finde ich lächerlich.
Die Schallmauer galt auch Jahrzehnte lang als undurchdringliche Mauer und "unabhängig von Technik etc." als undurchbrechbar, da es physikalisch unmöglich sei und als Naturgesetz gälte. Heute lachen wir darüber. Genauso wie es mal ein "Naturgesetz" war, dass Menschen niemals fliegen könnten, egal wie weit die Technik gehe, da es ein Naturgesetz und physikalisch unmöglich war, die Schwerkraft zu überwinden. Das selbe galt für die Idee, ins Weltall zu gelangen. Die Atmosphäre zu durchdringen und ins All vorzustoßen galt auch als physikalisch unmöglich und wurde als Naturgesetz bezeichnet.
Das Naturgesetz der Lichtgeschwindigkeit und das der Rechner-Leistungs-Obergrenze fällt auch an dem Tag, an dem eine Möglichkeit gefunden wird, diese Grenzen zu durchbrechen. Denn ein Naturgesetz wird nur von der Natur vorgegeben und nicht von Menschen, kann aber von Menschen außer Kraft gesetzt werden und das gilt für ALLE Naturgesetze.
 
@Scaver: Schneller als Licht kann nix werden. Man kann sich das so vorstellen: Um ein Atomkern kreist ein Elektron. Dies tut der mit fast Lichtgeschwindigkeit. Wenn man nun das Atom auf Lichtgeschwindigkeit bringt, müsste das Elektron auf der einen Seite fast doppelte Lichtgeschwindigkeit haben und auf der anderen fast stehenbleiben. Da das aber nicht geht, hat man z.B. mit dem Atomuhr-Versuch bewiesen. D.h. das Elektron "weiß" nix davon, dass das Atom sich bewegt, falls es an die Geschwindigkeit des Lichts nahe kommt. Ergo, zerfällt das Atom (so meine Vorstellungen ^^). Das müsste dann Energie freigeben, da das Elektron nicht mehr um das Atom gefangen ist und seine kinetische Energie frei werden würde. Oo. Naja zurück zum Thema: schade, 75 Jahre, das werde ich vermutlich nicht mehr erleben :(
 
@Phantom-Lord: Man merkt, das dir der weitblick fehlt. Das Binärsystem ist nicht der Weißheit letzte Schluß. Man muss immer für alles offen sein. Im Übrigen ist die Welt analog und nicht digital. Und wer sagt denn, das Computer unbedingt mit Strom arbeiten müssen? Wie wäre es denn mal mit optischen Computern auf analoger Basis? Alleine durch den Welle-Teilchen-Dualismus von Licht ließen sehr schnelle Computer realisieren, da Licht sowohl eine elekromagnetische Welle, als auch ein Teilchen sein kann, was sehr viele Möglichkeiten bietet. Auch der Frequenzbereich von Lincht ist nicht zu verachten. @Sebush McChill: Die "Heisenbergische Unschärferelation" hat sehr wohl etwas damit zu tun. Mit heutiger Technik erreicht man eine Beschleunigung u.A. durch miniaturisierung. Wenn man dann irgendwann auf atomarer Basis angelangt ist, treten die Effekte auf, die in der Heisenbergische Unschärferelation beschrieben sind. Zustände lassen sich nicht mehr genau festlegen, was zu massiven Fehlern führen würde.
 
@NewsLeser: damit liegste wieder etwas falsch, das elektron um den kern fliegt dann immernoch mit fastlichtgeschwindigkeit, aber da die relativitätstheorie greift und sich damit die zeit des beschleunigten atoms verzerrt (bewegte uhren laufen langsamer) macht das keinen unterschied.
 
@kfedder: Ich habe auch nie gesagt, dass das Binärsystem das Maß aller Dinge ist. Des Weiteren habe ich nie von "Computer müssen mit Strom arbeiten" gesprochen. Ich habe dir gesagt, dass es kein "Reelles Zahlensystem" gibt. Analoge Computer sind vielleicht schnell, aber ungenauer als digitale. Vorteil von analogen Computern ist auf jeden Fall die Ausführungsparallelität. Unter anderem gab es in den 60er Jahren Analogrechner, nur wurden diese aufgrund der geringeren Genauigkeit und dem engen Anwendungsbereich (gewöhnliche Differentialgleichungen) nicht weiterentwickelt. Dass optische Hilfsmittel hilfreich sind ist auch in der Datenübertragung zu erkennen (sonst würde es nicht so viele Glasfasernetze geben), zudem wird an optischen Chips geforscht, welche eine schnellere Datenverarbeitung ermöglichen können/werden/sollen. Der Welle-Teilchen-Dualismus sagt eher aus, dass Licht Wellen- bzw. Teilchencharakter besitzt und nicht, dass es einmal Teilchen und einmal Welle ist.
 
@Phantom-Lord: Warum sollte man den Ansatz aus den 60er Jahren nicht fortsetzen? Im Grunde genommen habe ich mit meiner Aussage des Welle-Teilchen-Dualismus von Licht nicht unrecht.
 
@kfedder: Persönlich hätte ich nichts dagegen, wenn auch verstärkt auf dem Gebiet der Analogrechner geforscht wird. Auch einer Weiterentwicklung auf dem Sektor der Hybridrechner (analog/digital) ist nichts entgegenzusetzen.
Zum Welle-Teilchen-Dualismus: Licht ist weder Welle und/oder Teilchen. Am besten einen Physiker fragen :-)
 
@Scaver: Welches echte Naturgesetz hat der Mensch denn bis heute bitteschön außer Kraft gesetzt?
 
@Aspartam: Ansatzweise die Schwerkraft.
 
@>ChaOs: Eine Kraft aufzuheben, indem man ihrer Wirkung auf die eine oder andere Weise entgegenwirkt heisst nicht, dass man die Naturgesetze ausser Kraft setzt.
 
bin bis dahin vllt schon tot
 
@Ryokan: Ich wäre 101. Denke auch nicht, dass es mich da noch gibt in 80 Jahren
 
@Ryokan: Und ich bin dann 120 :).
 
@Ryokan: Wenn du dich anstrengen würdest und so schnelle Computer erfinden könntest, würdest du auch nach deinem Tod weiter leben.
 
@Ryokan: na immerhin hast du noch chancen, von mir gibts dann nur mehr die knochen, sofern sie mich nicht schon wieder ausgegraben haben. :))
 
@Ryokan: Ich wäre da schon 85
 
@Ryokan: Also ich wär in 70 Jahren 92..von daher(zocken würde ich immernoch wenn ich noch lebe xD)..aber wenn ich richtig gerechnet habe wäre das die 100000000000000000fache Rechenleistung von heute...also mir würde das reichen^^
 
@DionysoZ: Ich wäre dann 176.
 
@Ryokan: das wäre im günstigstem Falle THEORETISCH in 80 Jahren erreichbar.. warscheinlich wird es eher "nie" erreicht werden. Und außerdem: Wie bewertet man denn Leistung? in Bezug auf was? .. auf die Größe des Engerätes? auf den erforderlichen Stromverbrauch... ??
wenn ich 10000PC's an einem Projekt parallel rechnen lasse, hab ich auch mehr Leistung als mit einem.. aber ist das dann Leistungszuwachs? Ein Bezug wär mir schon irgendwie Lieb.
 
@Ryokan: Genau das ist die Einstellung, die viele heutige Unternehmer (und Politiker) Dinge machen lässt, die unsere Lebenserwartung nicht erhöhen, sondern evtl. drastisch verkürzen . . wenn z.B. das Atommüllendlager "hochgeht" und unser Grundwasser verstrahlt wird. Dann können wir in Norddeutschland mal die Zelte abbrechen.
 
@Ryokan: Da lest ihrs "moorsches gesetz" kann ja nix dran sein :) ne aber mal im ernst ich denke, dass wird schneller gehen bis wir die obergrenze erreicht haben. p.s.: ich glaube nicht dass die lichtgeschwindigkeit die "geschwindigkeitsbegrenzung" ist.
 
10 hoch 16-fach der schnellsten, heute verfügbaren supercomputer *sabber*
 
@Morc: da läuft Crysis bestimmt mit höchsten Einstellungen... sry ich konnts mir nicht verkneifen^^
 
@JasonLA: Wollt gerade schreiben..... @Morc Du wirst nichtmal heutige Supercomputer ausreizen, also sabber nicht.... Auch privat wird es wohl kaum einer ausnutzen können, dennoch gibt es Einsatzgebiete wo die Leistung erforderlich ist.
 
@JasonLA: Da kannste dann auch GTA4, Crysis und Crysis WARHEAD gleichzeitig drauf zocken und du hast immernoch 5000FPS^^
 
@Morc: wenn du schon bei solch banalem zeug anfängst zu sabbern, möcht ich dich nicht sehen, wenn du mal deine erste frau nackt (nicht deine muddi!) siehst
 
@Viceinator: nich wirklich, games sind idr immer noch gpu und NICHT cpu-limitierend
 
@muesli: Und wenn schon? Niemand hat etwas von CPU gesagt, es ist vom Computer die Rede und nicht nur von der CPU
 
@Morc: Wie gesagt, wäre das wenn ich net falsch liege das 100000000000000000fache...reicht doch xD
 
@DionysoZ: Wären bei sagen wir mal 4ghz = 400000000000000000ghz(richtig?) = 355,27136788005009293556213378906 YottaHz
 
@DionysoZ: Geschwindigkeit wird bei PCs nicht über den Takt der CPU gemessen.
 
@DionysoZ: Das wort heißt Nucular. NUCULAR
 
@Maetz3: +++ hahahahahaha... zu geil die folge!
 
@muesli: Wenn du eine CPU mit 10.000.000.000.000.000-facher Geschwindigkeit heutiger CPU's hast... dann kannste darauf 3mal Crysis anmachen und die CPU übernimmt die Arbeit der GPU :)
 
@muesli: ray tracing?
 
@Viceinator: nicht mit vsync :D
 
@muesli: betroffene hunde bellen...
 
@Arhey: was hat das damit zu tun, ob ich die dinger ausreize? schonmal daran gedacht, dass sich durch die viel höhere geschwindigleit ganz andere einsatzgebiete ergeben?
 
Blödsinn. Parallelisierung ist das Zauberwort!
 
@fubu1: Ich gehe mal davon aus, dass die Jungs nicht dumm sind und haben das mit bedacht...
 
@Radi_Cöln: Also ich denke mit dem Teil ihrer Aussage "Kein System wird über dieses Limit hinausgehen können. Es hängt nicht davon ab, welcher physikalischen Natur es ist, wie es aufgebaut ist, welche Algorithmen für die Berechnungen genutzt werden, oder was für Hard- und Software zum Einsatz kommt. Diese Grenze steht als Naturgesetz, wie auch die Lichtgeschwindigkeit" lehnen sie sich etwas weit aus dem Fenster.
Wer weiß vielleicht gibt es irgendwo im Universum schon bedeutend schnellere Rechner wo Aliens schon Crysis 9 flüssig drauf zocken^^
Vielleicht stellt man auch irgendwann fest, dass die so "verlässlichen" Gesetze Quantenmechanik usw. garnicht soo verlässlich sind.
 
@fubu1: nix blödsinn ...du kannst mit der entsprechenden mathematik ..die im grunde recht trivial ist, nachweisen, dass bestimmte probleme sich bestenfalls in einer bestimmten zeit lösen lassen. wobei zeit hier mehr rechenschritte meint (sehr vereinfacht). genauso kannst du beweisen, dass bestimmte probleme nicht berechenbar sind. ich denke ähnlich werden sie es auch gemacht haben....kannst ja versuchen die folgerungen zu verstehen und dann zu zeigen dass parallelisierung der schlüssel ist....aber ich denke mal du wirst scheitern.
 
@rockCoach: Meiner Meinung nach wird es auch da Wege geben vielleicht auf andere Materialien/Techniken zurückzugreifen die dann noch mehr Leistung zulassen. Das/Die Material/Technik muss eventuell erst erfunden werden. Vor ein paar Hundert Jahren war Elektrizität auch noch nicht bekannt.
 
@Bamby: Vielleicht sollten wir uns einfach ein paar neue Grundbausteine für neue Atome einfallen lassen -.-
 
@Radi_Cöln: Irrtum. Wenn du 100 Tasks hast die von 100 recheneinheitem berechnet werden brauchst du z.b. 100sec.. Wenn du nun die Recheneinheiten verdoppelst und, die 100 Tasks daruf aufteilst dann brauchst du weniger zeit. Ist wie mit arbeitern und dem dreisatz den keiner kann. Nebenbei sollte es wirklich mal funktionierende quanten systeme geben wäre das ergebniss eh in dem moment da wo die eingabe statfinden würde da es bereits vorliegt und nur abgerufen werden müsste. Ich liebe QP =). Nebenbei denke ich wenn es über die physikalische grenze könnte, würde die einfgluss auf die raumzeit nehmen. Das würde dann therotisch was bedeuten ... ?(!) :)
 
@zaska0: man kann aber nicht alles parallel ausrechnen.
Einfaches Beispiel: Berechne mir die Fakultät aus 2500.
Egal wie viel kerne, du kannst das Teil nur in einem Thread laufen lassen.
Daran liegt ja das Problem, es gibt aufgaben die vom Vorgänger abhängig sind. Je mehr Threads erstellt werden desto mehr Overhead entsteht zudem. irgendwann verbrät der overhead die kerne zu syncen den leistungsgewinn. Also gibt es schon eine Grenze.
Beispiel mit den Threads und OVerhead: Am Anfangs jonglierst du mit einem Ball __> super einfach. Danach 2, geht auch noch. Bei 4 musst du dein Hirn schon ganz schön anstrengen. Und bei 10 musst du dich so sehr anstrengen das du das alles nur noch sehr langsam machen kannst.
 
@fubu1: Wenn man so eine allgemeine Aussage trifft wie die, dann hast Du recht. Ich stelle einfach zwei der schnellsten Systeme nebeneinander und habe die doppelte Leistung. Bestimmt haben die aber irgendwelche Einschränkungen, die hier nicht angegeben sind.
 
@fubu1: sehe ich nicht so, denn um etwas zu parallelisieren braucht man ebenfalls rechenleistung (solange sich die Aufgaben nicht wie Strom oder Flüssigkeiten von alleine verteilen) und bei steigender parallelisierung steigt auch die dafür nötige verwaltungsrechenleistung... somit ist auch dort ein grenzwert zu erwarten.
 
@Timurlenk: und dann kannst du 1+1 doppelt so schnell berechnen? Ich denke mal nicht... Du kannst nur mehr berechnen, aber Einzelaufgaben werden nicht schneller
 
@tavoc: Stimmt schon, was du sagst jedoch wie ich sagte bräuchte man bei quantencomputern keinerlei berechnungen mehr, da das ergebniss ja bereits da ist und nur abgerufen werden muss. Siehe daz mal Post 13 2´ter link. D.h. dann nämlich "zeitreisen". Wobei ja bereits "bewiesen" ist, das der im artikel erwähnte lichtimpuls bereits vor seinem physikalischem abschicken wieder eingetroffen ist. Quasi zurück in der zeit ging um im jetzt wieder zu erscheinen. Dies "stützt" meine" aussage, das das ergebniss bereits bekannt ist und nur abgerufen werden muss. Von der "gefährlichkeit" dieser systeme/sachen in meinen augen möchte ich hier jedoch erst garnicht reden. Die frage die sich mir dabei stellt ist, in wie weit das, die Metaphysik beeinflusst, weil ja sämtliche sachen irgendwie zusammen hängen. Ich denke mal es wird diesbezüglich irgendwann mal ein böses erwachen geben und bin der meinung,, das wir damit irgenwann in einem paradoxum landen. Desweiterem bin ich bin der meinung, nicht alles was machbar wäre sollt sich der mensch zu eigen machen bzw. es versuchen.
 
@Timurlenk: tavoc hat recht. Wie willst du 1+1=2 auf zwei systeme verteilen?
 
@zaska0: das problem bei parallelisierung ist aber auch der overhead, der durch die koordination der verteilung entsteht. ab einem gewissen grad würde mehr leistung dafür benötigt, als für die berechnung selbst zur verfügung steht.
 
@moniduse: Hat tavoc doch schon gesagt und ich habe dem teilweise zugestimmt. Meine antwort darauf kann du auch in re:11 lesen.
 
@zaska0 & tavoc: Ihr habt Recht. Aber es wurde ja nicht die Einschränkung auf serielle Probleme gemacht. Ich kann 1+1 in 1 Schritt auf 1 System berechnen und mit 2 Systemen wird es nicht schneller. Aber wenn ich 1+1 und 2+2 berechnen muss, dann sind 2 Systeme doppelt so schnell wie 1 System, da ich beides gleichzeitig berechnen kann. Das meinte ich eben mit Einschränkungen. Ich brauche nur das Problem zu verdoppeln und schon kann ich mit doppelt so vielen Systemen die doppelte Rechengeschwindigkeit erreichen - solange die Probleme nur unabhängig voneinander sind. Neben den vollständig parallisierbaren Aufgaben gibt es auch teilparallelisierbare Aufgaben. Ein Beispiel ist das Ermitteln der größten Zahl aus einer Menge mit n Zahlen. 1 System muss jede Zahl einmal anfassen und braucht daher mindestens n Schritte. 2 Systeme sind fast doppelt so schnell, da jedes einzelne das Maximum aus einer Hälfte ermitteln kann und dann nur beide Maxima verglichen werden müssen, also brauche ich n/2 +1 Schritt. Mehr Systeme können das noch schneller machen. Und neben solchen Problemen gibt es serielle Aufgaben, die überhaupt nicht parallelisiert werden können. Ein Beispiel ist eine Strömungssimulation: Ein Zustand kann sich nur aus dem Zustand davor errechnen lassen. Ich kann nicht die nächsten 1000 Zustände parallel berechnen. Solange aber die Macher der obigen Idee nur allgemein von Rechengeschwindigkeit sprechen, liegen sie definitiv falsch, da ich immer zwei unabhängige Probleme mit zwei Systemen schneller berechnen kann als mit einem System.
 
@moniduse: Das Problem der Verteilung besteht aufgrund der Technologie. Wenn ich gleichzeitig zugreifbaren Speicher hätte, dann könnte ich mit allen Systemen gleichzeitig starten und hätte keine Problem. Kann man sich vorstellen wie eine Klausur mit 10 Aufgaben, die per Beamer an die Wand geworfen wird. 10 Studenten können die 10 Aufgaben gleichzeitig bearbeiten: Student 1 startet mit Aufgabe 1, Student 2 mit Aufgabe 2, ... So einfach habe ich die Rechenleistung verzehnfacht. Funktioniert aber nur, wenn die Aufgaben unabhängig voneinander sind. Aufgaben wie: "Nehmen Sie das Ergebnis aus 1) und berechnen Sie...." funktionieren da nicht.
 
@florianwe23: "nachweisen, dass bestimmte probleme sich bestenfalls in einer bestimmten zeit lösen lassen" mathematik ist etwas, was der mensch erstmal perfekt beherrschen muss, um zur aussage zu kommen, dass etwas irgendwann keine höhere leistung mehr erzielen kann. nehmen wir mal was ganz triviales wie die division. in unserer schulmathematik wurde uns eine division beigebracht die natürlich zum ziel führt. doch schon vor langer zeit hatte, ich glaube ein russe (die sollen ja in mathe gut sein), einen anderen weg der division aufgestellt. der im verlgiech zu unserer "normalen" division gerade bei aufwändigeren, größeren zahlen um ein vielfaches schneller ist bzw. weniger rechenschritte erfordert. wie kannst du also behaupten, dass ein problem nur in bestimmten rechen_schritten_ lösbar ist, wenn du gar nicht alle möglichen rechen_wege_ kennen kannst?! und damit kommen wir zu den im text stehenden "algorithmen". ich bin der meinung, auch wenn die jungs dort vllt was drauf haben, dass gerade algorithmen dass ziel der immer leistungsfäigeren rechner werden. denn da kann keiner sagen oder beweisen, dass es da eine obergrenze gibt. allerhöchstens für unsere intelligenz, also wenn wir als menschen z.b. zu blöd wären einen algorithmus wie den doch recht einfachen quicksort auszuklügeln und unsere intelligenz nur für den buublsort algorithmus reichen würde. da könnten wir doch aber auch nicht sagen, dass unser bubblesort das maß aller dinge ist und es nichts besseres geben kann, oder? nur weil unsere intelligenz nicht weiter reicht! natürlich heißt das nciht, das algorithmen unendlich leistungsfähig sein können, aber es wird immer einen besseren weg geben können. physikalisch, klar, da wird es irgendwann grenzen geben. mit heutigen materialien und techniken und mit zukünftigen techniken und materialien genauso. aber algorithmus, woran macht sich sowas wie alogithmus fest?! wie kann man da beschrieben, dass es dort eine obergrenze geben kann und dass diese auch noch stimmt?!gerade da im text auch die theortische informatik genannt wurde, kann ich diese erkenntnis nicht glauben, vor allem weil auch (zumindest im text von WF) kein einziger bezug oder nachweis geliefert wird, wie oder warum die jungs zu dieser erkenntnis gekommen sind. früher dachte man, alles in der mathematik ist vorllkommen. aber als man feststellte, dass man wurzel 2 nur als wurzel 2 darstellen kann, haben die mathematiker auch erstmal geguckt und waren verwirrt. in einem anderen mathematischen system, könnte man die wurzel 2 vllt doch auch anders darstelen. wer weiß das schon?! dass man gewisse probleme nicht berechnen kann, da hast du recht. aber wer sagt das?! nur wir, mit unseren heutigen mitteln und erkenntnissen! und wir sind sicher nicht das maß aller dinge. also nur weil wir mit heutiger uns bekannter mathematik z.b. das halteproblem nicht lösen können, heißt es noch lange nicht, dass wir oder irgendetwas anderes es niemals werden lösen können. vieles was schon mal bewiesen wurde, wurde irgendwann auch nicht bewiesen oder als nicht beweisbar deklariert! oder was auch immer. wir sind nicht perfekt und können uns mit solchen "erkenntnissen" niemals sicher sein. erst recht nicht, wenn algorithmen im spiel sind, denn die müssen nur gut ausgeklügelt sein, und wer schreibt da vor, dass intelligenz eine obergrenze hat?! gott???
 
sagt mal, habt ihr Matrix 1 - 3 nicht gesehen?^^
 
@laboon: Schöner Text (+)
 
@laboon: Zu viel zum lesen.
 
Das Erreichen dieser Barriere werde ich wohl zu meinen Lebzeiten nicht mehr schaffen. Zumindest nach dem heutigen Stand der Medizin. :-P
 
@Homer34: Ich wahrscheinlich auch nicht, aber ich wäre schon gerne dabei, wenn der "beste Computer der Welt" zum Einsatz kommt.
 
@Demagoge: Selbst wenn du unsterblich wärest würdest des ned erleben. Weißt ja: "Packst du ihn aus ist er schon veraltet" :D
 
@rockCoach: Das könnte man jetz mehrdeutig sehen LACH
 
@Demagoge: "beste Computer der Welt" ist und wird immer zeitbedingt sein...
 
@laboon: Genau darauf wollte ich mit meiner Aussage hinaus.
 
@Demagoge: sicher? ich meinte eigentlich eher, dass es heute einen "besten computer" der welt gibt. es wird einen in 50 geben, der der beste der welt ist und besser ist als der heutige, einen der in 80 jahren der beste der welt ist und besser als der vor 50 jahren und einen der in 200 oder 2000 jahren, der der beste der welt ist und besser als der jeweilige davor, usw....
 
@laboon: Ich weiss. Die Gänsefüßchen sollten die Ironie verdeutlichen.
 
@Demagoge: ahh okay. :) benutze diese selbst auch oft dafür und habs jetzt selbst nicht gemerkt. :)
 
Ich würde ja einen Rechner genial nennen, der schneller arbeitet, als Lichtgeschwindigkeit. Der könnte mir dann quasi die Antwort auf ein Problem geben, die ich noch garnicht gestellt habe. ^_^
 
@Sehr-Gut: 42?
 
@Sehr-Gut: nicht wirklich
 
@Tiger_Icecold: LOL der war gut^^ Verstehen nur bestimmt nicht so viele hier^^
 
@Tiger_Icecold: Geil^^
 
@Sehr-Gut: Also ich sehe das auch so das es irgendwann ein maximale Grenze gibt. Aber hab mal auf einen der Dritten Tv-Programmen(BR) mal gesehen, das es noch den Tunneleffekt gibt. Das heißt, dass das Ergebnis schon vor dem Ereignis da ist. Wie das nun genau funzt ist mir nicht bekannt, aber ist somit schneller als das Licht. Die haben das mit Musik gemacht und das Lied war schon vor dem abspielen zu hören.
Ok, es waren Bruchteile einer Sekunde aber messbar.
 
@Tiger_Icecold: Wer will schon die Antwort auf den SdL erhalten :) - Werde mir die aktueller Version des Streifens heute noch mal reinziehen. _____@ SpiritOfMatrix: Da gab es doch auch mal ein Video, welches den Effekt zeigte, wenn man sich schneller als das Licht bewegen würde. Mit einer Geschwindigkeit, schneller als das Licht, würde man zumindest theoretisch eine Zeitreise tätigen.
 
Nach dem heutigen stand der Wissenschaft... hätte man vor nen paar hundert jahren den Menschen ne Mikrowelle vorgesetzt, die hätten dich als Hexe aufm Scheiterhaufen verbrannt :) Alles geht weiter und die Lichtgeschwindigkeit knacken wir auch noch =D
 
@Lothier: Ja, Sie wird vom DEVIANCE Team gehackt :)
 
@Lothier: nunja alle experimenten zeigen, dass diese nicht zu knacken ist. ferner musst du bedenken, dass es seinerzeit bei den grillpartys keine naturwissenschaftler gab...das war ja auch hexenwerk. auch wenn ich persönlich es für abwegig halte, ist es vieleicht möglich, dass bestimmte aspekte aus der relativitästheorie nicht passen (zumal sie ja mit der quantenm. nicht ganz zu vereinen ist).
 
@florianwe23: Was ich damit meinte war eigentlich nur... in 80 Jahren kann noch so viel passieren... ich gehe einfach mal davon aus, dass wir bis dahin durchaus noch zu anderen Planeten als den Mond fliegen. Es wäre also z.B. ohne weiteres möglich neue Elemente / Stoffe was auch immer zu finden die Computer bei weniger energie mehr leistungsfähiger machen usw. (Schwer zu formulieren, aber ich hoffe, ihr wisst was ich meine :) ). Jetzt einfach zu sagen, war schön aber in 80 Jahren ist ende ist der größte Müll den ich je gehört habe :)
 
@florianwe23: Es gab schon ein Experiment bei dem Wissenschaftler(ich glaub das waren Japaner oder so) bei dem Partikel und bestimmten Vorraussetzungen, über Lichtgeschwindigkeit beschleunigt wurden! Es kann also gut möglich sein dies auch unter normalen Umständen eines Tages zu erreichen! Man sollte niemals Naturwissenschaften und deren Gesetze als vollkommen und Fehlerfrei hinnehmen!
 
@Fonce: Dieses Experiment halte ich für Blödsinn, da alles dem Prinzip der Ursache und Wirkung folgt. Aber vll ist unser menschlicher Verstand auch nur zu klein und logisch zu weit eingeschränkt, wer weiß!?

Ich kann zum Thema Überlichtgeschwindigkeit folgenden Beitrag von Alpha-Centauri empfehlen:
http://www.br-online.de/br-alpha/alpha-centauri/alpha-centauri-ueberlichtgeschwindigkeit-harald-lesch-ID1207829256005.xml
Alternativ bei Youtube eingeben: "Gibt es Überlichtgeschwindigkeit?"
 
@Fonce: Und nochmal der selbe Link zu dem Experiment das die ganze Physik auf den Kopf stellen soll ohne sie wirklich auf den Kopf zu stellen: http://www.wissenschaftwissen.de/Physik2.html. Abgesehen davon hat es sich dabei nicht um Partikel (Festkörper, Teilchen was auch immer mit einer Masse) gehandelt.
 
@[Elite-|-Killer]: Alles hat eine bestimmte Masse, selbst wenn wir Sie heute nicht Messes können. Wenn es möglich ist irgend etwas schneller werden zu lassen als das Licht werden wir auch eine Möglichkeit finden beliebige Dinge schneller werden zu lassen. Außerdem sollte wie schon erwähnt nicht davon ausgehen das die Gesetze wie wir Sie kennen immer bestand haben werden. Auch Leute wie Einstein usw. hatten nicht immer mit allem recht wie wir heute wissen, aber Sie haben neue Denkprozesse und Sichtweise ermöglicht. Das einzige Wissen was wir besitzen ist das wir eigentlich nichts wissen.
 
@Fonce: Wieso soll nun plötzlich auch Licht eine Ruhemasse haben? Hast du dafür irgendwelche halbwegs vernünftigen Quellen?
 
@Altmeister: Ich tippe auf GENESIS, die werden das Rennen machen.
 
Da ist Intel also in 80 Jahren bankrott.
 
gut das ich in 70-80 Jahren in einer anderen Galaxie leben werde, physikalischen Barrieren??? Dort niemals.

Wobei am 21.12.2012 die Welt eh unter geht von daher :-)
 
das relativiert sich alles von selbst. In 10 Jahren haben wir 64 Kern Prozessoren mit je 20 Ghz und das reicht dann geradeso mal zum betreiben von Windows 10 :-P
 
@Kuririn: 20GHz??? Ahja^^ [sarkasmus]War da nich was mit eine physikalischen Grenze???^^ Könnte schwören, ich hatte sowas mal in meiner Ausbildung^^[/sarkasmus]
 
@Viceinator: an sowas kann ich mich auch dunkel erinnern, aber Grenzen sind ja zum überschreiten da, oder nicht? :-D
 
@Kuririn: Stimmt. So ich bau mir denn mal meinen neuen Intel Core4Hexa ein mit 255THz :)
 
@Kuririn: Gugg mal oben was ich geschrieben hab. Wenn du das relativ nimmst und das stimmt, und du das runterrechnest durch 10(wenn ich jetz 80 Jahre nehme) dann sind das mehr als 20ghz xD
 
@DionysoZ: stimmt aufallend, nur das ich einen fiktiven Stand in 10 Jahren beschreibe und nicht in 80...
 
@DionysoZ: ich baue einen chip, der 1+1 in 10 taktschritten rechnen kann. intel/AMD baut einen chip, der 1+1 in 5 takten rechnen kann. beide chips können mit 10 MHz betrieben werden. meiner kann aber auch mit einer maximalen frequenz von 20 MHz betrieben werden. der oder die chips von Intel/AMD leider nicht, da diese nicht so moderne techniken verwenden, wie der chip von mir. welcher chip ist bei welcher taktrate deiner meinung nach schneller? der von mir, weil höhere taktrate?!? ist alles nur fiktion von mir, aber denk mal drüber nach. taktrate und taktschritte... das sollte einem zu denken geben. taktrate (also taktschritte in GHz, MHz oder sonstwas) ist niemals ein garant für die zuverlässige aussage, wie schnell ein chip ist. was bringt es mir, einen chip zu betreiben, der zwar mit 10 GHz taktet, aber 50 mal mehr taktschritte brauch, um ein problem zu lösen, das andere chips, mit eben weniger taktschritten berechnen und nur 7 GHz takten?! machts klick?? da ist der chip mit 7 GHz um so einiges leistungsfähiger, als der chip mit 10 GHz!
 
Die Computer werden immer kleiner, wäre es denn da nicht möglich zwei Prozessoren in einem zu vereinen?
Ich persöhnlich kann mir nicht vorstellen, das rechenleistung in einem Phsysikalischen gesetz seine Grenzen findet, obwohl Rechenleistung ja eigentlich Virtuell ist.
 
@ds94: "wäre es denn da nicht möglich zwei Prozessoren in einem zu vereinen" - Und was sind für dich Dual und Quad Core ?!
 
@Mad-Evil: Kerne sind keine CPUs
 
@ds94: persöhnlich? Kommt das von Persohn/Sohn? DU V0LL DUMM!!!
 
@DionysoZ: Babyschnitzel stammen von keinem Baby :o)
 
@ds94/Mad-Evil: Abgesehen von Bus und ggf. Caches sind Dual/Multi Core CPUs vollkommen replizierte Einheiten mit zwei oder mehren eigenständigen Prozessoren. Also von was soll man also bitte nun noch mehr auf einen Chip pressen, damit die Aussage Sinn macht?
 
NOOBS! ^^
http://www.heise.de/tp/r4/artikel/8/8413/1.html

http://www.heise.de/newsticker/meldung/Schneller-als-mit-Lichtgeschwindigkeit-32271.html
 
@asd3322: http://www.wissenschaftwissen.de/Physik2.html
 
@[Elite-|-Killer]: :(
 
Ich finde es ERSCHRECKEND wie viele hier so eine Meldung einfach so hinnehmen und nach dem Motto "Ja, hab ich mir schon so gedacht" abhaken. Ohne auch nur ansatzweise die Methoden zu kennen, wie diese ANGEBLICHE Obergrenze errechnet worden sei. Noch dazu kommt, dass es ja wohl ein schlechter Witz ist, dass es nur von einer Uni kommt. Oh Mann, denselben Mist erzählen sie schon seit den Anfängen der Computer und manche glauben es immer noch.
 
@angel29.01: "nur von einer Uni" ist eher der schlechte Witz. Nicht viele Professoren würden sich an einer Universität niederlassen, wenn ihnen nicht auch qualitativ hochwertige Forschungsmöglichkeiten angeboten würden.
 
@angel29.01: absolut! da kann ich dir nur recht geben. liegt aber vllt auch eher daran, dass Winfuture jetzt nicht gerade so das wissenschaftsmagazin ist, bei dem sich die meisten leser auch noch den kopf über bestimmte meldungen zerbrechen...
 
Frage mich nur was wäre wenn sich irgendwann einmal einer verrechnet hatte. Oder Mathematik im allg. fehlerhaft ist. Wenn Lichtgeschwindigkeit gar nicht Lichtgeschwindigkeit ist und sich hierbei einer geirrt hatte. Naja egal später ist jeder schlauer ^^ abwarten und tee trinken.
 
@Maetz3: Hä? LIchtgeschwindigkeit nicht lichtgeschwindigkeit? Was soll es denn sein? Nen Teekässelchen?
 
@Maetz3: Für sowas gibt es ja bweise mathematischer Art. Und diese beruhen auf gegebenden Grundlagen. Es müsste sich also schon zugrundeliegende Physik ändern, wenn das nicht mehr stimmt.
 
was haben sie letztens geschrieben? in den 40er jahren haben die Wissenschaftler gesagt, das in 50 Jahren (1990) normale Computer "nur noch" 1,5 Tonnen wiegen... denk eher, das nach dem heutigen Stand der Technik in 70-80 Jahren das Limit erreicht wird. Aber möglicherweise geht die Technik in 20 Jahren in eine ganz andere Richtung. Von daher denk ich nicht, das man auf solche Prognosen viel geben kann
 
@deDigge: Eine Vorhersage über 70-80 Jahre ist reine Science-Fiction. Die Entwicklung geht einfach zu schnell als das man alles vorhersagen könnte. Du kannst vielleicht eine Technologie abschätzen, aber keine Aussage über neue Entwicklungen machen. Vor 80 Jahren hatte kein Mensch auch nur die Idee von Computernetzen. Selbst Computer gab es noch nicht (nicht im heutigen Sinne). Der erste programmgesteuerte, binäre Rechner war die Z3 vor 68 Jahren. Eine Prognose 80 Jahre in die Zukunft ist also reine Phantasie.
 
finde interessant das es schon in 80 jahrne soweit ist :) na ja dann bin ich 105 ma sehen ob ich da noch was mitschneiden kann :)
 
jetzt fehlt noch ... niemand wird jemals einen so schnellen rechner benötigen ... :D
 
kurz noch was zum hier mehrfach erwähnten tunneleffekt. gemessen wurde licht(photonen)die auf einen spiegel treffen - einmal das zurückgeworfene licht und im selben abstand der teil des lichtes der durch den spiegel durch geht(nicht alles wird reflektiert). hier wurde festgestellt das die photonen die den spiegel durchdrangen dies mit überlichtgeschwindigkeit taten. kann sich allerdings noch keiner erklären warum... man vermutet bisher nur. warum hier allerdings einige sagen das es immer weiter gehen wird, also immer schneller werden kann und wird, ggf. mit neuen materialien kann ich nicht ganz nachvollziehen... das material oder die technik wie ich etwas erreiche hat nichts, nach heutigem stand des wissens, mit der physikalischen grenze zu tun... es wird einen punkt geben an dem einfach schluss ist... außer natürlich die menschheit findet einen weg alle gesetzte des universums aufzuheben... aber das wäre so als würde man versuchen die sonne mit seinem gartenschlauch zu löschen oder einem schwarzem loch zu fuss zu entkommen.
 
@mcstzilz: Wenn die Geschwindigkeit des Lichtes eine absolute Größe wäre, dann könnte ich mir eine effiziente Nutzung aus Fusionsenergie gar nicht vorstellen.
 
@mcstzilz: also bist du auch der meinung, so wie ich, dass der mensch mit seiner intelligenz vieles zeigen kann, aber vieles auch nicht? oder sich bestimmte sachen erst zeigen müssen?
 
@ChuckDerBiber: 640k RAM war eine außage eines dummen mannes der einfach zu viel glück hatte in seinem leben^^ hat aber nichts mit physikalischen grenzen zu tun... nicht mal ansatzweise...
 
@mcstzilz: Natürlich nicht, aber da es ausreicht, muss man sich um Grenzen keine Sorgen machen.
 
@ChuckDerBiber: Was Bill Gates übrigens NIE gesagt hat.
 
@ethernet: ist ja auch egal, ob er es war oder nicht. seine kernaussage im zweiten kommentar wurde mcstzilz jetzt hoffentlich klar. erzählen können wir heute viel. obs stimmt oder nicht, werden wir sehen.
 
@ChuckDerBiber: Einheit fehlt -> witz misslungen
 
@ChuckDerBiber: + 4 U.....den Comment find ich geil :D rofl......EinsPunktEinundzwanzig Gigawatt :D
 
....das wird dann wohl ein Josephson-Computer (Supraleitung) werden, oder ??? http://tinyurl.com/ygkhfnc, http://tinyurl.com/yky8mso
 
....by the way: Was ist eigentlich aus der supraleitenden (bei Raumtemp.!) Keramik geworden ? 2 Schweizer hatten doch einen Physik-Nobelpreis für bekommen, das wär doch bestimmt was für diesen HighEnd-Computer (vllt. auch zu Hause in so 80 jahren ?)
 
Mit Spintronik kommt man da schnell hin! Theoretisch, natürlich. Minusspinner erst informieren.
 
LOL - Philosophisch betrachtet sind all diese Grenzen erst bewiesen, wenn sie erreicht werden. Bis dahin handelt es sich um "theoretische" Beschränkungen. Doppel und dreifach LOL : Um 1800 galt es als erwiesen und unmöglich, das der Mensch sich schneller als ein Pferd bewege. Die Leute glaubten, bei Tempo 50 tot umzufallen. Nunja - das "Problem" wurde gelöst ... Anders : Ich habe in einer fazinierenden Dokumentation superflüssigen Wasserstoff gegen die Schwerkraft nach oben fliessen sehen - das konnte sich selbst der Herr Linde nicht vorstellen ..
 
@Genghis99: Was sich physikalisch erklären lässt, sich somit innerhalb der Naturgesetze bewegt. Die Sache mit den 50 km/h war ein reiner Glaubenssatz und kein Naturgesetz. Wenn Wissenschaftler heute berechnen, dass ein Computer nur so und so schnell werden kann, dann extrapolieren sie aber physikalische Grundcharakteristika auf bekannte, echte Naturgesetze.
______________________________________________________
Die Kommentare hier sind wieder mal von beeindruckender Scharfsinnigkeit.
 
Grenzen "festzusetzen" ohne einen Schimmer der Realität ist für'n Aaaaallerwertesten *g* Sicher ist mehr als Lichtgeschwindigkeit möglich. Man stelle sich nur z.B. einen Zug vor, welcher mit Lichtgeschwindigkeit reist (oder meinetwegen ein Raumschiff). Wenn ich mich in diesem Objekt in Farht/Flugrichtung bewege - lege ich auf eine Strecke hin mehr zurück als wenn ich auf der Stelle stehe....
 
Auf diese Idee sind auch schon Leute vor dir gekommen. Und Überlichtgeschwindigkeit hat dabei keiner erreicht.
 
Mehr Leistung ist erst unmöglich wenn die STrukturen nicht mehr verkleinert werden können, die Architektur perfekt ist und das gesamte Universum rohstofftechnisch in Computer um-modelliert worden ist. Letzteres halten manche Leute für prinzipiell möglich, wenn die Singularität erstmal da ist und Maschinen im All sich selbst reproduzieren können mit den vorhandenen Rohstoffen.
 
Auch Lichtgeschwindigkeit ist keine Grenze kommt immer auf die Umgebung an .
 
@overdriverdh21: Da fehlt ein Komma und wo siehst Du in den Gleichungen eine Umgebung?
 
@Tron2: meine umgebung gleicht jeder anderen
 
@Tron2: Mir ging es um Grenzen und das 'würde erreichen' kann man getrosst dazu verwenden diese 'Erkenntnis' nicht zu beachten.
 
@hjo: Das überrascht mich dann doch, kann ich es am Ende nicht ganz glauben. @overdriverdh21: Übersetz mir das mal! Also so seh ich da keinen Sinn drin.
 
@overdriverdh21:

Zumal Informationen schon schneller als Licht transportiert wurden. Es kann nur keine Masse mit Lichtgeschwindigkeit fortbewegt werden nach den heutigen Verständnis. Das muss nicht heissen, das dem so ist, denn die Schallmauer hielt man genauso lange Zeit für unüberwindbar. Kann man diese Grenzen wirklich nicht überwinden, wird die Menschheit wohl nie mit anderen Völker in der Galaxie oder gar Universum in Kontakt treten können. Dann sind wir wirklich einsam auf unseren Planeten fixiert, und es spielt gar keine Rolle mehr ob es andere Völker gäbe.
 
@JTR: Quelle?
 
@JTR: Licht kann schneller als Lichtgeschwindigkeit sein 8 Fach und mehr wurden schon erreicht .
 
...Abgesehen davon, dass es beängstigend ist und zugleich meine Neugier so groß ist, was in 75 oder 80 Jahren ist oder sein wird, kann man nur hoffen das der Mensch noch Mensch ist und ich dann 100 bis 105 Jahre alt werde um dies noch erleben zu können. Auch wenn ich nicht weiß ob ich es dann noch sein will. Weil wie sehr es mich reizt, so mächtig und unbehrrschbar kann die IT dann aussehen. Terminator ist dann kein Film mehr, sondern realität und nicht auszudenken wie weit die Nanotechnik dann schon unsere Natur sprich Leben besiedelt. Heute noch Forschung und Film, dann wahre Realität! M-A-T-R-I-X
 
Ach Leute - sich hinstellen und sagen etwas sei unmöglich, ohne das beweisen zu können - ist genau so doof wie das Gegenteil. Über EINES sollten wir uns einig sein - das ist wirklich bewiesen : Je mehr wir lernen, umso mehr wissen wir, das wir NICHTS wissen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles