Intel: Mooresches Gesetz gilt noch mind. 10 Jahre

Angesichts der immer weiter fortschreitenden Miniaturisierung und der steigenden Komplexität in der Chipentwicklung taucht immer wieder die Frage auf, wie lange das Mooresche Gesetz noch Gültigkeit haben kann. Auf der Entwicklerkonferenz Intel Developer Forum ... mehr... Chip, Computer, Schaltkreis, Board Bildquelle: hq-wallpapers.ru Chip, Computer, Schaltkreis, Board Chip, Computer, Schaltkreis, Board hq-wallpapers.ru

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
In 10 Jahren heisst es wahrscheinlich wieder "noch 10 Jahre".
 
@newsman: Ähnliche "Zeitschleifen" gibt es auch für die Beherrschung der Kälte-Fusion für Energiegewinnung und Aufbrauch des weltweiten Erdöls
 
@matt_p: Kalte Fusion. wtf?
 
@matey: "Wirklich, in 10 Jahren beherrschen wir die Kalte Fusion!"
 
@matey: Physik....
 
@Windowze: ihr meint ja wohl bitte kernfusion und nicht kalte fusion!
 
@matey: Du kennst nicht die kalte Fusion?
 
@Windowze: doch, aber kein ernstzunehmeder Wissenschaftler behauptet in 10 Jahren die kalte Fusion zu beherrschen.
 
@matey: Das habe ich nicht behauptet :D
 
@newsman: Genau wie beim Bau des Berliner Flughafens ;)
 
@Need_you: Ne, beim berliner Flughafen verzehnfachen sich höchsten die Schulden!
 
Leider nimmt die Effektive Leistung nicht in gleichem maß zu. Seit 2007 kann ich leider nur eine Steigerung von einem Faktor von 2,5-3 Sehen. Eins von vielen Beispielen Cinebench 11.5 mein alter Q6600 bringt da 3,6 Punkte ein I7 3770 7,5. In anderen Beispiel sind die Unterschiede ähnlich groß leider...
 
@wolver1n: seit knapp 3-4 Jahren bietet mir jeder 0815 Rechner aus dem Regal mehr Leistung als ich überhaupt benötige ;-)
 
@Frankenheimer: Naja hat sich in den letzten 1,5 Jahren auch nichts getan. Ich habe hier noch eine alte PC Zeitschrift rum liegen. da wird der I7 2700 für 269€ verkauft und die ist von April 2011 ein alte CPU die heute mehr kostet als vor 1,5 Jahren so was hab ich noch nie erlebt. ^^
 
@Frankenheimer: schön, dass es nur dich und deinen anwendungsbereich gibt...
 
@larusso: wer lesen kann..... ich schrieb bietet MIR jeder PC die Leistung. Und in Unternehmen ist es auch nicht viel anders, denn sonst würde sich Virtualisierung kaum einer so großen Beliebtheit erfreuen. Die meisten Server dümpeln doch nur noch vor sich hin.
 
@Frankenheimer: okay, dann muss ich revidieren und von deiner eingeschränkten sicht reden... mir ist schon klar, dass du von dir gesprochen hast. und dass das für den normalanwender kein großes problem darstellen sollte, ist auch klar. aber stell dir vor, es gibt eine welt da draußen, die mehr macht, als heim-, office- und servercomputing. an unternehmen denke ich da jetzt nicht. wenn software ordentlich geschrieben wäre, dann weiß ich nicht, wozu man einen prozessor für das betriebssystem und den einfachen programmen wie browser, office usw. benötigt, der mehrere billionen befehle pro sekunden abarbeiten kann. vielleicht ist auch bloß die architektur des computers und/oder der CPU mies. aber die welt da draußen, benötigt vielleicht auch supercomputer. und gerade *da*, wird sich das stark negativ auswirken. und was damit gemacht wird, ist von so viel größerer bedeutung, als deine/unsere heim- und firmen-browserei!
 
@larusso: Was an der Aussage von Frankenheimer, dass die Leistung für IHN genügt, verstehst du nicht oder was interpretierst du sonst hinein? Leute gibt's...
 
@nul: was verstehst du denn bitte nicht, worauf ich hinaus will?! müssen wir uns hier nur um den kaffeetratsch kümmern und diesen nie verlassen oder was!!
 
@larusso: Schon mal nen Supercomputer gesehen? Das sind beeindruckende Ansammlungen von 42HE-Schränken. Dakannst die Leistungsfähigkeit relativ einfach erhöhen indem du schlicht mehr von diesen schränken zusammen hängst. Da ist es eher eine Frage der Scalierbarkeit. Ein ähnliches Beispiel wäre eine Renderfarm. Mehr Rechenleistung pro CPU ist zwar wünschenswert, aber nicht zwingend.
 
@OPKosh: rechenleistung wird auf lange sicht aber kaum geringer werden. zwar hast du recht, aber irgendwann bieten ja selbst die räume, wo die schränke untergebracht sind, keinen platz mehr. wenn man dann die leistungsfähigkeit der CPUs noch weniger bzw. irgendwann gar nicht mehr verbessern kann, dann geht eine leistungssteigerung nur noch über die vernetzung mehrerer knoten. außerdem spielen da ja dann wieder die stromkosten eine größere rolle. und ob die skalierung irgendwann zu viel overhead oder sonstiges mit sich bringt, könnte auch eine rolle spielen, die wieder unnötig die leistung bremst. dein letzter satz mag heute zwar vielleicht zutreffen, aber auf dauer wird es dann doch zum zwingenden übergehen. aber wenn die transistorzahl in 10 jahren schon nicht mehr signifikant steigen sollte, dann sind wir vielleicht früher am limit, als wir dachten. da würden dann nur effizientere Architekturen etc. helfen. und danke für deinen kommentar, der darauf eingeht, worauf ich hinaus wollte und nicht diesen schwachsinns tratsch einiger anderer unterstützt/weiterführt, nur weil einige lieber den tellerrand nicht verlassen wollen... :)
 
@Frankenheimer: Für viele Leute haben schon heutige Desktop- oder Laptoprechner mehr Leistung, als sie je brauchen werden. :-) Ansonsten ist es so, dass die "besten" heutigen Endverbraucherrechner in etwa soviel Rechenleistung haben, wie die besten Supercomputer von vor 15 Jahren...
 
@wolver1n: Sowas kannst du 0 an Benchmark-Software ausmachen. Das zu messen ist nicht ganz so einfach.
 
@andryyy: Linpak oder Super-Pi sind schon recht aussagekräftig.
 
@F98: Joa, aber ich meinte so die Steigerung um Faktor X.
 
@F98: Aussagekräftig sind alle Benchmarks - die Frage ist nur WAS sie aussagen. Super-Pi zum Beispiel sagt nur etwas über pure Rechenpower aus und bringt nichts für die Aussage über die Benutzung eines Rechners. Meinen Lieblingsbenchmark hab ich mal irgendwo gelesen: Da wurde ein 8086 gegen einen aktuellen Rechner getestet. Aufgabe war Rechner booten, Textverarbeitung starten, Text eingeben und drucken. Gewonnen hat der 8086. Also sind Rechner offensichtlich immer langsamer geworden. :-) Man muss also immer beachten WAS gemessen wird und WAS bewertet wird. So ist ein Hochleistungsrechner vielleicht schnell, kann aber bei aktuellen Egoshootern vielleicht völlig einbrechen.
 
Ich brauch aber die Rechenleistung um meinen Zelldrucker zu betreiben den ich dann haben werde wenn mal wieder Meine Pflanze eingeht und ich sie dann neu Berechnen muss. ;-) §Future+off
 
"Scheich von Abu Dhabi: Ölreserven halten noch 100 Jahre."
 
@SpiDe1500: Barak Obama: "Waffen und Munition auch"
 
@SpiDe1500: Tun se wahrscheinlich auch ^^ Immerhin lassen sich durch verknappung künstlich die Preise hoch halten^^

Undabhängig davon habe ich hier bei WF mal nen artikel gelesen, indem ein 1 Atom Transistor erwähnt wurde, und dieser irgendwie 2020 rum einsatzbereit wär, kommerziell gebaut zu werden.... hmm kommt in etwa hin wenn man sich das moorsche gesetz anschaut. Aber viel kleiner kanns dann kaum mehr werden, so rein physikalisch nicht....
 
@Speggn: Hier 'ne interessante Grafik von dieser Intel-Konferenz zu den nächsten geplanten Verkleinerungen: http://www.extremetech.com/wp-content/uploads/2012/09/intel_rd.jpg
 
Die Welt geht doch sowieso im Dezember unter , von daher ist das egal wie lange die Moore Theorie funktioniert ;)
 
Glaube ich nich eher rückschritt dank ARM Achitektur.
 
@Menschenhasser: Was ist denn so schlecht an der ARM-Architektur im vergleich zu x86-64?
 
@Menschenhasser: arm entwickelt sich doch nebenher oder nicht? daher kann arm doch nur viel leistung in ne andere architektur gesteckt wird. ich mein, arm wird in vielen jahren bestimmt ebenso leistungsfähig sein wird wie die x86-64
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Beiträge aus dem Forum

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.