Intel: Mooresches Gesetz in 10-15 Jahren ungültig

Hardware AMD hat erst gestern mit der Auslieferung der ersten Prozessoren begonnen, die in einem 65-Nanometer-Prozess hergestellt werden. Bei Intel sind bereits meisten CPUs in diesem Maßstab gefertigt, doch man plant bereits für die Zukunft und will ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Irgendwo las ich mal, daß ab einem Mindestabstand der Leiterbahnen Elektronen rüberhopsen, also Kurzschlüsse entstehen, allerdings weiß ich nicht mehr, bei welchem Abstand dieses Problem auftreten kann. Dann ist sowieso Schluß mit der Verkleinerung der Halbleitertechnik.
 
@Hirschgoulasch69: Das waren 22nm .
 
@Hirschgoulasch69: Genau um diese Grenze geht hier. Leckströme waren auch schon für die Probleme des Pentium 4 beim Übergang zum 90nm Prozess (z.B. Prescott) verantwortlich (die Abwärme stieg drastisch). Auch ATI hatte schon Konflikte mit Leckströmen: Die Verschiebung der X1000-Serie ist hierauf zurückzuführen. Diese Probleme lassen sich zur Zeit noch durch neue Technologien beseitigen. Bei einer Strukturgröße von 22nm soll es dann aber so weit sein, dass die Grenze absolut ausgeschöpft ist (laut diesem Artikel).
 
"man wird niemals schneller als der schall fliegen können...", auch das wurde einmal gesagt. wenn es anwendung finden würde, und das wird es, dann wird die forschung soweit betrieben bis auch diese magischen 22nm überwunden sind. meine meinung.
 
@tru: Da muss ich dir zustimmen. Die Grenze ist da denke ich offen...
 
@tru: Nur das das 22nm Problem von physikalischen gesetzten vorhergesagt. Es gibt kein physikalisches Gesetzt, welches verbietet, schneller al der schall zu fliegen.
 
@tru: Allein durch die physikalischen Gesetzte ist da für die Halbleitertechnik Schluss. Dann wird man aber auf andere Lösungen umsteigen. Ein Möglichkeit hier ist die Biotechnologie...dann gibts eben ein organischen Prozessor.
 
@Hirschgoulasch69: ...oder die Möglichkeit Transistoren durch neue Technologie zu ersetzen? Mittlerweile wird ja das Moorsche Gesetz ja nicht mehr nur in seiner Aussage über Prozessortransistoren herangeholt, sondern steht in der IT-Welt als prophetische Aussage über andauernden Fortschritt. Dann sollte man als auch nicht aufgrund einer News den Glauben in die Entwicklung verlieren. Ich erinnere mich an ähnliche Meldungen vor 3 Jahren: "Intel: es geht einfach nicht mehr schneller!". Resultat: man führte danach die 64bit Technologie ein und es folgte der Doppelkernprozessor. Die werden immer was neues erfinden und Auswege finden...und weiter gehts....
 
Hmm soviel ich weis wird sich laut Mooresches Law nicht die Leistung verdoppeln, sondern die Anzahl der Transistoren auf der CPU?? Oder lieg ich da falsch?!?
 
@NeoPreD: du liegst richtig, die zahl der transistoren verdoppelt sich, wodurch in der vergangenheit auch die leistung mitwuchs, deshalb die blöde formulierung meinerseits. hab es jetzt ergänzt/korrigiert.
 
@NeoPreD: super nim, das du das abgeändert hast! Aber jetzt stimt die headline nicht mehr! "Mooresches Gesetz in 10-15 Jahren ungültig" Vielleicht gibt es ja bald multicoreprozessoren mit 32 Kernen! Sieht dann zwar aus wie nen "slot-p3", aber die Transistoren würden sich, wie gesagt verdoppeln!
 
Ich weiß noch wie es hieß: bei CD-Laufwerken ist bei 8facher Geschwindigkeit die Grenze des technisch machbaren erreicht. Nicht anders wird es bei den CPUs sein. Irgendeinen Weg zur Leistungssteigerung gibt es immer!
 
@Harald.L: Leistungssteigerung ja - Aber verkleinerung der Schaltungen...vorläufig NEIN!
 
Danach wird wohl irgendeine Biomasse für Power sorgen. Da gibs bestimmt schon Nachfolgepläne bzw. erste Theorien...
 
@schramml: Vielleicht wird man dann das Menschliche Gehirn direkt vernetzen.
 
@redox: Problem nur, das da bei einigen sogar noch Leistungseinbusen gegenüber den "alten" CPUs entstehen :D
 
@schramml: Hamster in Laufrädern :)
 
@schramml: Denke ich auch das irgend sowas kommen MUSS. Anfangs waren es ja auch erst 'Zahnräder', dann Röhren und z.Z. Transistoren. Will man in dem Bereich weiter kommen muss eine neue Technologie her!
 
Hoffe das AMD den Anschluss net verliert ... zur Zeit macht Intel ganz schön Dampf ...
 
@schramml: Mal abwarten... womöglich geht AMD mit der Integration der Grafik in die CPU genau den richtigen Weg. Die einen haben dann eine sparsame, aber flotte All-in-One-Lösung am Laufen, die anderen zwei oder drei Hitzequellen im Gehäuse und eine Stromrechnung, die ihnen den Spaß verdirbt.
 
@schramml: das Ding nennt sich dann AMDATI-Chip
 
@Dark Knight: Das lässt sich dann wenigstens mal in einem Wort aussprechen :) Amdati
 
Photonics und Quantum-Computing sind die Technologien der Zukunft.
 
Die Physiker forschen intensiv an der Datenverarbeitung, ~übermittlung und ~speicherung unter Ausnutzung der Quantenphysik. Die Möglichkeiten sind noch nicht absehbar, aber gewaltig. Problem: Die Empfindlichkeit des Ganzen. Unwahrscheinlich klein, aber auch unwahrscheinlich anfällig, wer weiß. Außerdem arbeitet man derzeit mit Temperaturen knapp über null Kelvin, denn bei Zimmertemperatur springen und schwingen dir die Teilchen um die Ohren. Gelingt es aber, das alles auf die Reihe zu bekommen - dann kann man Geräte bauen, die elend klein und sparsam sind. Dagegen ist das, was wir heute haben, ja was heute geplant wird, kalter Kaffee und sinnloser Elektroschrott.
 
@castelgandolfo:
Problem: Empfindlichkeit. Jo, unter anderem *g*. Wie Spins auslesen ohne Sie umzuklappen? Wie einzelne Spins überhaupt produzieren? Wie einzelne Photonen produzieren? Wie einzelne photonen messen, ohne sie zu zerstören? Wo ist der optische Transistor?

fragen über fragen. Die Zukunft kommt. Aber nicht moregn :-)
 
kann das alles nich schneller gehen.... :)
 
@castelgandolfo: wen das ganze interessiert, dem leg ich die Uni in München ans Herz, da war ich zu Besuch und da haben die auf Zimmertemperatur "Veranschaulichungen" wie einzelne Teile des Chips funktionieren könnten.
Das mit den einzelnen Quanten ist übrigens schon geklärt: man richte 3 Laser im Raum aus und schon kann man Quanten für was weiß ich wieviele Bruchteile einer Sekunde im Raum festhalten
 
Meine Meinung nach endet dann eine Ära - aber eine neue wird beginnen.mfg
 
mit einem quantencomputer is es bestimmt auch das beamen möglich. hoffendlich erlebe ich das noch mit.
 
@l3roc: kommt darauf an - wenn es wieder einen Technologieschub wie im 20 Jahrhundert gibt
 
Heutzutage wird nur immer wieder die derzeitige Technik ausgereizt .... kann man nich ma innovativer sein ....
 
alles kleiner machen und mehr drauf packen ... echt ... is ja eigentlich nen Witz ...
 
@schramml: Heute passt in ein Notebooke was vor einigen Jahren ganze Räume gefüllt hat. Es hat sicher einige Vorteile.
 
So ein Schwachsinn. Moore hat auch vorhergesagt, daß sich die Kosten für die Entwicklung neuer Technologie in gleichem Maße verdoppeln und das selbstverständlich spätestens bei den Grenzen unseres Wirtschaftssystems zwangsläufig eine Ende finden wird - weil keiner sich die Entwicklung noch besserer Technologien leisten kann.
 
Quantenphysik ist hier doch wohl besser, auch Optische systeme werden wohl besser sein. Germanium ist zwar besser als Silizium aber auch zu teuer.
 
Quanenlaptop? fake?

http://atomchip.com/_wsn/page4.html
 
@Reaser: gute Frage, speziell dazu habe ich noch keine News gelesen, obwohl sie es wert wäre, oder etwa nicht? Aber es muss so kommen, alles beweglichen Teile haben in der IT nichts zu suchen und sind nur Übergangslösungen, die zum Teil schon seit Jahrzehnten genutzt werden (Festplatten).
 
@Reaser: 6,8GHz? Harter Tobak ^^
 
quantenlaptop meinte ich natürlich ^^
 
@Reaser: Editfunktion meinte ich natürlich ^^
 
vor dem quantencomputer besteht noch die möglichkeit, aus einzelnen atomen transistoren zusammenzusetzen. ich denk mal, das werden wir noch miterleben.
 
Naja das das Moorshe Gesetzt irgendwann an seine grenzen stößt, ist jedem Physiker klar. Hat mir mein Physiklehrer schon vor ca 10 Jahren erzählt.
Selbst wenn es icht die 22nm Grenze ist, so wird irgendwann eine kommen, die man nicht mehr verscheiben kann. Spätestens bei der größe von Atomkernen, denn ab da greifet die "normale" Physik nicht mehr und es würden Quanteneffekte auftreten, dadurch wären aber bestimmte Dinge in einem Transistor bzw CPU nicht mehr möglich, als Beispiel sei hier nur die Heisenbergsche Unschärferelation ageführt.
Auch setzten einem ganz simple Dinge wie die Lichgeschwindigkeit und damit die Geschwindigkeit mit der Informationen ausgetauscht werden können, grenzen in der Leistungsfähigkeit.

Mit anderen WOrten es wird irgendwann eine Grenze geben die sagt das ein COU mit eine gewissen größe unr ein bestimmtes maximum an Leistung erreichen kann. Einziger weg das dann noch zu ändern wäre ihn vom Binärsystem weg zu bringen, und ihm Abstraktes denken und solche dinge wie "vieleicht" begreiflich zu machen. Aber auchin diese Richtung laufen die Entwicklungen auf Hochtouren, geht aber eher in die RIchtung KI, wie CPU-Leistungsteigerung.
 
@SmallDragon: Denke die Quanteneffekte dürften das größte Problem werden. Wenn es zu nicht kontrollier- und vorhersagbaren Tunnelprozessen der Elektronen kommt ist Ende. Aber diese Tunnelprozesse kommen noch viel früher, da muß man noch nicht zur Atomgröße vordringen.
 
@sini: ... Korrekt, diesen Versuch hat man mehrmals mit Licht und Mikrowellen gemacht und dies beruht auf dem Tunneleffekt. Problem ist nur, die Wellen verlieren beim durchwandern der Tunnelstrecke nahezu ihre gesamte Energie so dass sie am Ausgang extrem nachverstärkt werden muß. Also für Anwendungen in einer CPU untauglich. Dann, das Problem der Quanteneffekte besteht ja darin das bei der immer kleiner werdenden Architektur der Prozessorkerne die Leiterbahnen auch immer kleiner werden und somit auch immer näher zusammenrücken. Irgendwann sind die Abstände so klein das einzelne Elektronen die Barrieren zwischen den Leiterbahnen spontan überwinden, also durchtunneln können. Diese Quanteneffekte sind nicht vorhersagbar und nicht kontrollierbar, würden aber die Rechenarbeit zunichte machen. Darum ist irgendwann einfach Schluß, weil die Quanteneffekte dazwischenfunken. Ab da braucht man eine völlig neue Art der Prozessortechnik, und wie die aussehen mag einmal, darüber kann spekuliert werden. :-))
 
wird ja auch schon an cpus mit licht statt strom gearbeitet, soll sehr viel schneller sein als normale transistoren.
 
Irgendwie komisch einmal heißt es, man kann bald mit den 45nm Tests beginnen und dann heißt es: "Laut Gardini ist Intels Technologie für eine Produktion in diesem Bereich bereits ausgereift..."....P.S:...Kann mich erinnern daß man nach dem Pentium2 in soliden Wirtschaftsmagazinen gemeint hat, danach gehts nimmer weiter...
 
Also ich habe zwar keine Ahnung von Chipherstellung, aber es wird immer weiter gehen! Der Lauf der Dinge. Nachdem was ich so gelesen habe, muss man nur eine andere Basis als Silizum nehmen, tönt einfach ist es aber wahrscheinlich nicht. Zumindest IBM ist ja in dieser Hinsicht schon sehr weit, leider muss ihr CPU noch auf über 200 Grad minus gekühlt werden. Wir werden sehen wohin uns die Zukunft führen wird, das Ende von SiliziumChips wurde schon vor Jahren voraus gesagt und trotzdem kommen immer schnellere auf den Markt. Nur bei der GHz scheint eine Stagnierung sich einzustellen, die 4 GHz Grenze wurde bisher ohne Übertaktung noch nicht im kommerziellen Bereich erreicht.
 
Jetzt versteh ich nichts mehr?! Ein Schweizer (wir Schweizer sind doch gut für Taschenmesser bauen und Uhrwerke verkleinern usw) muss euch Deutschen erklären, dass die Uni Karlsruhe Intel n ganz gehörigen Schritt voraus ist?? Die haben im August diesen Jahres atomare Transistorentechnologie zum laufen gebracht und verabschieden damit die Halbleitertechnologie!
http://www.golem.de/showhigh2.php?file=/0608/47143
freundliche Grüsse aus der Schweiiiz!
 
"Bei Intel sind bereits [DIE] meisten CPUs in diesem Maßstab gefertigt, doch man plant bereits für die Zukunft und will demnächst mit Testläufen von 32-Nanometer-Prozessen beginnen."__________________________da fehlt imho ein "die". Außerdem ist es unschön 2 Mal in einem Satz das Wort "bereits" zu benutzen *gg*_______lg Cafe5
 
Ich kenn noch den satzt das 100MHz nicht überstiegen werden können.
Mir fällt zusowas immer nur ein, sag niemals nie. :)
 
oder bill gates sagte mal mehr als 640 kb ram brauchste niemals, und wie viel braucht heute windows?
 
@Dontales: Informiere dich erstmal richtig...
 
Sagte nicht auch mal Gates (oder irgendein anderes hohes IT-Tier), dass die CD-ROM keine Zukunft hätte...?
Ich denke, die Entwicklung geht immer weiter. Lese mir gerade alle Infos, die hier so gepostet wurden, durch. Lichttechnologie, Atomtechnologie, Biotechnologie... Irgendwas wird immer kommen. Ich finds einfach spannend =)
 
Man sollte eher eine bessere Grafikengine entwickeln als immer mehr Prozessorpower... aber naja man will ja seine Prozessoren auch loswerden :P
 
@secarius: falsch: Grafik-Engines sollten als Vorbild für eine völlig neue Prozessor- und Rechnerarchitektur dienen. Durch die Freiheiten, die Grafikprozessorherstellen gewährleistet ist, sind wesentlich bessere Prozessoren entstanden, als unsere zum x86 binärkompatiblen 20 Jahre alten CPU's. Man müsste hardwaremäßig nochmal bei Null anfangen, was, zumindest im Bereich Software dank portabler Programmierplattformen kein Problem sein dürfte, und all das Wissen, was man in den letzten 20 Jahren gesammelt hat, in ein völlig neues Konzept reinstecken. Leider würde man dann aber auch verhasste Techniken, wie TCPA implementieren ... tja, bleiben wir also doch lieber bei unserem 8088 der 10. Generation :-)
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles