Miniaturisierung vor dem Ende - nicht aber das Mooresche Gesetz!

Die bisher nahezu konstante Geschwindigkeit bei der Verkleinerung von Strukturen auf Prozessoren kommt Anfang der 2020er Jahre zu einem Ende. Das ist das Fazit einer industrieweiten Untersuchung. Allerdings heißt das nicht zwingend, dass das ... mehr... Intel, Prozessor, Chip, Wafer, Sandy Bridge Bildquelle: Intel Free Press / Flickr Intel, Prozessor, Chip, Wafer, Sandy Bridge Intel, Prozessor, Chip, Wafer, Sandy Bridge Intel Free Press / Flickr

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Naja viel dünner als eine Atom Monolage gehts nunmal nicht. Und da sind wir dann in Bereichen, in denen der quantenmechanische Tunneleffekt eine Rolle spielt. Bei Tunneltransistoren versucht man genau diesen Umstand nutzbar zu machen, aber wir sind längst noch nicht so weit, dass man von Wirtschaftlichkeit sprechen könnte. Jetzt machen wir bei den Chiplayouts genau das, was wir in großen Städten auch machen...wenn die Fläche begrenzt ist, stapeln wir eben in die Höhe :)
 
@bigspid: Ich bin ja mal gespannt, wie die das Stapeln bei der CPU realisieren wollen.
Was bei Speicherchips relativ einfach möglich ist, kann bei CPUs zu riesen Problemen führen.

Es geht mir hierbei um die Abwärme. Dman hat dann ja 2 Dies die übereinanderkleben und die mehr Wärme produzieren. Könnte dann heißen, die Takte werden wieder fallen, dafür gestapelt und mehr Kerne.

Wenn man sich mla überlegt, wie groß so ein Chip (das einzelne Die eines Prozessors) und wie Groß ein Kühle sein muss, um diesen winzigen Chip zu kühlen.
 
@ravn83: Vielleicht mal den Ansatz der Licht-CPUs wieder aufgreifen. Taktraten im dreistelligen GHz-Bereich und praktisch keine Abwärme. Schade, dass IBM die Entwicklung dafür eingestellt hat.
 
@ravn83: An sich wird ja keine höhere Taktrate benötigt. Ich denke durch eine erweiterte Parallelisierung und Pipelining von den zu verarbeitenden Befehlen, die sich durch gestapelten Speicher evtl. verbessern lassen, könnte das schon einen Leistungszuwachs bedeuten.
Ich denke aber das wir den größten Leistungssprung in mittlerer Zukunft durch photonische Datenübertragung auf dem Chip erreichen werden. Wenn signifikant weniger Abwärme entsteht, lassen sich alle übrigen Leistungsfaktoren wieder relativ gut hoch skalieren.
 
@bigspid: Ich bin echt gespannt wann wir es schaffen (und ob wir das noch erleben) von den elektronen hin zu den photonischen Computersystemen zu wechseln.
Ich habe vor einiger Zeit mal einen Artikel gelesen, der photonische Schalter gezeigt hat. Wenn man ein Photon mit einem Prisma teilt und das eine durch eine Schleife schickt, entsteht eine Art magnetische Anziehungskraft, welches eine Faser aniehen kann. Dies funktioniert aber wohl nur auf atomarer Ebene und nur auf einer sehr kurzen Distanz.
Ich fand dies richtig spannend.
Vorallem würde mich interessieren, ob es eine hitzeentwicklung bei photonischen Prozessoren gibt? Und ob diese vergleich bar mit der elektronischen Abwärme ist?
Und ... wie ein solcher Prozessor ausehen würde? Wie ein Würfel?
:-)
 
@ravn83: Ich hab einige Jahre an der Uni in der Photonik für Halbleitertechnik gearbeitet. Für die Datenübertragung braucht es 4 Komponenten: Die Lichtquelle (Laserstrahl bei einer Wellenlänge von 1.550 nm oder 1.300 nm, ich denke es läuft aufgrund der GermaniumSilizium-Eigenschaften auf 1.550nm raus), einen Modulator (kodiert die Information in den Photonenstrahl), den Lichtwellenleiter (analog zum elektrischen Leiter) und einen Decoder/Empfänger (wandelt das photonische Signal wieder in ein elektrisches um).
Abwärme erzeugt man auf dem Weg nur bei der Lichtquelle, dem Modulator und beim Decoder. Man erspart sich also die Abwärme, die beim Transport des Signals über elektrische Leitungen anfallen würde. Das macht einen Großteil der Abwärme aus ;) Mein Tipp wäre, dass wir damit einen Schritt in Richtung höherer Taktraten wandern. Besonders Mehrkern-CPUs profitieren davon.
 
Was ich mich immer frage, wieso muss eine CPU so "klein" sein. Also ich meine nicht die Fertigungsgröße in Nanometern, sondern die gesamte Größe der CPU.

Theoretisch würden doch doppelt soviele Transistoren drauf passen, wenn man die Fläche verdoppelt, was immer noch sehr klein wäre. Die erhöhte Abwärme sollte doch für moderne Kühlkörper auch kein größeres Problem darstellen.
 
@Draco2007: Ich habe wenig Ahung davon, aber vielleicht kann man als Unternehmen mit einem Langsameren Fortschritt mehr Geld verdienen, als wenn man von jetzt auf gleich die Rechenkraft ver-X-facht.
 
@W!npast: Bei Privatunternehmen ganz sicher, bei Unternehmen in Aktionärshand leider nicht, der Börsenwert orientiert sich an Wachstum und Fortschritt.
 
@Besenrein: Und da liegt meiner meinung nach auch das Problem. Wenn ich dieses Jahr meine Leistung verdopple, erwarten die Aktionäre das nächstes Jahr auch wieder. Und danach auch wieder etc. Wenn ich aber mein Wachstum künstlich einschränke ist es zumindest stabil und die Aktionäre zufrieden. Lieber 2 mal 50% Wachstum als einmal 100% und einmal 0%... :/
 
@Zwerchnase: Und da liegt meiner Meinung nach das Problem mit dem Kapitalismus...

Fortschritt wird künstlich ausgebremst, weil es mehr Profit bringt...
 
@Draco2007: Nach der Logik sollte man 8,5 Zoll Festplatten mit doppelter Bauhöhe bauen, da passen locker 30 TB rein.
 
@Besenrein: Spricht meiner Meinung nach auch nichts dagegen. Wobei man natürlich mit 2 3.5'' Platten grundsätzlich besser dran wäre. Mehr Performance und/oder mehr Ausfallsicherheit.

Das könnte man bei CPUs auch machen, aber es gibt nur sehr wenige Boards, die mehr als einen CPU-Slot haben...
 
@Draco2007: die Größe hat verschiedene Gründe:

- weniger Materialaufwand.
- mehr "Cores" pro Wafer herstellbar
- weniger Energieverbrauch (und dadurch)
- weniger Abwärme
- schnellere Schaltzeiten
- längere Haltbarkeit

Es spricht natürlich nichts dagegen, "jetzt" einfach die Fläche zu Vergrößern um die Leistung zu steigern - hätte man diesen Weg aber bereits zu 250 nm Zeiten gewählt hätten wir Kühlkörper so Groß wie ein Kühlschrank auf einer vergleichsweise schwachen CPU.
 
@Draco2007: Die Produktion der Chips wird auf Etrag hin optimiert. Auf einem Wafer passen nur eine bestimmte Anzahl an Chips. Je mehr Chips du auf diesem Wafer packen kannst, desto mehr lohnt es sich.
 
@kadda67: so wie es amd derzeit mit der rx480 macht. Die packungsdichte ist sehr hoch, höher als bei nvidia, gleichzeitig noch 14 statt 20nm. Wenn die ausbeute der chips gleich ist dann verdient amd in dem bereich deutlich mehr geld als nvidia pro chip. Es gibt nur einen kleinen nachteil, durch die höhere packungsdichte schwindet der theorethische vorteil der niedrigeren leistungsaufnahme und besseren übertaktbarkeit von 14nm gegenüber 20nm. Allerdings hat die höhere packungsdichte auch noch einen gravierenden vorteil, man kann sich aufgrund der größeren chipzahl pro wafer auch eine deutlich höhere ausfallquote zu beginn der produktion leisten!
 
@X2-3800: Nvidia lässt die Chips in 16nm von TSMC produzieren und nicht 20 aber ansonsten hast du Recht.
 
@kadda67: Naja kommt wohl auf den Verkaufspreis an...

Ich sage ja nicht, dass sie die doppelte Leistung zum gleichen Preis verscherbeln sollen.
 
@Draco2007: Du sagst aber, dass man die gleiche Leistung zum doppelten Preis verkaufen soll, was nicht sehr sinnvoll wäre.
 
@kadda67: Wieso die gleiche Leistung?

Doppelte Leistung, dreifacher Preis...nur so als Beispiel...
 
@Draco2007: Dann kommt das dabei raus:
https://www.computerbase.de/2016-06/intel-xeon-phi-knights-landing-vier-modelle/
 
@Draco2007: Weil ein einziger Wafer mehrere 10.000 Euro kostet und damit jeder mm² sehr teuer ist ;) Zudem werden große Dies exponentiell teurer.

Einerseits ist ein Wafer Rund und die Dies rechteckig. Je kleiner die Rechtecke, desto effektiver kannst Du die Fläche ausnutzen (Verschnitt). Andererseits hast Du immer einen Teildefekt, vor allem durch Verunreinigungen. Je größer ein Die ist, desto höher ist die Wahrscheinlichkeit, dass ein Defekt auftritt. Ein Teil lässt sich kompensieren/als beschnittenes Modell verkaufen, aber irgendwann ist eben Schluss.

Bei High-End-Grafikkarten sind wir mit bis zu 601 mm² (Nvidia GM200) zudem schon ziemlich an der Grenze des sinnvollen angekommen.
 
@Draco2007: Ich denke das Problem ist erstens dass man dann weniger CHips aus einem Wafer bekommen kann, aber vor allem die Synchronizität der einzelnen Teile des Chips.

Je größer der CHip, desto weiter muss das Taktsignal weitergeleitet werden und desto schwieriger ist es, alles Synchron zu halten.

Außerdem erhöht sich auf größern Strecken auch der Widerstand und die Verlustleistung steigt.

Gibt sicher noch mehr Faktoren, das sind nur die, die mir so auf die Schnell einfallen.
 
@pcfan: jo da hilft nur Gestappelte CPU..das wird dann der nächste schritt.
 
@Draco2007: Schau doch mal, wie viel Metall so ein Kühlkörper für diesen kleinen Chip hat, um alle Abwärme abzuführen. Statt doppelter Größe denken wir uns zwei solcher Chips direkt nebeneinander. Die würden sich gegenseitig über den Kühlkörper aufheizen, die Abwärme könnte nicht einmal über einen vielmal so großen Kühlkörper effizient abgeführt werden. ... also, so meine Theorie
 
@Draco2007: Ich bin zwar auch kein Profi auf dem Gebiet, aber das Problem sieht man ja bei den Grafikkarten.
Es gibt 2 Gründe:
1. Die Waffergröße: Die "runden Scheiben" haben sbestimmte größen. Je kleiner der einzelne Chip, um so mehr bekommt man auf einen Waffer und umso günstiger wird die einzelne CPU. Ebenso ist der Ausschuss zu betrachten. Dieser tut bei beispielsweise 10% von 200 weniger weh als bei 10% von 50.

2. Fehleranfälligkeit: Die Frage ist, wie du dann die CPUs aufbaust. mehr Transistoren für einen Kern, mehr Kerne? mehr Cache? Mehr Verbindungsleitungen, etc. Was genau will man steigern?
Es gibt immer einen %ualen Ausschuss an Chips. Was tut man damit? Produziert man immer 8 Kerner und sind 1 oder 2 Kerne kaputt, dann wird es ein 6 Kerner? usw.
Je mehr Fläche für eine CPU / GPU benötigt wird, desto höher die Fehlerwarscheinlichkeit, destohöher der Ausschuss.

Deswegen wird meineswissens momentan zumindest, auf Verkleinerung gegangen. Mehr Chips, gleicher Preis, höhere Renditen.
 
@Draco2007: Das was du beschreibst ist in einem Desktop problemlos möglich. Aber der Desktop stirbt aus und mobile Systeme werden vom Konsumenten verlangt. Smartphone/Watches, Tablets und mal schauen was noch so kommt. Und all diese Dinge sollen immer schmaler und kleiner werden. Zumindest machen uns die Hersteller das gerade mit Ihren Produkten weis. Von daher nix mit größerer Fläche und größerem Kühlkörper. Kleiner und wenn möglich ohne Lüfter ist gefragt.
 
Bei Desktop CPU´s ist das "Gesetz" schon lange ausser Kraft. Ein Core i5 mit 3,3 GHz aus der 2. Generation ist fast so schnell wie ein Core i5 mit 3,3 Ghz aus der Aktuellen 6. Generation. Die Unterschiede sind zwar Messbar, aber nicht in der täglichen Arbeit fühlbar. Was ja auch der Hauptgrund für die Stagnation am PC Markt ist. Am Mobilmarkt beginnt diese "Stagnation" bereits auch, Alles was nach dem Snapdragon 800 kam, ist nur noch Markulatur.
 
@Besenrein: Das Problem im Mobilbereich ist eher das durchs Marketing fixierte "wir brauchen mehr Kerne!", obwohl es praktisch kaum Anwendungen dafür gibt. Viel sinnvoller wären weniger, dafür aber "kraftvollere" CPU-Kerne und die üblichen 1-2 Winzlinge für den Stand-By.

In der Hinsicht macht Apple mit seinen SoCs vieles richtig.
 
@Stratus-fan: wiso Kaum es gibt haufen Anwenungen dafür...
 
@Besenrein: Nur weil Du keine Anwendungen nutzt welche ansatzweise von mehr CPU-Leistung profitieren bedeutet es nicht dass diese Leistung nicht vorhanden wäre. Merke Dir zwei Dinge: zum einen ist alles was messbar ist auch vorhanden, selbst wenn es Deinem exorbitant hochwertigen Messinstrument namens "Gefühl" nicht auffällt, zum anderen ist das Wort welches Du suchst "Makulatur" und bedeutet etwas nutzloses, wertloses. Du kannst Dir gewiss sein dass ein S800 oder schnellerer SoC ganz gewiss nicht nutzlos oder gar wertlos ist.
 
@Stamfy: Vor allem geht es ja nicht nur um den Consumer Markt. Im Professionellen Bereich sind auch wenige Prozent mehr Leistung oder wenige Prozent weniger Energieverbrauch deutlich wichtiger...
 
@Draco2007: Auch als consumer kann ich mir einen Zehnkerner kaufen mit entsprechender Rechenleistung. Macht man halt nicht, weil zu teuer.
Moore's Law ist sowieso sehr... dehnbar. Zumal er nie von leistung sprach, sondern Komplexität.
Dazu auch folgender Link: https://de.wikipedia.org/wiki/Mooresches_Gesetz#Rechenleistung
 
Ein Gesetz ist nur ein Gesetz, wenn es ausnahmslos immer zutrifft und zutreffen wird. Daher ist es wohl eher die Mooresche Annahme.
 
Was ist das für ein Gesetzt, das ist total Quatsch, was ist wenn alle Menschen nicht mehr Arbeiten können, oder es kein materiel mehr gibt.. geht es dann immer noch weiter..püh.. wer hat das blos erfunden.
 
CPUs "stapeln" macht wenig Sinn da consumer workloads und Software mit mehr Kernen einfach nichts mehr anfangen kann.

Wir haben, was CPUs angeht, schon lange eine Region erreicht wo ein Mehr an Leistung von der Masse der user (Gamer mal ausgeschlossen) nicht länger benötigt wird.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles