Chiphersteller planen riskanten Schritt nach vorn

Der Chiphersteller Intel hat mit seiner Ankün­digung, demnächst Systems-on-Chips (SoCs) mit einer Strukturweite von 22 Nanometern in Serie produzieren zu wollen, die Konkurrenz unter Druck gesetzt - und diese reagiert nun. mehr... Prozessor, Chip, Wafer Bildquelle: cesweb.org Prozessor, Chip, Wafer Prozessor, Chip, Wafer cesweb.org

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Was hat das noch für Vorteile ? ... Höhere Taktfrequenzen werden damit doch auch nicht erreicht ?
 
@Kv17: Spart Energie und weniger Abwärme.
 
@Knerd: Und bei weniger Abwärme kann man die Taktfrequenz wiederum erhöhen, oder irre ich da?
 
@Pegelprinz: Jop kann man :)
 
@Knerd: das weisst du? sicher? aha.
 
@Speedy38: Rein logisch müsste sich die Leistung steigern lassen, war etwas dämlich formuliert...
 
@Knerd: wieso "rein logisch"? _rein logisch_ haben hier doch andere argumentiert, warum das nicht gehen würde. kenn mich da in der E-technik nicht so aus, aber bei zugrundeliegenden physikalischen gegebenheiten, die einfach da sind, ist danach zu gehen das einzig logische. warum also wäre es jetzt "rein logisch" so, dass sich die leistung steigert?^^ wenn du nicht nach zugrundeliegenden physikalischen eigenschaften gegangen bist, kannst du doch auch nicht rein logisch vorgegangen sein, oder?! (jaja, bissel anecken muss auch sein :P)
 
@Pegelprinz: Das stimmt nur bedingt. Denn man hat dem entsprechend auch weniger Fläche, an die die Wärme abgegeben werden kann. Das sieht man hervorragend bei den aktuellen Ivy's. Mit erhöhter Spannung sind die kaum noch zu kühlen.
 
@Pegelprinz: Taktfrequenz und Abwärme haben nur indirekt miteinander zu tun. Was den Die aufheizt ist der Strom, von dem bei höheren Frequenzen unter Umständen mehr fließen muß, damit die Signale auf ihrem Weg durch die CPU nicht abreißen. Wenn mehr Energie umgewandelt werden soll, muß man auch mehr Energie zuführen. Guck mal im Netz, was die Extrem-Übertakter an Strom in ihre stickstoffgekühlten Geräte jagen, damit die überhaupt anlaufen. Allerdings dürften die CPU's bei solchen Experimenten auch nicht sehr lange halten. Der Grund warum man den Takt nicht beliebig anheben kann, ist Erosion. Vereinfacht gesagt löst sich die CPU bei zu hohem Takt mit der Zeit einfach auf. Klingt erstmal merkwürdig, aber auch elektronische Komponenten unterliegen einem Verschleiß. Das nennt man "Elektromigration". Und jetzt kommts: werden die Strukturen kleiner, ist der Effekt noch stärker ausgeprägt. Also sind kleinere Strukturen eher schlecht für höheren Takt, und nicht vorteilhaft nur weil sie weniger Strom "verheizen". Siehe dazu auch http://de.wikipedia.org/wiki/Elektromigration :-)
 
@starship: Elektromigration ist abhängig von der angelegten Spannung nicht der Taktrate. Die Taktrate kannst du hochdrehen wie du lustig bist, das interessiert das Material kein Stück. Kleinere Bauteile benötigen weniger Spannung bzw ermöglichen einen höheren Takt bei gleicher Spannung. Alles über 3-4GHz kriegt dann aber andere Probleme (parasitäre Kapazitäten etc).
 
@Kv17: Energieeffizienz. Kleinere Chips und somit mehr Chips pro Waver. Niedrigere Verlustenergie. Weniger Spannung.
 
@Kv17: Energieeffizienz..?
 
@TheUntouchable: Okay ... aber ist das schon alles ???
 
@Kv17: Nein, wie du bei den anderen Kommentaren lesen kannst, gibt es noch ein paar mehr Vorteile ;) Einer ist wohl auch, das durch weniger Platz/Energieverbrauch mehr Kerne verbaut werden können. Höhere Frequenzen sind mittlerweile eher out.. ;)
 
@Kv17: Du musst deine Stromrechnung noch nicht selber zahlen, oder?
 
@Kv17: Das ist alles was zählt du Blitzgneiser.
 
@Kv17: Geringere Leistungsaufnahme.
 
@Kv17: Die Taktfrequenzen steigen schon seit einigen Jahren nicht mehr weiter, weil hier auch die physikalischen Grenzen erreicht sind. Die weiter zu erhöhen bringt auch nicht wirklich was, außer zusätzlichen Energieverbrauch. Bei kleineren Fertigungstechnologien verkürzen sich aber die Entfernungen drastisch und damit der Energieverbrauch. Das führt wiederum dazu, dass man viel mehr Transistoren auf derselben Fläche unterbringen kann, die alles parallel erledigen und damit wieder schneller werden. Darum sind heutzutage die ganzen Hz-Angaben eigentlich überflüssig. Nicht umsonst ist auch ein 3 GHz-CPU von heute um ein vielfaches schneller als ein 3GHz-CPU von vor x Jahren...
 
@dodnet: Taktfrequenzen steigen schon seit fast einem Jahrzehnt nicht mehr. Die 3ghz Marke kam so zwischen 2002 und 2004.
 
@Kv17: Kleinere Chips bedeutet mehr Chips pro Wafer und daher lohnt es sich vom Preis schon (Moores Law). Bei kleineren Chips steigen zwar Quanten- und Verlusterffekte stark, aber durch die sinkende Leistungsaufnahme lohnt es sich trotzdem.
Die 3 Ghz Grenze ist gerade da weil man die Wärme und die Verluste in den "langen" Leitungen nicht Weg bekommt, wird sich aber schlagartig ändern sobald photonische CPUs kommen.
 
@Kv17: Wer sagt denn, dass man höhere Taktfrequenzen braucht? Das ist eine Sackgasse und moderen CPUs können sogar 1,0 GHz haben heutzutage und deutlich schneller sein als eine CPU mit 3,8 GHz.
 
@Ark: Glaub ich nicht.
 
@Kv17: Taktfrequenzen reichen seit langem für jede Anwendung. Vor allem im mobilen Bereich ist Energieeffizienz king.
 
@Kv17: höhere ausbeute=chips werden billiger
 
Hier wird immer so getan, als wären solche Schritte immer sowas von kompliziert. Ich denke, hier wird lediglich die Schublade aufgemacht und das Kaninchen aus dem Hut gezaubert. Und nein, ich kann das nicht belegen. Aber wenn man sich mal anschaut, wie schnell auf einmal die einzelnen Unternehmen auf die veränderten Marktlagen reagieren, dann kann es nur so sein, dass man diese Dinge längst serienreif hat und nur unter Verschluss hält, um auch noch das letzte aus der aktuellen Technologie herauszuholen. Am besten kann man das bei der Entwicklung der Elektroautos sehen. Funktionierende Konzepte gab es schon vor 20 Jahren. Und heute wird so getan, als würde man das Rad neu erfinden. Allerdings spreche ich bei hier besprochenem Thema von ca. 1-2 Jahren Vorlauf.
 
@tommy1977: natürlich könnte man noch schneller umsteigen. es macht jedoch keinen sinn eine produktionsstätte nach dem einrichten auf eine kleinere strukturbreite gleich wieder umzubauen nur weil man im labor erfolge erzielen konnte. zuerst muss man die entwicklungskosten wieder reinholen und die überbezahlten sesselfurzer im marketing, verkauf, ... mit einnahmen befriedigen. Irgendwie verständlich du willst dir doch auch nicht alle zwei wochen eine neue uhr kaufen, weil jemand eine noch genauerlaufende und stromsparendere version bauen kann.
 
@AR22: Das ergibt natürlich Sinn. Aber dennoch bleibt der Fakt, dass alles neue als revolutionär verkauft wird, was längst produktionsreif ist. Und in vielen Fällen wird somit auch der Fortschritt und Vorteile für die Verbraucher verhindert. Ich denke da in besagtem Fall an die bessere Energieeffizienz, welche allen zugute kommen würde. Meinem Verständnis nach könnte man ruhig eine Entwicklungsstufe auslassen und die aktuell fortschrittlichste in Produktion nehmen.
 
@tommy1977: Und dann wären die Produkte auch nur 2-5 mal teurer...
 
@tommy1977: Das ist so, idealerweise geht man nach Moores Law. Das bringt den größten Gewinn, die Firma, die als erstes die neue Technologie erreicht macht den großen Gewinn, der wiederum für die Forschung der nächsten Generation benötigt wird. Das Problem dabei ist, dass des ein Teufelskreis ist, siehe Intel und AMD. Intel ist schneller und macht das große Geld, damit können sie auch die nächste Generation schneller auf dem Markt bringen.
Und ja, es ist verdammt komplziert die nächste Generation zu erreichen, wenn es dich wirklich interessiert kannst du ja ITRS Roadmaps anschauen.
 
@starchildx: Mir sind die Mechanismen schon bekannt. Allerdings habe ich den Eindruck, dass die Entwicklung immer schneller ist, als die Vermarktung. Ob das nun wirtschaftlich sinnvoll ist, darüber wage ich nicht zu urteilen. Das steht mir nicht zu.
 
@tommy1977: Natürlich ist die Entwicklung immer schneller als die Vermarktung. Nur weil man eine neue Technologie hat, ist die noch lange nicht marktreif. Das muss ja alles auch vorher getestet werden, damit es überhaupt stabil läuft. Die Produktion muss entsprechend angepasst werden, damit nicht 90% Ausschuss ist. Und das Endprodukt muss auch bezahlbar sein, sonst kauft das kein Mensch. Nicht umsonst kommen immer wieder Meldungen über Durchbrüche in der Forschung, bis die Produkte dann aber tatsächlich auf den Markt kommen, vergehen danach noch Jahre oder Jahrzehnte.
 
@dodnet: die entwicklung muss nicht zwingen schneller sein als die vermarktung. viele pr menschen versprechen kunden, aktionären dinge die eventuell gar nicht realisierbar sind
 
@tommy1977: genau das ist die Krux. Die Vermarktung hält die technische Entwicklung auf. Aber das geht nicht anders, denn die Verkäufer müssen die Kohle hereinholen - und das ist immer langsamer, denn der Mensch der kaufen soll ist nicht so schnell auf 100 (kaufbereit) - und das in immer kürzeren Zyklen.
 
@tommy1977: Im schlimmsten Fall hat man dann x Jahre Ausfall nur auf die Chance hin vielleicht schneller eine neue Generation zu haben? Das Risiko geht keine Firma ein.
 
@tommy1977: Es ist doch ganz einfach: Nur weil es eine neue Technologie gibt heißt es noch lange nicht das diese auch wirtschaftlich im großen Stil umsetzbar ist. Selbstverständlich versucht auch jede Firma maximalen Gewinn aus Ihren Produkten, die sie in langer, teurer Entwicklungsarbeit "erfunden" haben rauszuholen. Da ist es nur logisch das auch mal eine Technik in der Schublade landet und gewartet wird bis das letzte Produkt genug Gewinn abgeworfen hat, oder eben bis die Konkurrenz etwas vergleichbares leifert. Ich glaube aber nicht das so viel zurückgehalten wird, denn noch gibt es so etwas wie Wettbewerb und würden die Firmen ihre Prototypen schon früher auf den Markt werfen wäre das Geschrei groß wenn es dann plötzlich zu Qualitätsproblemen oder kuzer Produktlebensdauer kommen würde. Die Firmen haben sicher einen gewissen Spielraum wann sie etwas neues aus der Schublade ziehen, aber diesen Spielraum halte ich für wesentlich kleiner als du ihn darstellst.
 
@tommy1977: Da müssen erstmal die ganzen Entwicklungskosten und ein paar tausend Prozent Rendite rausspringen. Vorher wechselt man nicht zu einer neuen Technik, die ja auch wieder hohe Entwicklungskosten hatte. Solche geringen Strukturbreiten herzustellen ist technisch schon sehr aufwendig. Und es ist ja nicht so, als würden da nur perfekte Produkte vom Fließband laufen. Zu einem hohen Teil wird da viel Ausschuss produziert, und das wird von vornherein einkalkuliert. AMD hatte mal das Problem, dass über die Hälfte aller produzierten CPU einer gewissen Serien Schrott waren. AMD hatte dann die entsprechenden CPUs so entwickelt, dass man den defekten kern deaktivieren konnte, falls es nur der Kern war der defekt war, und dann konnte man die CPU auch noch mit weniger Kernen verkaufen.
Im TV-Bereich gibt es auch schon lange viel bessere Display-Techniken. Aber die sind halt teuer und die Entwicklung kostet dementsprechend. Die Industrie möchte aber jetzt mit den LCD-Kisten erstmal gut Geld verdienen, was auch nicht mehr so klappt. Die Preise sinken und sinken. DANN wechselt man die Technologie, und lässt sich das neue wieder teuer bezahlen. Ist doch ganz normal.
 
@tommy1977: sehe ich genauso... ist alles schon lange möglich, aber das macht man eben, um den Markt möglichst gut abzugrasen.. Wenn sie gleich das "beste" präsentieren, wären sie ja dumm :D
 
@citrix no. 2: und die Chipausbeute wird von den Produzenten quasi freiwillig niedrig gehalten? Oder ist das einfach ein Marketinggag um künstlich die Verfügbarkeit gering und die Preise hoch zu halten?
 
@hezekiah: Genau so schauts aus :) Die Herstellkosten von den Teilen liegen bei ein paar cent... dadurch, dass sie es so teuer verkaufen, lohnt es sich trotzdem noch...
 
@citrix no. 2: Die Herstellungskosten sind aber nicht alles... da ganze Zeug muss auch erstmal erforscht werden, es müssen Anlagen dafür gebaut werden, Leute bezahlt und Marketing betrieben werden. Das vergessen viele immer. Klar kostet das Material für eine CPU vielleicht weniger als ein Brötchen, da stecken aber Milliarden an Entwicklungskosten und anderem drin...
 
@hezekiah: Ich wollte hier keinen Streit anzetteln...waren nur ein paar Gedanken zum Thema.
 
@tommy1977: Streit? Sicher das du auf mich antworten wolltest? :) @citrix ein wenig teuer ist superultrareines Silicium dann leider doch schon ;) Forschung und Ressourcen und die anderen Ressorts die zu einem richtigen Unternehmen gehören kosten auch einiges an Geld. Eine Chipausbeute von unter 30 % ist auf jeden Fall schlecht genug um Verlust zu machen.
 
"in der Auseinandersetzung zwischen diesen beiden Parteien" ? Was haben sie denn für eine Auseinandersetzung?
 
@KaOz: Die wollen sich doch tatsächlich gegenseitig die Kunden abgraben ! :/
 
@Dario: Auseinandersetzung ist trotzdem das völlig falsche Wort dafür :)
 
Wenigstens hier gibt es noch echten Konkurrenzkampf...
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles