Qualcomm stellt neues mobiles Flaggschiff-Chipset Snapdragon 835 vor

Der US-Halbleiter-Riese Qualcomm hat heute gemeinsam mit seinem langjährigen Partner Samsung den Nachfolger der Snapdragon 821-Chips vorgestellt. Der neue Flaggschiff-Prozessor wird Snapdragon 835 (nicht 830, wie ursprünglich gedacht) heißen und ... mehr... Qualcomm, Snapdragon, Qualcomm Snapdragon 820, Snapdragon 820 Bildquelle: Qualcomm Qualcomm, Snapdragon, Qualcomm Snapdragon 820, Snapdragon 820 Qualcomm, Snapdragon, Qualcomm Snapdragon 820, Snapdragon 820 Qualcomm

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Je schneller der akku aufgeladen werden kann, umso empfindlicher ist er. Was denkt ihr?
 
@azuram20: nein, die neuesten LiPos halten viel mehr aus...siehe Formel1 oder Tesla...
 
@Lecter: ... oder Galaxy Note 7...
 
@gutenmorgen1: Das ist LiIon
 
@gutenmorgen1:
Stale meme syndrome...
 
Je schneller ein Akku geladen wird, desto höher ist dessen Verschleiß. Je schneller er entladen wird, desto höher ist sein Verschleiß. Je länger er geladen wird, desto höher ist sein Verschleiß (z.B. von 5% auf 100%). Eine Ladung die ungefähr 1 Std braucht ist für einen 3000mAh Akku fast ideal und das zwischen 30% und 90%. Es ist also ein gutes Gleichgewicht nötig um die Haltbarkeit eines Li-Ionen Akkus so hoch wie möglich zu halten.
Aber ich denke, dass Quick Charge deswegen so erfolgreich ist, da die Smartphones eh alle 2-3 Jahre gewechselt werden.
 
@IntreppIT: Exakt so ist es! Aber die Menschen auf dieser Welt schaufeln sich sowieso längst ein Grab, ohne es zu merken...;)
 
Mal eine technische Frage, da ich mich nichts so gut auskenne. Man liest ja immer wieder, dass die Prozessorstruktur verkleinert wird (14nm....10nm) und somit eine höhere Energieersparnis und Leistung erreicht wird. Aber irgendwann ist es ja mal vorbei mit verkleinern. Kann man dann einfach die Größe bzw die Fläche des Chips erhöhen? Oder wie wird man dann Leistungssteigerungen erreichen?
 
@FuzzyLogic: Erstmal wird hier noch etwas geschrumpft werden. Ab einer gewissen Größe sind aber bei derzeitigen Stand der Technik die Transistoren so klein das es zu Kriechströmen kommt. Da ist aus jetziger Sicht Ende im Gelände. Aber auch hier wird schon fleißig an neuen Möglichkeiten und Werkstoffen geforscht, in der Theorie kann es eigentlich bis auf Atomgröße runtergehen. Einfach nur die Fläche vergrößern ist zwar möglich aber wenig wahrscheinlich.
 
@FuzzyLogic: Inzwischen baut man aufeinderander - also 3D Strukturen.
 
@SpiDe1500: Das ändert aber nichts am Problem:

a) ARM kann nicht mit 4 Ghz getaktet werden (würde glatt verdampfen ohne Stickstoffkühlung xD)
b) Kein großer Fortschritt mehr möglich.

Zudem schrumpft mit jedem Schrumpfvorgang auch die LEBENSDAUER eines Chips. Also nix mit 1nm-Cpus. Ansonsten müsstest du nach 10 Tagen nen neuen Chip kaufen, weil die Leitungen weggewandert (Elektronen wandern, je mehr Ghz und Hitze plus Spannung (Volt), desto schneller) wären...xD
 
@BestUser:
Die Laufzeit von Chips ist bis jetzt kein großes Problem und wir maßgeblich von der Betriebstemperatur bestimmt.
Einen Chip mit 4 GHz wird es geben.
Er darf nur eben nicht so viel verbrauchen, dass er zu warm wird.
Wie bei Intel wird es aber wohl eher Sinn machen "in die Breite zu gehen" (mehr Kerne) den als immer die Frequenz weiter zu erhöhen.
 
@Mixermachine: Die Lebensdauer von aktuellen ARM-Chips beträgt maximal ~10 Jahre. Ein Pentium 1 wurde damals auf ~100 Jahre geschätzt.
Gilt auch für Core I7/aktuelle AMD-Prozessoren am PC. Heute ist nach 10 Jahren Schicht im Schacht. Nach ~3-5 Jahren bekommst die ersten Probleme, wenn die Kiste dauerhaft eingesetzt wurde. Diese äußern sich in gelegentlichen Abstürzen des Pcs. Die Spannung muss erhöht werden. Die Elektronenmigration wird beschleunigt = Prozessor stirbt jetzt noch schneller.

Mit jeder Verkleinerung wird sich auch die Lebensdauer weiter halbieren (von ehemals 100 Jahren auf 50, dann auf 25, auf 12,5 und manche rauchen aktuell schon nach ~6 Jahren durch). Irgendwann, bei ~1nm-Prozessoren werden wir bei Prozessoren sein, die nach ~365 Tage das Zeitliche segnen...

Es gilt dasselbe wie bei SSDs.Je kleiner die Fertigung desto früher schmort ein Transistor durch. Mathematisch kann man die Wahrscheinlichkeit sogar ausrechnen. Es gilt je mehr Transistoren auf geringerem Raum, desto höher Wahrscheinlichkeit X fürs Abrauchen. Je komplexer also ein Chip auf geringerem Raum ist desto kürzer die MTBF (Zeit bis zum ersten Fehler).

PS: "Einen Chip mit 4 GHz wird es geben"

Aber eben kein ARM. Weil der glatt nach 10 Stunden das Zeitliche segnen würde.Denn je kleiner der Chip wird desto MEHR HITZE wird pro Quadratmillimeter abgegeben.

Aus diesem Grund wurde der Skylake Prozessor mit einem LANGSAMEREN Cache ausgestattet (was zu Problemen in Spielen führt die den Cache stark belasten). Trotzdem überhitzen dann und wann die Vektor-Extension-Hardwarebeschleuniger wegen Dark Silicon.Die Ingenieure wissen das längst. Darum steigt der Takt ja kaum noch bei X86. Oder siehst du irgendwo im Jahr 2005 herbeigeträumte ~10-Ghz-Prozessoren?

Im Grunde ist es also ganz einfach: Komplexe Chips haben keinen merkbaren Fortschritt mehr, alle -2-3 Jahre wirds noch ca. ~5% schneller werden, das wars dann aber auch.. Weil sie schlicht wie ein Pentium 4 damals auf Ghz schielen. Tja, das funktioniert eben heute nicht mehr, da das Ghz-Rennen längst beendet ist. Dark Silicon macht dem Ganzen einen Strich durch die Rechnung.

Im Grunde stirbt heute ein moderner Core i7 an genau demselben Phänomen, wie wenn man eine Porzellanschale auf ~100 Grad aufwärmt, und dann kommt ein winziger Tropfen mit ~5 Grad auf die Schale...und das Gefäß zerbricht. Was passiert also im Chip?

Die Leiterbahn bricht.Der Prozessor ist tot. Je mehr Aufheiz- und Abkühlphasen es gibt, je mehr Daten durch den Prozessor wandern, desto höher die Wahrscheinlichkeit für das Phänomen.

Außerdem gilt: Je komplexer ein Prozessor ist, desto weniger Ghz werden erreicht. ARM ist deutlich komplexer als z.b. x86. Aus diesem Grunde kann kein ARM-Prozessor mit ~4 Ghz takten.

Ein ARM-Prozessor gibt heute durchschnittlich 0,5 watt pro Quadratmillimeter ab. Das ist sehr viel Hitze. Zum Vergleich: X86 gibt deutlich mehr Hitze ab - die Chips sind am PC aber auch ~200 mm groß.
 
@BestUser:
... Wenn die aktuellen Chips auf 10 Jahre dimensioniert sind, dann müsste man die ja mit Overclocking innerhalb von ein paar Jahren über den Jordan schicken können oder?
Mein i4570k ist 3 Jahre alt und schnurrt bei 4.4 GHz.
Gerade die alten i2xxxk liefen sehr gut bei 4,6+ GHz (und tun es heute noch).

Es ist durchaus so, dass die neuen Chips empfindlicher sind, nur woher nimmst du deine absoluten Zahlen oO?

Intel hat in den letzten Jahren einfach nicht genug Konkurrenz gehabt.
Eine wirkliche Steigerung bis 10GHz ist durch die HalbleiterEigenarten nicht möglich.
Die Leistung pro Takt wird gesteigert.

Es scheitern an der Kühlung ja.
Arm in den heutigen Geräten werden meist passiv gekühlt.
Zusätzlich kommt es auf Effizienz an.
Einen Arm-4GHz Chip ist möglich, es macht nur leider keinen Sinn, ganz davon abgesehen, dass die Frequenz wenig über die Leistungsfähigkeit eines Chips (ohne die Kenntnis des Designs des Chips aussagt)

...eine Risc Architektur wie Arm ist komplizierter als eine Cisc Architektur wie ein Intel Chip mit x86.
Ich bin raus. Das googlest du bitte selbst.
 
@BestUser: Die Frequenz hat ja erstmal nichts mit dem dem Instruction Set zu tun. Die Frage ist eher wie viele Stufen die Pipeline hat (da das maßgeblich das Gate Delay bestimmt). Man erhöht die Anzahl halt aber nicht, da das zu höheren Kosten bei Branch Mispredictions führt. Außerdem werden dadurch auch die RAM Zugriffe nicht schneller, welche sowieso schon ein großes Problem sind.
 
@Zreak: Das ist korrekt. Aber was genau willst du damit sagen?
 
@BestUser: Das ARM und hohe Taktraten sich nicht ausschließen.
 
@FuzzyLogic: Einfache Antwort: Gar nicht. ARM &x86 werden aussterben weil kein Fortschritt mehr ohne Überhitzung möglich ist.Das Phänomen nennt man "Dark Silicon". Intel & AMD könnten schon nächstes Jahr vom Russenprozessor übertroffen werden. Und der wird in 65nm hergestellt. Quasi steinaltes Format. Und der soll 250 Gflops bei ca. 1 Ghz Taktrate erreichen. 100% Effizienz eben.

Dark Silicon ist heute in JEDEM Chip, der kleiner als 45nm gefertigt wird.

Bei ca. 7nm ist Ende, weil man 70% Dark Silicon erreicht bei dieser Fertigung. Darum ist der Chip oben auch nur mickrige 27% schneller.

Währenddessen baut IBM nen Chip, der ~500% stärker ist. Wohlgemerkt OHNE Schrumpfung der Architektur & ohne dass man 5 Ghz Takt braucht.
 
@BestUser: 250 GFlops bei 1 GHz würde bedeuten, dass er 250 Instructions per second schafft (absolut unrealistisch), oder parallel arbeitet und konkurriert damit nicht mit einem klassischen CPU, sondern eher mit einer GPU / Xeon Phi konkurriert. Und die schaffen ja bekanntlich deutlich mehr als 250 GFlops. Klassische CPUs/GPUs werden allein deshalb sobald nicht aussterben, da ihre Arbeitsweise die einzige ist die von Menschen noch sinnvoll verstanden werden kann und daher sinnvoll programmiert werden können. Beispielsweise steigen die allermeisten Programmierer schon aus, wenn es um lockfreies synchronisieren einiger weniger Kerne geht. Das sind teilweise immer noch Grundlagenforschungen die dort betrieben werden. Noch kompliziertere Systeme können von Menschen schlichtweg nicht sinnvoll genutzt werden, auch wenn sie theoretisch gute Performance liefern. Viele Algorithmen (z.B. datenkompression) sind schlichtweg sequenziell und können nicht parallel ausgeführt werden. Und das Problem des Dark Silicon ist komplett unabhängig von der Anordnung der Transistoren auf dem Chip, sondern nur von der Verlustleistungsdichte der Transistoren.
 
@Zreak: Du bekommst aber keine hohe Mehrleistung mit x86 oder ARM mehr. Selbst wenn du dich auf den Kopf stellst. Intel hat z.b. bereits verkündet dass es von nun an keine schnelleren Prozessoren mehr geben wird sondern dass nur noch etwas am Stromverbrauch gedreht wird.Der Menschheit wird auf kurz oder lang sowieso die Energie ausgehen. Egal was sie ab jetzt macht...

Die Menschheit wird also keine Wahl bleiben. Entweder sie kapiert endlich das Supercomputer mit X86 & ARM (oder gar crappy GPGPU-Lösungen mit ~1 Billiarde Bugs in der Software, prost Mahlzeit bei selbstfahrenden Autos mit solcher Müllhardware xD -Hacker reiben sich ja auch schon die Hände) keine Zukunft haben (weil man damit ~90% der Energie der gesamten Erde benötigen würde, allein aktuell wird pro Jahr weltweit ~3% mehr der weltweiten Energie verbraucht) oder sie wählt ihren eigenen Untergang (wäre ja nicht das erste Mal dass sie ihr eigenes Grab schaufelt xD). Die Russen machens genau richtig: 5x geringerer Stromverbrauch. Das heißt statt ~100% haste dann 20% Energiebedarf.

Also nochmal: 8 Kerne mit je ~33,33 Gflops (typisch für 4-Stufen RISC) mit max. ~40 Watt. Das ist etwas mehr als ein Core i7 Skylake mit z.b. 5 Ghz, der dafür auch 120 Watt benötigt.

Und bedenke: Das Ding wird in 65nm hergestellt ;) Intel wird nächstes Jahr noch mehr zum Alteisen gehören wie letztes Jahr. Intel wurde ja genaugenommen längst abgehängt in Sachen Fortschritt. Aber nächstes Jahr könnte der langbefürchtete Knall kommen...

Und: Der Russenprozessor hat NULL Dark-Silicon-Probleme. Und er kann Daten mit ~ 1 Gbyte/s komprimieren bzw. dekomprimieren...

Sollte die Menschheit weiterhin den Kurs halten, dann kann man schonmal planen wo genau die nächsten ~ 100 AKWs hinsollen. Willst du ein AKW in deiner Stadt haben? Fukushima lässt grüßen.
 
@FuzzyLogic: Generell muss die Fertigung wohl zu anderen Transistoren übergehen, z.B. in Richtung Graphen. Das erlaubt deutlich schneller Taktraten und geringere Verluste (was das Problem löst, das einem die Chips wegschmelzen, wenn alle Transistoren gleichzeitig an sind). Außerdem könnte auch die höhere Temperaturbeständigkeit beim Kühlungsproblem helfen. Eine weitere Hilfe wären Quantencomputer, die können viele klassische Probleme in anderen asymptotischen Zeiten lösen (z.B Primzahlzerlegung mit dem Shor-Algorithmus in log^3 (n) statt in sqrt(n), was Verschlüsselungsverfahren wie RSA hinfällig macht). Allerdings gibt es auch Algorithmen (z.B. das Sortieren einer Liste) die nicht schneller gelöst werden können, sodass diese auch keine allgemeine Lösung darstellen. Supraleitende Transistoren (die garkeinen elektrischen Widerstand haben) könnten Stromverbräuchte im Bereich des Landauer-Prinzip haben und damit einige Größenordnungen unter aktuellen Prozessoren liegen, das würde z.B. auch das Stappeln von Transistoren ermöglichen ohne Kühlungsprobleme. Noch weiter geht es dann nur noch mit Reversible Computing bei dem keine Information verloren geht (jeder Vorgang ist umkehrbar => bijektiv). Dabei greift das Landauer-Prinzip nicht und somit könnte fast ohne Energieverbrauch (immernoch die klassischen Probleme eines Perpetuum mobile) gerechnet werden. Dies sind aber noch sehr theoretische Konstrukte.
 
@Zreak: Das Problem an all diesen Dingen ist:

a) sie sind unbezahlbar (xD) z.b. Quantencomputer. Sorry, aber allein aus Kühlungsgründen kannst dich verabschieden dass sowas jemals bei nem Verbraucher zu Hause stehen wird. Wenn die Menschheit ne neue Energiequelle gefunden hat kann man sowas vielleicht in Betracht ziehen. Aber nicht mit simplem Atomstrom oder Strom aus Kohle, Erdöl & Gas xD

b) unsicher (siehe Problem zu komplexer Chips ~undefined/unwanted behaviour), Prost Mahlzeit wenn du so einem Chip die Aufgabe als KI zuteilst xD Hacker freuen sich übrigens auch über Quantencomputer oder GPGPU-Beschleuniger. Kann man schließlich ohne große Kenntnisse ganze Länder lahmlegen. Erste Beispiele gabs ja bereits in den letzten Monaten...

oder c) in weit entfernter Zukunft. Vor 10 Jahren hat Intel auch mal von "optischen" Prozessoren geträumt. 2016 dagegen sah man ein, dass es nichts als Luftschlösser waren. Der Traum ist ausgeträumt. Intel hat längst verkündet dass man künftig keine schnelleren Prozessoren mehr erwarten soll. Stattdessen ist Intels neues Ziel, dass X86-Chips einen Stromverbrauch bekommen, der dem von den ARM-Chips ähnelt.

Die Energie der Menschheit wird in 20 Jahren zu Ende gehen (bei derzeitigem Mehrverbrauch pro Jahr, und jeder Heinz meint ~100 Gbyte pro jedem 2. Tag aus dem Internet streamen zu müssen xD). Nicht in ~50-100 Jahren wenn dann vlt irgendwann mal eine andere Art von Chip einsetzbar ist!

Nochwas: Intel, AMD & ARM verwenden immer noch veralteten SRAM. Schon bald wird das nicht mehr möglich sein weil der einfach überhitzen wird. edram ist um den Faktor ~10 schneller. IBMs Server-eDRAM sogar um den Faktor ~100. Aber: Es geht nicht um die Geschwindigkeit. Sondern um den Stromverbrauch. eDRAM benötigt nur 20% des Stroms bei 10-100 facher Leistung. Da heute ein Prozessor zu 50% aus Cache besteht, überhitzt dieser. Weil der Cache längst 3/4 tel des Stromverbrauchs einer Cpu ausmacht.

PS:

"was das Problem löst, das einem die Chips wegschmelzen, wenn alle Transistoren gleichzeitig an sind"

Das ist ebenso falsch. Chips schmelzen nicht. Leiterbahnen brechen weil das Material zu träge für die Hitze ist. Es spielt kaum eine Rolle ob du auf einem 1mm-Chip 1 Watt oder 0,5 Watt hast.

Dark Silicon verläuft nicht linear!

Dark Silicon läuft so:

32nm = 2% DS
22nm = 17% DS
14 nm = 51% DS
10nm = 70% DS

Damit man DS umgeht, muss man also im Verhältnis weniger Energie verbrauchen als die Prozente in DS angeben. Un DAS dürfte eher ein Ding der Unmöglichkeit darstellen. Nein. Mit solchen Methoden würde man den Anteil des DS nur verringern nicht aber verhindern.
 
@BestUser: zu a) ich habe meine Antwort gezielt zeitlich strukturiert. Qusntencomputer werden sicherlich nicht morgen auf unseren Tischen stehen, sollten jedoch für Geheimdienste und Rechenzentren, die spezialanwendungen haben die nur von Qusntencomputern sinnvoll zu lösen sind, in absehbarer Zeit zur Verfügung stehen. Zum Beispiel für die NSA um RSA zu knacken. Raumtemperatur supraleiter könnten, sobald sie gefunden wurden (und da macht man Fortschritte), eine Möglichkeit für ein breiteres anwendungsspektrum darstellen.

Zu b) in Sachen undefined behavior macht man in Richtung formal verification im den letzten Jahren gute Fortschritte. Hardware mäßig wird bereits ein Großteil Mt mathematischen Methoden als fehlerfrei bewiesen. Bei Software steht das noch in den startlöchern z.B. seL4, das bewiesenermaßen nicht anders handeln kann als nach seiner formalen Spezifikation. Entwicklungskosten steigen dadurch natürlich deutlich.

Zu c) Stromverbrauch ist selbstverständlich ein Problem. Du vergisst aber, das Unternehmen wirtschaftlich handeln müssen. Kann eine neue Software nicht kosten effizient laufen, gibt es halt keinen Fortschritt mehr, bis es entsprechende Prozessoren gibt. Bestes Beispiel dafür ist KI: Die Grundlagen sind seit Jahren bekannt, compressoren wie PAQ gibt es seit etlichen Jahren, sie werden aber einfach nicht genutzt, da sie zwar doppelt so gut sind wie andere Algorithmen aber eben zu Energie intensiv. Seit wir genügend Rechenleistung pro Watt haben sprießen diese Anwendung jedoch überall aus dem Boden. Ist eine Anwendung sehr gut mit aktuellen Mitteln Aber nicht umzusetzen, werden auch ganz schnell neue fpga/asics konstruiert. Gutes Beispiel sind dafür Googles TPUs.
Kommentar abgeben Netiquette beachten!

Samsungs Aktienkurs in Euro

Samsung Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Samsung Galaxy S7 im Preis-Check