Linus Torvalds: ARM kann es gar nicht mit x86 aufnehmen

Der rasante Aufstieg der ARM-Plattform durch die zahlreichen neuen mobilen Endgeräte führt seit einiger Zeit zu der Diskussion, ob sie letztlich auch die Bastionen der x86-Architektur erobern wird. Zumindest Linus Torvalds bezweifelt dies stark und ... mehr... Arm, Tsmc, ARM Cortex-A9 Bildquelle: ARM Arm, Tsmc, ARM Cortex-A9 Arm, Tsmc, ARM Cortex-A9 ARM

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Stimme Torvalds voll und ganz zu.
 
@SunnyMarx: Torvalds hat ja auch recht
 
Vorallem der letzte Punkt: Kernel für sein raspi baut doch wohl jeder auf seinem x86 (cross compiling) oder nicht ;-) Hat ja schließlich Gründe.
 
@interrobang: Gerade mit dem RPi3 ist das eigentlich kein Problem mehr..
 
Das schlimmste an ARM-CPUs ist in der Tat die mangelnde Kompatibilität. Klar, dass die Hersteller darauf abfahren, auch klar, warum Apple so sehr auf ARM macht und diese Chips irgendwann sicher in seinen Macs verbaut. Aber was hat der ARM-Trend dem Verbraucher gebracht? Wegwerfhandys- und sonstige Geräte, weil man überall an den Hersteller zwecks Firmware- und Softwareupdates gebunden ist und man ohne zu frickeln zu rooten nichts selber machen kann. Völlig zurück in die Steinzeit gerannt.
 
@Knarzi81: "Klar, dass die Hersteller darauf abfahren, auch klar, warum Apple so sehr auf ARM macht und diese Chips irgendwann sicher in seinen Macs verbaut."

Apple wollte ursprünglich einen Intel-Chip im ersten iPhone verbauen, hat Intel den benötigten Stromverbrauch genannt, es wäre wohl auch möglich gewesen, man wollte aber nicht investieren.

Und heute haben wir die Situation, dass kein Intel-Chip in Sachen Stromverbrauch/Leistung einem A10 das Wasser reichen kann.

Klar setzt Apple auf ARM, aber sicher nicht aufgrund der mangelnden Kompatibilität...
 
@gutenmorgen1: "Und heute haben wir die Situation, dass kein Intel-Chip in Sachen Stromverbrauch/Leistung einem A10 das Wasser reichen kann."

Selten so gelacht. Wieso müsst ihr Fanboys immer solche Lügen verbreiten? Junge, wir sind hier im Internet; jeder, der nicht zu blöd zum Googlen ist, findet in Sekunden raus, dass du lügst. Was bringt dir das?!

Die aktuellen und somit effizientesten x86 sind die Kabylakes. Ein Kabylake ist doch um einiges effizienter als so ein popeliger A10. Ist ja auch vollkommen klar: ARM ist technologisch minderwertig, wenn man es mit x86 vergleicht. Wie soll auch so ne kleine Klitsche wie ARM mit Intel konkurrieren können. Da hilft es auch nichts, dass Apple das ARM-Design leicht angepasst hat.
 
@(_(_)======B: Also, welchen Kabylake würdest du in einem Smartphone verbauen?
 
@gutenmorgen1: Wenn das ein Versuch sein sollte, lustig zu sein dann bist du gescheitert. Oder meinst du das ernst? Dann tust du mir leid.
 
@(_(_)======B: Hast du behauptet, dass Kabylake effizienter ist als ein popeliger A10 oder nicht? Kannst du mit einen Kabylake nennen der eine ähnliche Leistungsaufnahme bei gleicher oder mehr Leistung hat als ein A10?
Das sollte doch mit Google möglich sein.
 
@gutenmorgen1: Jeder Kabylake i7 ist deutlich effizienter als der A10.
 
@gutenmorgen1: Wenn du den A10 so hoch taktest, dass er an die Leistung eines Kabylakes rankommt, dann ist der A10 bestimmt nicht so effizient wie der i7. Das sollte doch selbst einem Laien sofort einleuchten. ARM war doch nie auf Rechenleistung ausgelegt, sondern immer auf niedrigen Verbrauch. Dass die Effizienz darunter leidet ist doch klar.
 
@(_(_)======B: Aha. Wie sieht denn die Performance pro Watt im Vergleich aus?
 
@gutenmorgen1: besser
 
@(_(_)======B: Ich neige dazu, dir zuzustimmen, aber Zahlen wären doch mal schön.
Hats du zufällig welche da zur Leistung pro Watt der beiden Modelle? Würde mich interessieren.

@gutenmorgen1: Die X86 CPUs haben halt noch viele Features, die die ARM nicht haben, weshalb sie mehr Leistung bringen, aber auch etwas mehr verbrauchen. Sie sind halt nicht für Handys gebaut, sondern für etwas größere Geräte. Wenn man es rein auf Leistung pro Watt runterrechnet dürfte das schon eher interessant werden. Ich kenne die Zahlen nicht, würd die aber gerne mal sehen, bevor wir hier alle ins Balue hinein raten und uns streiten.
 
@SebastianKrug: Das ist doch überhaupt nicht das Thema. Die Frage war, warum Appe auf ARM setzt und mein Behauptung war, dass "kein Intel-Chip in Sachen Stromverbrauch/Leistung einem A10 das Wasser reichen kann".

Mit dieser Behauptung bist du und auch (_(_)======B offensichtlich nicht einverstanden, also warte ich immer noch dass mit jemand den Intel-Chip nennt, der bei der selben TDP wie ein A10 eine ähnliche CPU + GPU-Leistung bringt.
 
@pcfan: "Hats du zufällig welche da zur Leistung pro Watt der beiden Modelle?" Nein
"Würde mich interessieren."
Mich auch. Apple veröffentlicht diese Zahlen nicht. Allein aus dieser Tatsache kann man schon klar erkennen, dass die Zahlen nicht für Apple sprechen.
 
@(_(_)======B: OK, deine Argumente sind Hieb- und stichfest, du hast mich überzeugt.
 
@gutenmorgen1: "Das ist doch überhaupt nicht das Thema." Ähh, doch. Genau das das ist das Thema. Du schreibst doch oben "Und heute haben wir die Situation, dass kein Intel-Chip in Sachen Stromverbrauch/Leistung einem A10 das Wasser reichen kann." und er erklärt dir richtigerweise, dass du Unrecht hast. Wie kommst du denn darauf, dass die Effizienz nicht das Thema wäre? Stromverbrauch/Leistung ist nichts anderes als Effizienz.
 
@(_(_)======B: Weil der Ausgangspunkt des Themas der Stromverbrauch ist - wegen der ursprünglichen Frage, warum Apple ARM verwendet.
Folglich kann ich nur Intel-Prozessoren in den Vergleich nehmen, die eine ähnliche TDP wie der aktuelle A10 haben.
Darauf basiert meine Aussage.
Was wäre, wenn Apple einen A10 mit vier oder 8 Kernen baut und diesen aktiv kühlt weiss ich nicht, aber die Vermutung liegt natürlich nahe, dass ein i7 effizienter ist, weil Apple ansonsten schon gewechselt wäre.

Edit: Bist du und SebastianKrug die selbe Person? Weil bei dir genau das selbe stand und dort jetzt "bitte löschen" steht.
 
@gutenmorgen1: "Weil der Ausgangspunkt des Themas der Stromverbrauch ist" Nein, das hast du falsch verstanden. Lies nochmal, was du selbst geschrieben hast: "Apple wollte ursprünglich einen Intel-Chip im ersten iPhone verbauen, hat Intel den benötigten Stromverbrauch genannt, es wäre wohl auch möglich gewesen, man wollte aber nicht investieren.

Und heute haben wir die Situation, dass kein Intel-Chip in Sachen Stromverbrauch/Leistung einem A10 das Wasser reichen kann."

Du siehst also, dass der Ausgangspunkt nicht der Stromverbrauch ist. Den Stromverbrauch hast du erwähnt als es um die CPU des ersten iPhones ging. Als du anfingst vom A10 zu sprechen, da ging es um die Effizienz (du hast es laienhaft mit Stromverbrauch/Leistung ausgedrückt).
 
@(_(_)======B: In Ordnung, worum es mir eigentlich ging war, dass Intel heute zwar Prozessoren mit einer TDP angeboten hat / anbieten könnte, die für Smartphones geeignet wäre, deren Leistung aber nicht an den A10, Snapdragon 821 oder Equinox heranreichen würden.
Intel wird erst aber einer deutliche höheren TDP effizient bwz. die ARMs dann ineffizient.
Sind wir jetzt mehr oder weniger auf einer Linie?
 
@gutenmorgen1: "In Ordnung, worum es mir eigentlich ging war, dass Intel heute zwar Prozessoren mit einer TDP angeboten hat / anbieten könnte, die für Smartphones geeignet wäre"
Ach, erzähl doch keinen Blödsinn. Du verdrehst die Tatsachen. Was soll das bringen?! JEDER kann doch nachlesen, dass es dir NICHT um Smartphones ging.

in re:1 antwortest du knarzi und zitierst ihn auch: "Klar, dass die Hersteller darauf abfahren, auch klar, warum Apple so sehr auf ARM macht und diese Chips irgendwann sicher in seinen Macs verbaut."

"Sind wir jetzt mehr oder weniger auf einer Linie?"
Da bin ich nicht ganz sicher. Verstehe ich dich richtig, dass du meinst, dass ich zu 100% recht damit habe, dass Kabylake effizienter ist als der A10, sofern wir von Computern reden, wie hier und nicht von Smartphones? Dann sind wir auf einer Linie.
 
@(_(_)======B: Epischer Bullshit :D danke für den Lacher des Tages.
Fakten: Effizienz bedeutet in diesem Kontext: Rechenleistung im Verhältnis zum Strombedarf. Getreu dem Minimalprinzip: Eine definierte Aufgabe mit minimal notwendigen Einsatz dafür benötigter Ressourcen (Verlustleistung o. Strombedarf) lösen. Alternative Maximalprinzip: mit gegebenen Ressourcen die maximale Leistung erzielen. Für den Vergleich ARM vs. x86: Leistungsvergleich bei identischem Verbrauch oder Verbrauchsvergleich bei identischer Leistung. Nenne mir einen Benchmark, wo Intel den Verbrauch eines A10 erzielt und dabei mehr leistet oder alternativ gleiches Leistet bei weniger Verbrauch... ! Erst dann lässt sich mit Hirn argumentieren. A
 
@4ndroid: Junge, wenn du schon so so auf die Kacke haust: "Epischer Bullshit :D danke für den Lacher des Tages." Dann sollte danach kein totaler Unfug kommen, sonst machst du dich nur lächerlich. Leider hast du dabei grandios versagt, denn du schreibst: "Rechenleistung im Verhältnis zum Strombedarf". Wie kommt man denn da drauf? Die Frage ist durchaus ernst gemeint. Was muss bei einem im Kopf falsch gelaufen sein, um so eine Aussage von sich zu geben?!

Jeder, der auch nur über minimale Allgemeinbildung verfügt, weiß doch, dass Effizienz das Verhältnis von Kosten zu Nutzen ist. Was du schreibst ist also das Gegenteil (bzw. der Kehrwert) davon.
 
@4ndroid: "Nenne mir einen Benchmark, wo Intel den Verbrauch eines A10 erzielt und dabei mehr leistet oder alternativ gleiches Leistet bei weniger Verbrauch... !" Dabei wird es schon scheitern. Der A10 kommt einfach nicht an die Leistung eines aktuellen i7 heran. In der Theorie wäre das sicher möglich, dann aber mit Stickstoffkühlung o.ä.. Dass die Effizienz dabei extrem schlecht wird, sollte jedem klar sein, auch ohne Benchmark.
 
@(_(_)======B: Zurück in die Baumschule :D - "Jeder" mit Deinem Bildungsstand vielleicht, aber der Rest versteht, dass KOSTEN mit dem Verbrauch oder Einsatz von Ressourcen zutun hat z. B. Geld, Strom, Arbeit, Gehirnzellen... und LEISTUNG/Nutzen mit (bewertetem bzw. im Verhältnis stehenden) OUTPUT, z. B. Anzahl Erzeugnisse, Anzahl Berechnungen im Zeitraum x, Anzahl richtiger Aussagen) und somit kann ich Dir sagen: Du bist verdammt ineffizient :D
 
@(_(_)======B: "Verstehe ich dich richtig, dass du meinst, dass ich zu 100% recht damit habe, dass Kabylake effizienter ist als der A10, sofern wir von Computern reden, wie hier und nicht von Smartphones?"

Richtig. Ab einer gewissen TDP ist Kabylake effizienter.
 
@SebastianKrug: Na dann lass uns doch die Leistung pro Watt vergleichen, oder Leistung pro Takt ... hat jemand einen Benchmark, der bei ARM sowie X86 Vergleiche möglich macht?
 
@gutenmorgen1: "Ab einer gewissen TDP ist Kabylake effizienter." Auch wenn es hier unsinnig ist mit der TDP zu argumentieren, stimmt das wohl. Die TDP hat aber rein gar nichts mit der Leistungsfähigkeit des Chips zu tun. Die TDP ist eine Angabe, die benötigt wird um die Kühlung entsprechend auszulegen.

Sinnvoller wäre es gewesen, zu sagen, dass ab einer bestimmten Rechenleistung Kaby effizienter arbeitet als der A10. Da es ja darum ging, ARMs in Computern zu nutzen, ist klar, in welchem Bereich die Rechenleistung sein muss. Das ist aber ein Bereich, den der A10 gar nicht erreicht und selbst wenn, wäre er dort keinesfalls effizienter als der x86.
 
@4ndroid: "Leistung pro Watt" Bist du noch in der Grundschule? Dann wäre dieser Fauxpas verzeihlich - sonst nicht. 'Leistung' ist die Größe und 'Watt' die zugehörige Einheit. Was du sagst ist genau so sinnvoll wie Länge pro Meter oder Gewicht pro Kilogramm.

"hat jemand einen Benchmark, der bei ARM sowie X86 Vergleiche möglich macht?" lol

Den kann niemand haben, da man einen ARM nicht so krass übertakten kann, dass er zu der Rechenleistung eines i7 aufschließt.
 
@SebastianKrug: Nein, wir reden von Rechenleistung pro Watt. Also stimmt die Aussage "Leistung pro Watt" in diesem Zusammhang.
Es ist hier natürlich nicht die eletkrische Leistung gemeint.
 
@pcfan: "Also stimmt die Aussage "Leistung pro Watt" in diesem Zusammhang." Das ist doch offensichtlich Blödsinn. Diese Aussage stimmt in _keinem_ Zusammenhang. Mir ist schon klar, dass er zwar Leistung schreibt, aber statt Leistung Rechenleistung meint, dass macht seinen Fehler aber auch nicht besser. Wenn er Rechenleistung meint, dann muss er Rechenleistung schreiben, sonst ist es einfach falsch was er schreibt.
 
@SebastianKrug: Netter Versuch ;-) "Performance(=Leistung) pro Watt" ist ein gängiger Vergleichswert jeglicher Reviews von CPUs... aber wahrscheinlich bist du einfach so viel schlauer als die Kollegen von tomshardware - übrigens wird Watt als Leistungsaufnahme-Äquivalent auch gerne als Verbrauchswert verstanden - wenn man es denn verstehen will.
 
@(_(_)======B: http://www.giga.de/smartphones/iphone-7/news/apple-a10-im-iphone-7-laesst-zahlreiche-macs-hinter-sich/

Und jetzt?
 
@4ndroid: Danke, dass du mir doch endlich recht gibst und meine Behauptung sogar mit nem Link untermauerst. Schön zu sehen, dass es auch hier auf Winfuture noch Leute gibt, die ihre Fehler eingestehen. Damit hätte ich nicht gerechnet.

Es ist aber auch nicht wirklich verwunderlich, dass ein uralter Mac von 2013 so viel mehr Leistung hat als der A10.

Da gutenmorgen1 es aber sicherlich nicht versteht fasse ich mal kurz zusammen, was dort steht: das iPhone mit dem A10 kommt im Geekbench auf 5285 Punkte, die alte Intel CPU hingegen auf 22430. Nach Ivybridge kamen ja noch viele neuere Architekturen: Haswell, Bradwell, Skylake und aktuell Kabylake.

Im irrelevanten Singlecore-Benchmark liegt der A10 mit dem uralten Ivy etwa gleichauf, wobei dieser Ivy nur mit 2,7 GHz taktet. Ein aktueller Kaby taktet, je nach Turbo, mit deutlich über 4 GHz, wäre aber auf Grund der verbesserten Architektur auch bei 2,7 GHz deutlich schneller als Ivy.
 
@4ndroid: "aber wahrscheinlich bist du einfach so viel schlauer als die Kollegen von tomshardware"
Das mit Sicherheit.
"übrigens wird Watt als Leistungsaufnahme-Äquivalent auch gerne als Verbrauchswert verstanden"
Von wem denn bitte? Lass dir eins gesagt sein: wer im Zusammenhang mit Energie von Verbrauch spricht, hat keine Ahnung. Es ist ja überhaupt nicht möglich Energie zu verbrauchen. Energie wird nur umgewandelt. Jeder sollte wohl den ersten Hauptsatz der Thermodynamik kennen. So solchen Mist redet (also Verbrauch...) hat ihn wohl nicht verstanden. Pisa lässt grüßen ;)
 
@pcfan: http://www.tomshardware.de/atom-z2760-leistungsaufnahme-arm-vergleich,testberichte-241187-3.html

ist nen recht alter test, aber zeigt bestimmt wo die reise hingeht. wer keine lust hat den artikel zu lesen, hier stinkt ein (damals aktueller) arm prozessor gegen einen (damals aktuellen) atom prozessor ab und zwar in sachen performance und leistungsaufnahme!
 
@laforma: Zusätzlich ist die Vergleichbarkeit auch nicht gegeben. Schon vor einigen Jahren hat ein Atom, auf dem ARM emuliert wurde (zusätzlich zum x86-Grundsystem), um einen identischen Benchmark zu fahren, kaum mehr verbraucht, Was der Atom mit seiner Rechenleistung sonst noch hätte machen können ist dabei aber nicht mit getestet.
Ich nenne als Smartphone mit x86 gerne das alte Razr i, bei dem hat der Akku zu einer Zeit locker 3-4 Tage gehalten, während ein iPhone oder Samsung nach 1-2 Tagen in die Knie ging.
Intel hat mehr Features, dazu gehören auch Energiesparfunktionen und Virtualisierungen. Bei dem genannten Motorola wurde mit dem Single Core Atom ein Dual Core ARM emuliert.
Preis und Hitzeentwicklung waren der Grund für Handys ARM zu verwenden.

Uns was da oben sonst noch so steht mit Apple und ARM im Desktopbereich, die sind vom PowerPC weg, haben also RISC den Rücken zugekehrt, warum sollten die wieder auf eine ähnliche Architektur setzen wollen? ARM findet man in Mobilgeräten und Servern, für den Desktop fehlt die Kompatibilität - was Apple ja theoretisch egal sein könnte, aber nicht ist.
 
@SebastianKrug: Du kannst aber ne i5 oder i7 soweit herunter takten das er den takt von ner arm cpu erreicht. Könntest ja den komischen bench nehmen den es im playstore gibt und damit vergleichen,müsstest halt nen android emulator nehmen,und selbst dort zieht der intel bei gleichem takt ab.
 
@AndyB1: "Du kannst aber ne i5 oder i7 soweit herunter takten das er den takt von ner arm cpu erreicht."
Klar, das ginge, aber das Thema war ja ARM CPU im Mac. Es dürfte schwer werden neue Macs zu verkaufen, die nur einen Bruchteil der Rechenleistung der alten haben. Die Tests zeigen ja sogar, dass manche der MacBook Airs schneller sind als das aktuelle iPhone.
 
@(_(_)======B: Ja,meine antwort war auf seine frage bezogen wie er nen Benchmark als vergleich arm vs x86 machen könnte. :)
 
@(_(_)======B: https://curved.de/news/ipad-pro-2017-apple-a10x-chip-in-benchmark-mit-hoechstleistung-gesichtet-418275
Zumindest haben sie die gesamte mobile Sparte von Intel überholt. Der i7-7Y75 schaut da im Vergleich schon ziemlich blöd aus. Der 15W Chip i7-7500U verliert im Single Core Betrieb und ist im Multi Core noch etwas vorne, bei der 3 fachen TDU wohlgemerkt.

Auch ganz interessant, bei der Grafikleistung scheint der minderwertige A10 sogar den i7-6700k zu überholen: https://gfxbench.com/device.jsp?D=Intel%28R%29+Core%28TM%29+i7-6700K+CPU+with+HD+Graphics+530&os=null&api=null&testgroup=graphics&benchmark=gfx40&var=avg
https://c.mobilegeeks.de/wp-content/uploads/2016/09/Apple-A10-Fusion-vs-SD-820-vs-Exynos-8890-vs-Kirin-955.jpg
Jaja kein 100% fairer Vergleich aber das zeigt doch dass die dringendst mal richtige Konkurrenz brauchen und ARM kann das locker werden.
Außerdem wenn wir ehrlich sind ist Intel nur dank ihrer dreckigen Geschäftspraktiken Marktführer, damit kann man vielleicht AMD klein halten, bei Apple würde das Spiel aber wohl ein bisschen anders aussehen.
 
@theBlizz: "Zumindest haben sie die gesamte mobile Sparte von Intel überholt." Das ist uninteressant. Es geht ja darum ARM im Mac einzusetzen.

"Auch ganz interessant, bei der Grafikleistung scheint der minderwertige A10 sogar den i7-6700k zu überholen"
Ja, für Laien mag das interessant aussehen. Wer Grafikleistung will hat aber eh ne GraKa zum i7, also absolut uninteressant.

"Außerdem wenn wir ehrlich sind ist Intel nur dank ihrer dreckigen Geschäftspraktiken Marktführer, damit kann man vielleicht AMD klein halten, bei Apple würde das Spiel aber wohl ein bisschen anders aussehen."
Ich denke, du verstehst die Situation nicht. AMD ist ein Konkurrent Intels, aber Apple ein Kunde. Das kann man nicht vergleichen.
 
@(_(_)======B: Nein ist es nicht, man kann nur einen Schritt nach dem anderen machen, Smartphones und Tablets haben sie gewonnen, als nächstes kommen die Laptops und irgendwann wird man vielleicht auch tatsächlich einen 24 Core Hochleistungs ARM Prozessor sehen. Vorausgesetzt der PC Markt überlebt überhaupt noch so lange, das ist mMn. der Hauptgrund warum ARM sich nicht darauf stürzt. Geld bringen die Büro-PCs und die siehst du hier: http://maruos.com/
Oder eben Tablets.

Aja eine ordentliche Hybrid Lösung hätte ja absolut keine Vorteile, viel besser für alles eine fette Grafikkarte einbauen zu müssen. Bei dem Preis der Intel Prozessoren kann man das ja auch nicht erwarten.

Apple ist aktuell noch ein Kunde, ob das auch langfristig deren Plan ist wage ich mal zu bezweifeln.
 
@gutenmorgen1: Du möchtest Architekturen vergleichen indem Du erhältliche CPUs vergleichst - das kann nur dann funktionieren wenn diese Firmen Prozessoren für dasselbe Segment anbieten. Tun sie aber nicht. Intel hat lange aufgegeben und das was sie für tablets etc anbieten ist ARM-Chips leistungstechnisch deutlich überlegen. Fakt ist, Intel hatte Probleme x86 auf minimalen Stromverbrauch zu trimmen (absolut, nicht im Vergleich zur Leistung) und ARM hat Probleme Leistung zu generieren ohne die Effizienz zu verlieren. Seit Jahren werden ARM-Server gehyped, der Punkt warum sie keine Rolle am Markt spielen ist ganz einfach: die Hersteller schaffen es nicht die Energieeffizienz in den Bereich der benötigten Leistung mitzunehmen. x86 hat dort, mit ZEN sogar wieder von AMD, einfach die besseren Argumente. ARM wird uns milliardenfach im Alltag begegnen, überall dort wo billige stromsparende Chips benötigt werden. Für mehr ist ARM in naher Zukunft aber nicht geeignet. Intel konzentriert sich auf andere Bereiche mit deutlich höheren Margen.
 
@gutenmorgen1: Warum verbraucht ein ARM so viel weniger Strom? Pack den mal mit allem voll und der gleichen Rechenleistung wie einen Intel, dann sieht das auch nicht anders aus.
Weniger Kompatibilität bedeutet, dass der Chip weniger können muss, also braucht er auch weniger Strom.
 
Solange es keine Desktop-Mainboards mit einem Sockel gibt, in die man (halbwegs) beliebige ARM CPUs stecken kann, und man anschließend nicht zu einem Uralt-Ungepatchtem-Kernel vom Hersteller des benutzten SoCs gezwungen ist, wird das nichts mit ARM außerhalb des Embedded-Bereichs.
 
@Zweitopf: Weil der Mainstream-Kunde auch CPUs wechselt :D vielleicht in unserer Welt, der Otto-Normalo, somit der einzig interessante Massenmarkt hat keine Ahnung und lässt den Kasten zu... eher ist entscheidend mit welchem Aufwand Standardsoftware auf die ARM-Architektur anzupassen wäre und welches ARM-OS sich durchsetzen könnte... Microsoft hat es mit dem Surface und Windows ARM versucht... gescheitert!
 
@4ndroid: Ich bastle auch gerne am Computer herum - von HDD, Steckkarte, RAM über Wasserkühlung, aber eine CPU hab ich noch nie getauscht.

Wenn du 1 - 2 Generationen (also 2-4 Jahre) wartest, passen die doch genausowenig auf das Mainboard.

Daher verstehe ich den Unterschied nicht ganz. Bei jedem größeren Update des PCs muss also sowieso das Mainboard raus, dann kannst den Rest auch gleich tauschen...
 
@Hans3: ich meine damit, dass es keine Mainboards mit Sockel zum Austausch der CPU für ARM geben muss, da der Mainstream ohnehin den PC nicht öffnet um die CPU zu tauschen - ich denke wir sind der selben Meinung
 
@4ndroid: ja, glaube auch :-)
 
@Zweitopf: Mainboard? In was für einem Jahrhundert lebst du denn? Wo willst du auf 8 mm denn dein M. hinbauen?
 
Zitat: "Die Programmierung von ARM-Software findet fast ausschließlich auf x86-Systemen statt"

Ein Wunder, die ARM Plattform kommt auch erst seit 1 Jahr mit der High End Version an die Dual Cores von Intel/AMD ran... also erst ab jetzt könnten die ersten richtigen Computer mit ARM kommen.

Lieber Linus, ruhig Blut!!
 
@AlexKeller: welcher ARM kann es in welchen Disziplinen mit welcher x86 CPU aufnehmen? Nur weil ein ARM mit 2GHz taktet, heißt das nicht das er in jeder hinsicht schneller als ein x86 mit 1GHz ist!
 
@interrobang:

Welcher Typ für was:
http://www.arm.com/products/processors

Cortex-A72 vielleicht?
http://www.arm.com/products/processors/cortex-a/cortex-a72-processor.php

http://www.arm.com/products/processors/technologies/biglittleprocessing.php

Der A73 ist zwar schneller, aber nicht für Desktop/Server konzipiert.
http://www.golem.de/news/cortex-a73-artemis-arms-neuer-high-end-cpu-kern-fuer-2017-1605-121161.html

im weiteren, mit ein bisschen Modifikation wie beim A10 von Apple geht es sogar noch besser: http://www.giga.de/smartphones/iphone-7/news/apple-a10-im-iphone-7-laesst-zahlreiche-macs-hinter-sich/

also... jetzt fehlen nur noch die richtigen Betriebssysteme wie Windows 10, MacOS, Ubuntu etc. welche auf diese Prozessoren angepasst sind, dann brennt es mal so richtig!!
 
@AlexKeller: Anstatt Werbequellen oder Pressemappen zu zitieren, wie wäre es mit ordentlichen Tests?
 
@floerido: Der letzte Link ist ein unabhängiger Benchmark und ansonsten: http://winfuture.de/comments/thread/#2916911,2917737
 
@theBlizz: Die Testgegner x86 sind da aber schon etwas älter. Der Xeon müsste mittlerweile vier Nachfolger haben und gerade dieser Typ ist wohl eher auf Multithread ausgelegt. Die Macbooks sind auch alte Generation und eben die eher Untersten im Sortiment.

Aber wie sieht es mit den Befehlssetzen aus? Stichwort SSE vs. NEON Optimierung.

GIGA ist halt eher eine Yellow-Press-IT-Quelle. Vernünftige Tests sollten sich nicht nur auf einen Wert eines Benchmarks beschränken. Da ist eine diffenzierte Betrachtung schon nötig.

Der Wert für ein MacBook mit Core m3 schwankt zwischen 1862 und 2895 bei einem System mit identischer Hardware!
 
@floerido: Giga hat sowieso nur abgeschrieben denk ich mal.
Ja gut das differenzierte ist bei Smartphone vs PC immer ein Problem, du hast ja nur Geekbench, 3DMark und GFXBench, 2 davon sind auf Grafikleistung fokussiert und vergleichen im Endeffekt dann auch Metal mit DirectX.
Und auch wenn Apple noch nie damit aufgefallen ist, wäre es wohl kein Ding der Unmöglichkeit iOS etwas für Geekbench zu optimieren, hat ja vor ein paar Jahren fast die gesamte Konkurrenz unter Beweis gestellt.
 
Eure überschrift ist aber auch Mist, ihr legt ihm da Worte in den Mund die er so nicht gesagt hat!
 
Was unterscheidet einen ARM mit einem x86 neben dem instruction set. Ich meine auf dem hw level?
 
@plasma: ARM war schon immer auf niedrige elektrische Leistung ausgelegt, die Rechenleistung war schon immer sekundär. x86 war schon immer auf Rechenleistung ausgelegt, die elektrische Leistung war schon immer sekundär. Außerdem sind ARM CPUs schon immer billig gewesen, es muss also überall gespart werden. x86er waren schon immer hochpreisig. Diese Tatsachen haben dazu geführt, dass x86er deutlich mehr Transistoren haben, als ARM. Das führt direkt zu mehr Rechenleistung pro Takt. Intel hat übrigens auch die beste Fertigungstechnik auf diesem Planeten. Dadurch sind die Strukturen kleiner als bei den ARMs und benötigen so weniger Strom und Spannung bzw können viel höher takten. x86er takten aktuell mir deutlich über 4 GHz. Bei den meisten ARMs, die man in Handys findet, werden 2 GHz nicht, oder nur knapp erreicht. Dass man nicht immer merkt, wie schlecht die ARMs im Vergleich sind, liegt oft daran, dass Spezialprozessoren verbaut werden bzw bestimmte Dinge wie z.B. Videocodecs in Hardware vorhanden sind.
 
@(_(_)======B: http://appleneu.com/prozessor-apple-a10x-wird-tsmc-produzieren-nach-10-nm-prozesstechnologie/
Was hat Intel nochmal für eine Fertigungstechnik?
 
@theBlizz: Kennst du dich damit aus? Ich hab bisher noch keine genaueren Informationen bzgl. des 10 nm FF bei TSMC. Bisher war es ja so, dass Intel und TSMC die nm-Angaben auf verschiedene Dinge bezogen und deswegen Intel bei gleichen nm besser war. Gibt es irgend einen Grund anzunehmen, dass es diesmal anders ist als sonst?

Um deine Frage zu beantworten: im August hat die Risikoproduktion mit 'echten' 10 nm begonnen.
http://wccftech.com/intel-starts-10nm-factory-cannonlake/
 
@plasma: durch die Spezialisierung kann zwar ein 5€ ARM Prozessor "problemlos" flüssig 4k wiedergeben hat aber kaum genug Leistung eine Webseite flüssig zu laden.
 
Ob er Recht hat, spielt eigentlich keine Rolle.
Entscheidend ist das, was am Markt Abnehmer findet.

Wir erleben doch alle den Niedergang der klassichen PC's.Obwohl sie wesentlich
leistungsstärker als ARM-Geräte sind.Und das verstehen viele scheinbar nicht,
dass die technische Überlegenheit der x86er für die breite Masse bedeutungslos
geworden ist(weil ARM-Geräte ausreichend Leistung für den Alltagsgebrauch haben).
Und hochgezüchtete Powermaschinen nur noch für eine immer kleiner werdende
Anwendergruppe von Bedeutung sind.
 
@Selawi: für den Privatnutzer ist das richtig - im professionellen Einsatz, selbst wenn es nur PowerPoint und Excel sind, gibt es weiterhin Bedarf an mehr (bezahlbarer) Performance - wer schon mal mit einem NB von Dell (E7460) mit gößeren Tabellen arbeiten durfte, kann ein Lied von singen
 
@4ndroid: Das meinte ich ja mit "kleiner werdende Anwendergruppe"
Ein klassicher PC verschwindet zunehmend aus dem Consumermarkt
(Ausnahme sind vielleicht die Spieler)
Und selbst in einem professionellen Umfeld braucht man in vielen
Bereichen(normale Büroarbeit) keine hochgezüchtet Powermaschine
Ausserdem gibt es da ja auch noch den Wunsch der Softwarehersteller
(und Anwender) sich möglichst von lokalen Resourcen abzukoppeln und
möglichst viel in die Cloud zu verlagern. Auch das vermindert den Bedarf an
lokaler Rechenleistung.
 
@Selawi: dafür gibt es ja die Celeron Schiene von Intel, billig, wenig Verbrauch und ausreichende Performance und am wichtigsten volle Kompatibilität zu allem.
 
Der ARM-Core ist zweitrangig im Consumer-Markt. Da zählt doch eher der 3D-Grafikchip, der Videodecoder-Chip, der LTE-Chip usw. Der ARM-Core, also CPU, ist nur der Verwalter des Ganzen.

Außerhalb des Consumer-Markts zählt dann aber schon eher die CPU, und da wäre der ARM hoffnungslos überfordert.
 
Ich versteh das ganze nicht... ARM wenn es darum geht, möglichst Stromsparende Geräte zu bauen und i86/amd64 wenn es darum geht, Leistungsstarke Geräte zu bauen. Warum wollen so viele ARM im Desktop oder i86/amd64 im Phone sehen? Ergibt für mich alles wenig Sinn. In Zukunft entwickelt man halt eine UWP App und portiert sie mit wenig Aufwand auf iOS, OS X, Linux und Android. Ende Gelände. Das sage ich jetzt nicht, weil die UWP die meisten Fans hätte, sondern weil MS doch Xamarin gekauft hatte, Linux Entwicklerumgebung in Win 10 implementierte. Ich meine als Laie es so verstanden zu haben, daß das am simpelsten sein wird, wenn erst mal alles ausgereift genug ist. OB ARM oder i86/amd64 wird dann nicht mehr sooo wichtig sein, weil Software von vornherein für beides Entwickelt wird ohne den doppelten Aufwand zu haben. Bitte um freundliche Korrektur, wenn ich das nicht richtig begriffen haben sollte.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles