Windows 10 ab Herbst 2017 mit Emulation von x86-Apps auf ARM-CPUs?

Microsoft arbeitet offenbar daran, klassische x86-Anwendungen auf Geräten mit ARM-Prozessoren nutzbar zu machen. Damit könnte man künftig vielleicht ganz normale Desktop-Programme von Windows 10 auf Smartphones, Tablets und anderen Geräten mit mehr... Prozessor, Cpu, Chip, Arm Bildquelle: ARM Prozessor, Cpu, Chip, Arm Prozessor, Cpu, Chip, Arm ARM

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Genau der richtige weg eines Softwareherstellers! Warum sind die nicht früher auf diese idee gekommen..
 
@azuram20: sind sie... und das schon vor 5 oder 6 Jahren...
nur die Idee ist noch lange nicht gleich dem fertigen Produkt.
 
Stellt sich die Frage ob man Anwendungen die für 24"+ gedacht sind auf 4" nutzen will.
Alle Desktop Programme die mir gerade einfallen sind auf Smartphones oder auch Tablets praktisch unbedienbar. Man müsste eine komplett andere Oberfläche, Bedienkonzept, Funktionsumfang machen... Und welcher Entwickler kann denn heute keine Smartphone Apps bauen, so dass es großen Sinn macht das x86 darauf laufen.
Android Apps auf Pc würde zumindest meiner Meinung nach mehr Sinn für die Nutzer machen.
 
@jackii: Dir ist schon klar, dass das nicht die Idee ist? Die Win32-Programme sollen im Continuum-Modus benutzt werden und offensichtlich nicht im Handy-Modus.
 
@jackii: Installiere dir doch Blue Stacks und co oder direkt Android x86 dann haste deine Android Apps
 
@azuram20: Keine neue Idee, aber jetzt scheinen die ARMs schnell genug zu werden, um kleinere x86 Sachen zu emulieren.
 
@davidsung: Bin mal gespannt wie klein, also was da so emuliert wird. Photoshop 7 wird man wohl nicht mal zum Laufen bekommen, von neuen Programmen ganz zu schweigen. Viel Geld in eine Entwicklung die zwar erst mal gut klingt, dann aber unpraktikabel ist. Um einen Pentium I zu emulieren braucht es bestimmt schon fast mehr Power als eine moderne ARM-CPU liefern kann.

Leute die träumen mit Continuum nächstes Jahr ihre graphischen Killerprogramme zu starten sollten besser aufwachen, bevor sie enttäuscht werden. Notepad++ verwenden können ist zwar nice, aber eben kein Kaufgrund.
 
@otzepo: Jeder sagte "das geht nicht" bis dann einer kam und das nicht wusste und es einfach machte.
 
@otzepo: es geht hier nicht um Photoshop oder irgendwelche Games...

Ich denke Microsoft blickt da mit einem Auge auf das Business Umfeld in dem Hauseigene Applikationen nur für Windows geschrieben werden müssen und dann einfach auf jeden Gerät funktionieren...

... und unterschätze die Macht der Emulatoren nicht, das darf man nicht wie eine "Virtuelle Maschine" vergleichen in dem ein Subsystem läuft dass alle Ressourcen frisst...
Auf der XBox hat Microsoft bewiesen, dass die das ganz gut können, ein effizienter Emulator hat nur wenig Verluste... und wieso sollte dann nicht auf einen 3GB RAM 2Ghz (4Kern) Smartphone Photoshop "brauchbar" laufen <- ganz zu schweigen von den aktuellen Top Smartphones...
nur fürchte ich, dass die "Virtualisierungstechnologie" ein Protokoll ist, das in den aktuellen Smartphones nicht ist und das sozusagen eine "next Gen" Geschichte sein wird... => wo auch hier wieder der Wink ist, warum es garnicht so "Sinnfrei" ist keine Windows Mobile Geräte mehr zu Produzieren, wenn man jetzt schon absehen kann, dass die nächstes Jahr nicht mehr Kompatibel sind...
 
@baeri: Ich meine ja nur, dass die ARM-CPUs mit tollen Werten auffahren und daher viele denken man könne die Taktfrequenz mit Rechenleistung gleich setzen und dann auch noch zwischen den Architekturen aufwiegen. ARM ist im Vergleich zu Intel aber eine langsame Krücke, ein SingleCore Atom liefert mehr Rechenpower als ein QuadCore ARM, mit den neusten ARM-CPUs bekommt man vielleicht einen Pentium I emuliert, was für einige Anwendungen ja funktionieren mag, aber von einer praktischen Verwendung weit entfernt ist.

Ja, ich weiß auch was du meinst, man bekommt seine kleinen Helferchen, die schon zu NT4.0-Zeiten geschrieben wurden, zum Laufen.
Der Artikel selbst suggeriert aber, dass Continuum damit ein Killerfeature wär mit man dann auf Virtualisierung verzichten kann, weil das Smartphone die nötige Power mitbringt.
Ein Smartphone mit Intel-Chip oder eine Virtualisierung mit Azure würde aber bessere Ergebnisse liefern und beides hätte MS direkt machen können, damit Continuum (zusammen mit einem Office365-Abo für die Finanzierung bei der Azure-Lösung) ein echtes Verkaufsargument ist.
Die Emulation mag ein paar Leute begeistern, ich finde es ja auch eigentlich ziemlich toll, es ist aber nur eine Krücke und kein Rennwagen.
 
@otzepo: nun, ich glaube du verwechselst ARM von vor 5 Jahren...
ich gebe dir insofern Recht, dass die x86 Architektur ein VIELFACHES Stärker ist als ein ARM, ABER, hast du dir mal aktuelle Grafikanwendungen angeschaut? Spiele, Videorendering, Audioschnitt,... hier kann man keineswegs von Pentium 1 Sprechen.
Ich kenne keinen echten vergleich zwischen ARM und x86 bei dem man Objektiv bewerten kann ... wie viel z.B. eine aktuelle CPU schafft... aber mit Pentium 1 vergleichen ist Bullshit...
Ich würde mal sagen dass die Netbooks welche vor 7 Jahren für 250€ verkauft wurden bei weiten nicht die Leistung hatten wie es ein heutiges Mittelklassehandy für 250€ hat. und viel mehr will man ja "ERSTMAL" nicht!
=> kein Mensch wird aufwendigen Videoschnitt oder Games auf nen Smartphone bewältigen wollen (auch das kommt mal, aber zuerst kommen normale Programme) <- z.B. SAP aufn Handy wäre GEIL (da spreche ich jetzt aber nicht von nen angepassten Android Modul (wo es ja schon n paar "Kleinigkeiten" gibt), sondern einfach Display ran und ich hab meine komplette Oberfläche wie am PC)
 
@baeri: Jein, ich verwechsle nicht die ARMs von vor 5 Jahren mit den heutigen, ich habe nur die von damals als Referenz genommen, da wirkte es so als ob nur ein 486er emuliert wird und habe es dementsprechend hoch gerechnet.
Klar, die nativen Dinge sind auf den Smartphones schon groß, bunt und schnell geworden, dank der GPU, aber es ist schon ein Unterschied, wenn man dann auch noch ein x86 oder gar x86-64 vorgaukeln muss und damit dann auch noch Windows-Programme ausführen möchte.

Zur Rechenpower in die andere Richtung denke ich zum Beispiel an das Motorola Razr i, das war ein Intel Atom Z2460 der SingleCore mit 600MHz taktet (Power Boost 2GHz) und von 1GB RAM unterstützt wurde, damit wurden nicht native ARM-Apps im Emulator gefahren, das emulierte System war ein DualCore mit, lass mich nicht lügen, 2x1200MHz (oder lass es 2x1GHZ gewesen sein). So sieht man ganz gut wie unterschiedlich die Architekturen sind.

Wo wir auch noch mal zu dem Punkt der XBox kommen, dabei handelt es sich doch um einen PowerPC, der ist natürlich stärker als ein ARM und hat auch Vorteile gegenüber x86, ist nur mal leider in der Entwicklung hängen geblieben.

Vielleicht hast du ja Recht und die bekommen es mit einem Octacore hin einen Pentium II zu emulieren, dann könnte Photoshop 7 sogar zum Laufen gebracht gebracht werden
 
@baeri: Man kann so ziemlich sicher sein, dass dies nicht auf aktuellen Geräten laufen wird. Soweit bekannt wird das ganz erst mti dem Snapdragon 830 oder 835 und später möglich. Die 950er haben noch einen SD 810 und selbst das HP Elite x3 "nur" einen SD 820. Damit wird das nichts!
 
@otzepo: nope... ich rechne mit einem ATOM CPU oder einen Intel M :)
ARM war vor 5 Jahren nicht Leistungsfähig weil es auch keine SAU interessiert hat...
Mittlerweile sind die ganz schön in die Pushen gekommen und sogar für Serveranwendungen oder Supercomputer nicht uninteressant geworden (dazu einfach mal Google bemühen)

ARM ist nicht "schlechter" ARM ist einfach ANDERS...
Bisher hast du auf deinen i7 oder auch nur i3 nen Lüfter drauf, der richtig was Kühlen muss, damit das teil funktioniert... wenn du dir jetzt einen i3-U Prozessor holst, oder m-Prozessor, dann merkst du auch, dass der PC deutlich "gemütlicher" wird... und diesen Unterschied darf man nicht übersehen...
=> Auch dein Pentium musste kräftig gekühlt werden und von Energieeffizienz reden wir erst garnicht (wobei, das ist ja das selbe)...

Mit Office haben wir angefangen (guckst du Windows mobile Continuum, Edge, Office auf dem L950 läuft SUPER, sogar 4k YouTube Videos sind möglich)... d.h. die CONSUMER sind bedient... jetzt folgen die Entwickler und zuletzt die Producer... <- aber geb den ganzen noch n paar Jahre... Mein Problem bei Photoshop ist nicht die CPU oder der RAM... sondern das Display... Was willst denn an *mit glück* 13" (LapDOCK) erreichen? Kein Mensch hat da wirklich Spaß dran was in Photoshop zu machen... und nen Text drüber einfügen, Helligkeitswerte ändern,... kannst auch schon mit nen Handy von vor 5 Jahren!
 
@Scaver: wie bereits geschrieben... liegt aber nicht an der Leistung sondern an dem Fehlenden vt-x <- oder sowas ähnliches
 
@baeri: Sorry, aber auf der Xbox One- von der du redest war das NUR möglich, weil die alte PowerPC-CPU der Xbox 360 nicht die schnellste war. Und sehr ineffizient. Etwa 15 Gflops dauerhaft bei 64 bit SIMD.

Und da ein 8-Kern AMD Jaguar bei 1,6 Ghz für etwa 15 Gflops ausgelegt ist...Ist es doch einfach das ganze zu emulieren? Was soll daran schwer sein?

Schwierig ist es, wenn du versuchst einen 50-Gflop-Prozessor mit einem 15-Gflop-Prozessor zu emulieren. Das dürfte nahezu unmöglich sein.

Bedenke außerdem dass die Xbox One-Eulation der Xbxo 360 alles andere als PERFEKT ist lol. Das ist ne einfache 90%-Emulation. Das bedeutet du hast nur 90% Genauigkeit. Der Rest, die 10%, werden nicht emuliert...Und so läuft das Ganze dann auch...
 
@baeri: "und wieso sollte dann nicht auf einen 3GB RAM 2Ghz (4Kern) Smartphone Photoshop "brauchbar" laufen <- ganz zu schweigen von den aktuellen Top Smartphones..."

Weil der 2-Ghz ARM in etwa einem 500 Mhz Pentium 4 entspricht. Oder sogar Pentium 3. Deswegen.

So und jetzt gehst du mal ins Jahr 2003 zurück als solche Prozessoren noch Standard waren.

Und jetzt spulst du mal 15 Jahre in die Gegenwart.

Fällt was auf? Welche X86-Programme kann man denn heute mit ner 500 Mhz Pentium 3/Pentium 4-CPU so ausführen?

GTA 3 vielleicht. Gerade so... Oder halt solche uralten Spiele. Oder manche Programme wie Word & Co von 2000. Oder Standard-Dinge wie den Taschenrechner, oder so. Oder ICQ, das ging selbst im Jahr 2005 noch problemlos mit nem Pentium 3 mit 500 Mhz...

Aber moderne Sachen? Photoshop? Da würdest du glatt ne Ruckelpartie bekommen ;)

Bei ARM gilt immer. Nimm den Wert in Ghz und teile ihn durch 5. Dann hast du die ungefähre Leistung eines x86-Prozessors welche dieser ARM-Prozessor entspricht. Denn ein ARM-Prozesssor ist in etwa 5x langsamer pro Ghz/Mhz als ein vergleichbarer X86-Prozessor.

Also von 2 Ghz hast du also etwa einen 400 Mhz Prozesssor in x86.

Jetzt überlegst halt noch schnell welche Prozessoren mit 400 Mhz so laufen. Nen Core 2 Duo schonmal nicht (2006). Nen Core i3? Core i5? Nie im Leben.

Ein ARM-Prozessor müsste mit 8 Ghz laufen um der Leistung eines 2 GHZ Core 2 Duo zu entsprechen.

Ergo bleiben nicht viele Möglichkeiten...

Nur so zur Info: Ein ARM-Prozessor, egal welches Modell, leistet nicht mehr als 2-4 Gflops pro Kern. Und das ist das maximum!

X86 startet heute erst bei 10 Gflops pro Kern.
 
@otzepo: So ist es. Arm ist und war nie dazu gedacht, leistungsfähig zu sein. Und es ist es auch nicht.

Weshalb ja heute 90% eines Smartphones in der Cloud abläuft. Weil es selbst keine große Leistung hat.

Denn wenn man eine 50-Gflop-CPU im Smartphone hätte, bräuchte man ja keine Cloud, die die Berechnungen übernimmt.

Das Problem ist halt, dass eine CPU, die 50 Gflops erbringt, eben auch eine TDP von etwa 20 Watt hat.

Und kein Smartphone kann 20 Watt thermischer Verlustleistung aushalten.

Es würde glatt nach einigen Minuten verdampfen xD
 
@baeri: Nein. ARM ist und war noch nie sonderlich leistungsfähig.

Du kommst auch HEUTE mit einer 3-Ghz ARM-Cpu nichtmal ansatzweise an einen Intel Core i3 ran. Nichtmal ansatzweise.

Das gelingt nur in einem theroetischen Browser-Benchmark.

Doch wie du weißt besteht ein Browser-Benchmark nur aus theoretischen SIMD-Berechnungen. Da laufen ein paar Java-Scripte durch oder ein paar SIMD-Berechnungen.

Im wahren Einsatz jedoch, z.b. wenn du ein Spiel startest oder Photoshp öffnest, gehts nicht nur um SIMD. Da wird alles in einem Prozessor verlangt, nicht nur ein paar SIMD (aka ARM-Neon-Einheiten-Berechnungen)-Befehle.

Und genau hier hakt`s bei ARM schonmal: Stichpunkt Ladezeiten. Na nie gewundert wieso es manchmal 1 Minute dauert bis sich eine App auf dem Smartphone öffnet, wenn du viel im Hintergrund laufen hast?

Genau hier- im professionellen Multitasking-Einsatz, versagen ARM-Prozessoren.
Sobald du auch nur Photoshop auf nem ARM-Chip öffnen würdest, würde es MINDESTENS 1 Minute (!) dauern bis es geöffnet ist. Vielleicht sogar 2.

Während ein Core i3 das in 10 Sekunden macht.

Und soviel schneller ist ARM nicht geworden seit 2013.

ARM hat das haargenau selbe Problem was INTEL jetzt hat. Ihre Chips werden nicht mehr viel schneller.

Intel-Chips z.b. wurden durchschnittich 5-10% schneller pro Jahr.

Der letzte ARM-Chip hat gerade so mit Mühe & Not dank Shrink 27% Steigerung hinbekommen. Dank 10nm-Bauweise.

Interessant wirds, wie schnell jetzt der nächste ARM-Prozessor wird. Tja und erste Schätzungen besagen, dass es ab 2018 bei ARM losgeht mit den 5/10%-"Steigerungen" die man schon von Intel kennt.

Da man einfach nur von 10nm auf 7nm gehen kann. Und was da für Probleme auf die Chiphersteller zukommen...kannst ja mal Intel fragen xD

Nicht umsonst hat Intel schon vor 6 Monaten das "Handtuch" geworfen. Daher kommen keine neuen, 50% leistungsfähigeren Chips mehr pro Jahr.

Diese Zeiten sind endgültig vorbei.
 
@otzepo: PowerPCs sind nicht "in der Entwicklung hängengelieben".

Die Fertigung sogenannter CISC-PPCs (also PowerPCs mit komplexen Befehlen wie man sie von ARM/X86 kennt) wurde einfach nur eingestellt.

Da sie zu teuer war. Und solche Chips nunmal zu heiß wurden (schon damals Dark Silicon-Phänomen).

Heutige PowerPCs sind daher restlos solche die auf einfachen Befehlen aufbauen (100% RISC). Diese Chips überhitzen nicht. Die sind auch deutlich billiger zu fertigen.

Trotzdem kostet so ein typischer 3-Kern PowerPC mit einer 4-Stufen Pipeline heute noch 50 Dollar in der Fertigung.

Während z.b. eine ARM-CPu nur 5-10 Dollar kostet im Durchschnitt (nur Highend-Modelle sind teurer mit etwa 20-25 Dollar).

Ein PowerPC von 2010 im Vergleich zu 2015 ist um den Faktor 10 langsamer.

Es wurden beim PowerPC-Design halt nur Kleinigkeiten angepasst bei den Befehlen.

Dafür wurde die Hardware- also wie die Leiterbahnen angepasst sind (Layout) massiv verbessert. Und das bringt in der Praxis deutlich mehr Leistung.

So verwendet man z.b. statt einem veralteten 2 Gbyte-Bus heute einen 20 Gbyte/S-Bus.

Das macht, in der Praxis, tatsächlcih einen PowerPC 10x schneller, da er 10x schneller Befehle bearbeiten kann. Die Prozent mehr Bandbreite wandeln sich 1:1 in mehr Performance um.
 
@BestUser: ich weiß nicht woher du deine Werte hast, aber ich hab das "Dumpfe" Gefühl, dass du die Relation zwischen was möglich ist und was man braucht hier einfach fehlt...

Die CPU von meinem Arbeitstablett (ein M Prozessor) erreicht seltenst die 20%...
Continuum zeigt mir Office und Edge in einem Schnellen und flüssigen betrieb...

wenn du "Ruckelpartie" schreibst denk ich irgendwie an Rendering, Spiele,... davon hab ich NIE gesprochen!

es geht mir nicht in den Kopf, dass immer alle gleich Crysis Zocken wollen...
Natürlich hab ich auch ne Workstation und denk mit, mit Doppelt so viel RAM könnte ich... oder mit ner CPU mehr wäre das möglich... aber genau diese Anwendungen jucken noch nicht mal 2% der potenziellen Kunden. Kurzum, hört auf mit euren "Sinnlosen" vergleichen von Gigaflops und Pentium von vor 15 Jahren ... kein Mensch interessiert sich dafür wie schnell ein Prozessor ist, interessant ist läuft MEIN PROGRAMM in einer NUTZBAREN GESCHWINDIGKEIT und da sag ich voraus JA.
Für alle die Videorendern und Zocken wollen sage ich IHR BRAUCH GANZ SICHER NOCH NEN RECHNER!
 
@otzepo: Du hast das System nicht verstanden. Es wird nicht das ganze OS oder Hardware emuliert, sondern nur exakt das, was für das eine Programm gerade notwendig ist.
Es soll auch kein Ersatz für Workstations sein. Keiner kommt auf die Idee, dort Photoshop oder CAD Programme zu nutzen. Für ein professionelles Arbeiten sind selbst mehrt als 80% aller im Umlauf befindlichen Rechner zu schwach (wenn man immer die neuste Software und deren Anforderungen zugrunde legt!).

Emuliert werden hier exakt nur die SAchen, die eben für Programm X benötigt werden und eben nicht alles, was x86 zu bieten hat. Das spart enorm Ressourcen.
 
@Scaver: Genau so meine ich es ja auch, nur der Artikel klingt nach was anderem. Die nennen es als Alternative zur Virtualisierung und als Lösung für kleine Desktop-Systeme und genau diesen Einsatzbereich sehe ich darin nicht.
 
@otzepo: Na sowas wie den Taschenrechner z.b. ;) Jetzt brauchste keine "App" mehr dafür.

Für mich sind das längst keine Nachrichten.

Denn als Privatentwickler weiß man dass nichts einfacher zu emulieren ist als X86. Und mit ARM kann man das kinderleicht.

Schließlich ist ARM auch nur eine andere Form von X86. Einfach nur mit noch mehr möglichen bzw anderen Befehlen. Aber das Funktionsprinzip ist dasselbe.
 
@davidsung: Solange das Programm dann viele Bibliotheken nutzt, die es dann auch für ARM gibt [1], wird dieser Performanceverlust nicht so stark sein.

[1] - Ein Funktionsaufruf einer Funktion aus einer Bibliothek ist bei allen CPU's grob gesehen nur ein Sprung an eine andere Adresse. Einzigste was beim Aufruf angepasst werden muss ist sind die Parameter der Funktion undRückgabewert.
 
@davidsung: Hat nicht nur etwas mit der Geschwindigkeit zu tun. x86 Befehlssätze sind um einige komplexer als ARM Befehlssätze. Deswegen kann x86 auch problemlos ARM emulieren, aber nicht umgekehrt.
Nun sind ARM weit genug und die Emulatoren auch, um die absolut notwendigsten x86 Befehlssätze emulieren zu können.

Ein Beispiel: Jemand der Mathematik und Informatik studiert hat (= x86) kann einen einfachen Dreisatz berechnen, wie aber auch notwendige Berechnungen zur Entwicklung von Quantencomputern. Der mit nem normalen Hauptschulabschluss (= ARM; früher, heute eher Realschulabschluss) bekommt den Dreisatz genauso gut hin, vielleicht sogar besser. Aber die höhere Mathematik für Quantencomputer wird er niemals hinbekommen.
 
@Scaver: "Der mit nem normalen Hauptschulabschluss (= ARM; früher, heute eher Realschulabschluss) bekommt den Dreisatz genauso gut hin, vielleicht sogar besser. Aber die höhere Mathematik für Quantencomputer wird er niemals hinbekommen."

Sorry, aber GOOGLE (wer dort arbeiten will) sagt das Genaue Gegenteil.

Soll heißen: Ab sofort werden nur noch Leute mit Hauptschulabschluss gesucht! Und KEINE Uni-Studenten mehr.

Gründe: Uni-Studenten können komplexe Probleme nicht lösen (nur ein Beispiel: Sie können nicht erkennen auf welcher Grundlage z.b. ein Videospiel läuft, also angenommen man zeigt dir einen 5-Sekunden Schnipsel und du sollst sagen ob es auf nem x86-, nem ARM- oder ner PowerPC-Architektur läuft. Könntest du das? Also ich kann es, weil ich es mir selbst beigebracht habe, zu erkennen, wie es geht, es gibt speziellle Charakteristika woran man das erkennt).
Und sie können das nicht...
Weil denen das sogenannte "abstrakte Denken" fehlt. Weil sie zu "eingebildet" sind und denken sie könnten keine Fehler machen. Und weil sie offenbar ihr praktsiches Wissen (das wenige, was sie besitzen) nicht in der Realität auf andere Bereiche anwenden können. Sich eben selbst fortbilden wenn man so sagen will.

Es werden also Leute gesucht, die auch Fehler zugeben können (ich z.b. habe das neuich getan, vor 4 Jahren sagte ich mal HBM wäre die Zukunft. Heute würde ich das aber revidieren und sagen HBM hat keine Zukunft weil es viel zu anfällig ist, siehe SD-Karten-Probleme bei Chips kleiner als 28nm). Es werden Leute gesucht, die genau wissen wenn sie etwas falsch machen. Vor allem aber gehts um Leute die ihr Wissen auch PRAKTISCH in der realen Welt anwenden können und auf andere Bereiche ausweiten können. 99% aller Uni-Absolventen versagen hier. Genau das wurde mir nämlich vor vielen Jahren mal erzählt, das war sehr interesssant als ein Dozent das erwähnte, dass viele Uni-Absolventen später nicht klar kommen im Berufsleben...

Dass Unis heute viel zu wenig praktisches Wissen beibringen. Und viel zu viel threoetischen Müll den keiner auch im Leben anwenden kann.

Ich kann aber abstrakt denken. Und ich habe nie studiert xD Sowas lernt man auch nicht auf einer Uni...

Siehe hier ein Artikel darüber:

http://diepresse.com/home/wirtschaft/eco1848/5119207/Job-bei-Google-Bitte-ohne-UniAbschluss

Anders ausgedrückt: Google sucht jetzt Hochbegabte. Und die findet man nicht auf Unis oder Hochschulen.

Sondern meist unscheinbar im Alltag auf einer Sonderschule.
5 Jahre später merken diese "Hochbegabten" dann dass sie etwas in sich haben. Plötzlich werden ihre Noten zum Ende hin rapide verbessert. Man ärgert sich, dass man kein Abitur gemacht hat, obwohl es einem empfohlen wurde.

Und wieder 10 Jahre später lernt so ein Mensch pro Tag 3 Bücher auswendig (nein das ist kein Scherz). Diese Menschen ticken praktisch jeden Tag anders und lernen pro Tag das, was ein normaler Mensch in einem Jahr (!) lernt.

Und genau solche Leute sucht Google. Denn nur diese sind in der Lage komplexe Probleme oder Thematiken allein (auf sich gestellt) oder im Team mit anderen ihrer Art zu lösen.

Heute ist man also an "Normalos" bei Google & Co nicht mehr interessiert.

Anders ausgedrückt heißt das: Viele Leute die von Uni & Co kommen versagen bei den Aufgaben die Google & Co ihnen im Beruf stellen.
 
@BestUser: Theoretisch lernt man auf dem Gymnasium das Grundwissen was man für jegliche Studien braucht und auf der Uni wie man sich das Wissen selbst aneignet.

Praktisch gebe ich dir bei der Mathematik recht, viele mit Abitur haben keinen blassen Schimmer wie ein Dreisatz/die Quotientengleichung funktioniert (auch lustig, wenn noch Zinsen oder so was dazu kommt) und sind aufgeschmissen, da sie keine Formel erstellen sondern eine fertige Formel auswendig gelernt haben, diese aber wieder vergessen ist. Der Realschüler muss so gut wie keine Formeln kennen und macht es somit nicht auf dem direkten Weg, er weiß aber was er tut und baut sich die Lösung abstrakt auf und die Wege werden dabei teilweise sogar noch leichter (MwSt drauf, einfach mal 1,19 ist so ein Beispiel - der Berufsträger wundert sich wie man ohne Formeln die richtigen Ergenisse erhält. Dann zweifelt er an seinem eigenen Verstand, wenn man sagt ProCENT, also 119% wollen wir haben durch 100% = 1,19, so was leichtes haben die nie gelernt).

Unser Schulsystem ist aber kaputt, da es zu sehr an wirtschaftliche Interessen angelehnt ist und die Hochschulen nicht mehr die Eigenständigkeit fördern sondern zu einer schulischen Ausbildung verkommen sind. Hochintelligente bleiben auf der Strecke, da sie unterfordert sind und mit dem Tempo von den Leuten mithalten sollen, die auf dem Gymnasium nichts zu suchen haben. Dann geht man lieber auf eine niedrigere Schulform und schwimmt mit ohne etwas dafür zu tun und hat viel mehr Zeit für seine Hobbies.

Zum abstrakt Denken würde ich aber behaupten, dass ein Maschinenbauingenieur sehr wohl dazu in der Lage ist. Aber schon klar, ein Mathematiker erstellt Formeln die er in der Praxis nicht anwenden kann, da er sich dabei verrechnet. Der Ingenieur ist nicht in der Lage so komplexe Formeln aufzustellen, versteht sie aber und kann diese fehlerfrei anwenden.

Hochbegabte findet man auch an Universitäten, aber wie du schon sagst, die findet man auch auf der Sonderschule oder in der Arbeitslosigkeit. Natürlich sind diese eine Bereicherung für Firmen wie Google und Co, aber die müssen mühsam gefunden werden und die Personalabteilung darf nicht auf Blender hereinfallen.
 
@otzepo: Zinseszins war immer mein Spezialgebiet, was Mathematik angeht...Aber heute denke ich an ganz andere Dinge. Weit weit fortgeschrittener. Sowas lernt man nicht an einer Schule.

Ein Beispiel: Einmal aus Langeweile hatte ich vor vielen Jahren mal auf nem Blatt eine Rechnung aufgestellt, wieviele Prozessor-Kerne nötig wären, um die Rechenleistung des Gehirns zu übertrefffen. Das war lustig. Das Ergebnis hat selbst mich überrascht. Es ging eben darum auszurechnen wieviel schneller die Prozessoren noch werden müssen damit man die Gehirnleistung erreicht. Und das hatte ich mit ner Basis gemacht von dem Wissen, dass X Prozessorkerne auf einen Die passen.

Natürlich nicht irgendwelche Prozessoren, die man im Laden kaufen kann. Es waren spezielle, die auf Optik und "Deep Learning" basieren. Keine Grafikkarten die einfach nur vernetzt werden.

Und wenn man da mal schnell sowas wie wie 65536² ausrechnen muss, merkt man erst wie wichtig Mathe ist :D

Damals passten 1024 Kerne auf einen Die. Heute sind 8192 möglich. Da ist es schon interessant zu sehen wie lustig dann Mathematik werden kann wenn man alles immer verdoppeln oder vervierfachen muss.

PS:

"MwSt drauf, einfach mal 1,19 ist so ein Beispiel - der Berufsträger wundert sich wie man ohne Formeln die richtigen Ergenisse erhält. Dann zweifelt er an seinem eigenen Verstand, wenn man sagt ProCENT, also 119% wollen wir haben durch 100% = 1,19, so was leichtes haben die nie gelernt)."

Exakt so ist es.

Vielleicht kennst du ja den Spruch "Kleinen Wert durch großen Wert ergibt den Prozentwert" noch? ;) Eigentlich kinderleicht.

Aber manche versagen an solchen einfachen Dingen heute schon...
 
Abwarten, MS hatte auch die Android und IOS Bridge angekündigt und davon hört man auch nichts mehr!
 
@Romed: Die Android Bridge wurde eingestellt, die iOS Bridge ist verfügbar und voll funktionsfähig.
 
@HeadCrash: Und wird bis auf wenige Ausnahmen überhaupt nicht genutzt.
 
@FuzzyLogic: Das liegt aber nicht an MS. Was x86 angeht ist das Angebot aber bereits vorhanden.
 
@Romed: Kannst hier den aktuellen Stand live anschauen, ja sogar mithelfen: https://github.com/Microsoft/WinObjC
 
@Romed: Da bist du nicht auf dem aktuellen stand, MS hat hier auch weit mehr als nur die Ankündigung geliefert sondern z.B. auch gesagt dass man die Android Bridge nicht weiter verfolgt (quasi betrieb der Android apps auf Windows).

Die iOS Bridge (Konvertierung der Apps zu UWP) wird aktiv weiterentwickelt, man kann sie runterladen und auch apps damit in den store stellen

übrigens hast du noch die web bridge vergessen, auch diese wird aktiv weiterentwickelt und man kann damit apps in den store packen.
 
@Romed: Islandwood(iOS): https://github.com/Microsoft/WinObjC
Android Bridge wurde wegen zu hohem RAM verbrauch des Android Userlands eingestellt, dessen Unterbau kennen wir jetzt aber als Ubuntu auf Linux Subsystem auf Windows.
 
@Romed: Falsch. Die iOS-Bridge existiert noch, sieht man auch bei der Spotify-App für Windows Phone und Windows 10 Mobile. Candy Crush für Windows 10 Mobile basiert auch au die iOS-Brigde. Bin ehrlichgesagt froh, dass die Android Bridge eingestellt und die iOS-Bridge weiterentwickelt wird.
 
Emulation von Android Apps unter Windows 10 Mobile hätte ich besser gefunden.
 
@Jogibär: Wäre für die Appversorgung sicher gut, strategisch hätte es auch ein schuss ins knie werden können. Schlussendlich bleibt, MS sah wohl letzteres und hats sein lassen
 
@0711: Das musst mir jetzt erklären, warum wär das ein Schuss ins Knie gewesen? Weil nachher keiner mehr für Windows 10 Mobile entwickelt?
 
@Tintifax: Das hätte eine Gefahr sein können (siehe z.B. Blackberry), ich denke auch keine unbegründete...warum extra portierungsaufwand betreiben wenn man die Plattform eh schon abdeckt.
Damit hätte man auch gleichzeitig weitere Bereiche torpediert
Continuum, das man ja als das "Killferfeature" sieht könnte damit nicht versorgt werden
Die "all in one" Plattform wäre damit obsolet, apps für w10m wären eben nicht für w10, xbox oder hololense einfach zu portieren

Obendrein hätte man sich einige der Designschwächen von Android mit an Board geholt...da hat man ja auch das ein oder andere gehört dass dies eine mögliche Ursache für das umdenken war
 
@0711: Und wieviel Entwickler entwickeln jetzt für Windows 10 Mobile? Und vor allem: Gibts Hardwarehersteller bauen noch Geräte? Meiner Meinung nach war die Wahl "Android Bridge oder W10M sterben lassen". Die Gefahr dass es weniger UWP Apps geben würde ist gleich null. Achja, wenn Continuum ein Killerfeature wäre, dann würde es Apps geben auch mit der Android Bridge
 
@Tintifax: nun kann ich dir nicht sagen aber MS scheint diesen weg zu wollen...nicht umsonst räumen sie ja grade auch den store massiv auf, egal ob mobile oder nicht.
Kurzfristig möchte ich dir recht geben, langfristig weiß ich nicht ob die android bridge eben nicht kontraproduktiv gewesen wäre...beide wege können in eine Sackgasse führen.

Dass die android bridge an den Herstellern was geändert hätte denke ich aber nicht
 
@0711: Als Windows Phone User seit WP7 muss ich leider Gottes zugeben, dass Windows Phone/Windows Mobile zur Zeit tot ist. Ganz einfach. Ob Microsoft es schafft W10M in einem Nischenmarkt wiederzubeleben wird die Zukunft zeigen, mehr wird's aber nicht werden. Und nicht dass Du das falsch verstehst: Ich finde das unendlich schade! Aber sehen wir mal den Tatsachen ins Auge. Microsoft hatte mit Windows Mobile 5/6 ein ganz gutes Standing, hat dann den Touch-Start komplett verschlafen. Und weil sie angeblich zuerst Windows Mobile weiterentwickelt haben, um es dann komplett über den Haufen zu werfen, sind sie sehr sehr spät in den Markt eingetreten. Das Problem von Windows Phone war in meinen Augen nie, dass das System schlecht war. Ganz im Gegenteil. Die Leute haben WP nicht gekauft, weil es a) viele Apps nicht gegeben hat, und b) schon recht früh bekannt wurde: "Dein Telefon wird kein Update auf Windows Phone 8 bekommen". Wieder Zeit verloren. Mit Windows Phone 8 hats dann das erste mal sowas wie Shared Libraries mit Windows 8 gegeben. Aber das Problem der Apps war immer noch da. Und dann kam W10M. Microsoft hat (zumindest noch unter Balmer, bzw bis kurz vorm Launch) den Eindruck gemacht, dass sie das Problem erkannt haben. Es fehlen die Apps => Es muss Bridges geben. Eine IOS App einfach übersetzen, eine Android App direkt starten. Gerade mit zweiterem wäre die App-Gap mit dem Launch gegen 0 gegangen. Zumindest extrem schnell geschrumpft. Bei der IOS Bridge hat man zumindest noch das Problem: Der Hersteller muss Interesse dran haben, und diese dann übersetzen/anpassen. Als nächstes haben sie mit dem sterben lassen der Lumia Reihe gleichmal die komplette Hardware eliminiert. War für dritthersteller während es Nokia gegeben hat wenigstens noch ein kleiner Markt vorhanden in dem man aktiv sein hätte können, gibt es jetzt keinen Markt mehr. Ich glaub (bis auf das teure HP Handy) gibt es kein Windows Phone das in den letzten 12 Monaten neu rausgekommen ist. So, aus welchem Grund soll a) ein Hardwarehersteller ein Windows Phone für den Consumer Markt bauen, b) ein Softwarehersteller Software für W10M schreiben, c) ein Softwarehersteller seine iOS App portieren? In meinen Augen gibts keine wirklichen Gründe. Ich kauf mir kein Windows Phone weil es inzwischen wirklich kaum mehr Apps gibt, und ich entwickel keine Apps weil es keine User gibt. Ein Kreislauf, den man in meinen Augen NUR mit der Android Bridge in Griff bekommen hätte können. Und ja: Mir wäre eine ideale Welt, in der Windows 10 Mobile einen Marktanteil von 80 Prozent hätte, in der UWP Apps der Standard sind. Ist es aber nicht.
 
@Tintifax: Weil es gegen die Strategie von MS ist. Der Weg den MS geht, ist der, bei dem der Entwickler mit wenig Aufwand auch für UWP entwickeln kann ( Xamarin, iOS Bridge), sodass eine native Anwendung dabei herauskommt.
 
@L_M_A_O: Erklär mir dann bitte die iOS Bridge?
 
@Tintifax: Mit der iOS Bridge kann man die App auf alle Win10 Geräte bringen und auch alle APIs nutzen.
 
@L_M_A_O: Ich weiß schon was die ios Bridge ist. :) Ich hab mich schlecht ausgedrückt: Mit der IOS bridge passiert GENAU das: Es wird keine wirkliche UWP entwickelt sondern der IOS Code verwendet um die app als uwp zum Laufen zu bringen. Im Prinzip genau das, was laut Dir bei der Android Bridge schlecht wäre.
 
@Tintifax: Nein das stimmt nicht, den du musst wissen, dass das Subsystem nur unter Win10 Mobile lief. Nichts mit Plattformunabhängig, man konnte auch keine spezifischen UWP APIs nutzen, was auch noch sehr relevant ist.
 
@L_M_A_O: Natürlich stimmts. Wenn MS gewollt hätte, dann hätten sie genauso die UWP Apis ansprechen können. Abgesehn davon glaub ich mich an eine frühe Demonstration erinnern können, bei der sie (dann mit Source Anpassung) GENAU das gezeigt haben.
 
@Jogibär: Android Apps wurden nie auf W10M emuliert, sie liefen Nativ auf dem Echten Android Userland mit NT statt Linux Kernel, nur ist das Android Userland was Ram Verbrauch betrifft noch schlimmer als ein Chrome Tab.
Weswegen sie umgedacht haben und GNU Userland auf den Windows PC brachten.
 
Yeah, Ribbons unter iOS... 0.o
 
@wingrill9: ?
 
also auf windows 8 konnte man problemlos diverse x86 programme auf ARM laufen lassen
 
@Ludacris: ???? Welches?
 
@Tintifax: http://www.extremetech.com/computing/148841-how-to-run-normal-x86-windows-apps-on-your-windows-rt-tablet hier zB
 
@Ludacris: Wenn man sich die Liste anschaut was da so zum Laufen gebracht wurde sieht es so aus als ob maximal ein 486er emuliert wird. Das ist Lichtjahre von dem entfernt was man gerne hätte. Ist aber logisch, ein x86er hat viel mehr Rechenpower, da bekommt man mit einem SingleCore Atom einen DualCore ARM emuliert, in die andere Richtung ist es eben alles zu schwach auf der Brust.
 
@otzepo: ja viel ging nicht, aber ich hab mir damals sublime Text installiert und filezilla und hab unterwegs an Webseiten gebastelt :)
 
Microsoft wurschtelt genauso rum wie die Telekom, anstatt gleich Glasfaser bis zum Haus zu verbuddeln setzt man lieber auf Vectoring und macht sich damit doppelte Arbeit. Genauso ist es bei Microsoft, anstatt die Entwicklung von x86 oder x64 Prozessoren für den Mobilfunk Markt voranzutreiben setzt mal lieber weiter auf ARM CPU und Emulatoren.
 
@Quasyboy: Ein x86 Prozessor ist auch nichts anderes als RISC Kerne mit vorübersetzer da echtes CISC zu aufwändig ist, hier ersetzt man nur den Hardware übersetzer durch Software.
 
@Quasyboy: "die Entwicklung von x86 oder x64 Prozessoren für den Mobilfunk Markt" müsste dann schon Intel übernehmen.
 
Da bin ich aber mal gespannt, wie das Resultat aussehen soll. Ich habe mich die letzten Jahrzehnte mit allen möglichen Emulatoren beschäftigt und eine Grundregel blieb immer gleich. Die Host Hardware muss wesentlich leistungsfähiger sein als das emulierte System. Je nach Komplexität des zu emulierenden Systems lag der Faktor, bei Verwendung dynamischer Kompilierung, zwischen 10 und 100.

Jetzt haben wir aber das Problem, dass selbst sehr alte Atom Prozessoren immer noch mehr Leistung haben als aktuelle ARM Prozessoren. Wer diese alten Atoms noch kennt, weiß wir "performant" man mit denen arbeiten konnte.

Natürlich wird eine x86 Vollemulation auf den Dingern laufen. Die Performance wird allerdings mehr als nur unterirdisch sein.
Kommentar abgeben Netiquette beachten!

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles