Startup will CPUs der Marktführer übertrumpfen, legt erste Daten vor

Es ist recht selten geworden, dass neue Unternehmen im Prozessor-Markt auftauchen, die mit komplett neuen Designs gegen die Großen antreten wollen. Doch seit einiger Zeit macht ein Startup namens Soft Machines von sich Reden. mehr... Prozessor, Chip, Wafer Bildquelle: cesweb.org Prozessor, Chip, Wafer Prozessor, Chip, Wafer cesweb.org

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
der grund für so wenig wettbewerb in diesem bereich ist doch im artikel auch angedeutet. man braucht sehr viel know how, erfahrung und vor allem entsprechende maschinen etc. für die herstellung von high end prozessoren. vielleicht liege ich total daneben, ein start up zu dem thema kann ich nicht ernst nehmen.
 
@Matico: Ich kann mich ja irren, aber die Maschinen, um die Wafer zu pressen und die Chips herzustellen haben genügend andere. Du musst nur genug Chips Deines Chipdesigns haben wollen, dann wird das auch was (zu einem nicht zu hohen Preis). Den Punkt kannst Du also streichen.

Das Know How ist natürlich eine andere Geschichte.
 
@Diak: Die Wafer werden bei aller Liebe nicht gepresst.
 
@escalator: Belichtet, geschnitten, gesägt, gecuttet (Denglisch -.-) - wayne, aber Hauptsache jeder weiß, wie und was gemeint ist. ;)
 
@Diak: Bei gepressten Wafern muss ich immer an den Waffelstand des Weihnachtsmarktes denken. Auch spricht kein Mensch in unserem Halbleiterwerk von Maschinen....das sind Anlagen ;-).
....und natürlich fehlt noch entwickeln, ätzen, polieren, dotieren, belacken, bedampfen, backen (tatsächlich->bake) und anderer Kleinkram der je nach Komplexität locker 600-800 Einzelschritte ausmacht und insgesamt 30-45 tage pro Wafer ausmacht. Herstellen kann das natürlich wie schon richtig gesagt jede moderne Halbleiterfab,
 
@escalator: Nur darauf wollte ich hinaus; aber gegen ein paar Waffeln hät ich grad auch nix einzuwenden. :)
 
@Diak: Hätte der feine Herr gerne AMD oder INTEL Waffeln?
 
@Clawhammer: Hmmm... nähme ich diese jetzt, müsste es wohl eine Nintel-Waffel werden. Namd kann da einfach nicht mehr mithalten (im Desktop-Bereich). Das können auch die Liebhaber der drei Buchstaben kaum leugnen.

Vlt sollte ich daher einfach mal eine Diät einlegen und auf den nächsten Winter warten? ;)
 
@Clawhammer: Hauptsache knusprig!
 
@Diak: da hab ich ja ordentlich minus gekriegt :/ ich bleibe aber dabei. der preis generiert sich in diesem fall fast ausschliesslich über die stückzahlen. ob ich die geräte nun kaufe oder miete, da ändert sich nichts. ich bleibe überproportional teuer. ein startup mit high end chips zu einem guten preis wird nicht funktionieren. aber - ich kann mich täuschen. ihr könnt das ja alle backen, gar aktien kaufen wenn dann möglich. dann ärgere ich mich vielleicht. für mich ist das so als würde jemand die produktion von autos backen wollen. "high end" autos die dann aber mit den preisen der aktuellen hersteller mithalten können. glaub ich auch nicht.
 
@Matico: Hmmm - Autovergleiche -.- Aber du hast es gezogen und ich halte mit 'Tesla' dagegen. ;) Klar ist die Firma (noch?) absolute Nische und auch mit ihrem Produkt absolut teuer, aber sie zielten ja auch (erst einmal) nicht auf den Kleinwagenmarkt ab.

Zwar gibt es die Firma nun auch schon seit 2003 und es dauerte eine ganze Weile, aber mitlerweile sind sie angekommen und 'man' kennt die Firma inzwischen. Wenn man erst einmal bekannt geworden ist und dann auch noch schafft, ein Bein in die Tür zu bekommen, ist schon ein gutes Stück Vorarbeit geleistet worden. Im Gegensatz zu beispielsweise Firefox-Mobiles, bei welchen zwar die Bekanntheit gegeben ist, aber Mozilla einfach den Fuß nicht zwischen Tür und Angel bekommen hat.
 
Das wäre dann wohl das Erste mal seit jahren, dass es endlich mal wieder ernsthafte Fortschritte in der CPU-Branche gibt. Nachdem Intel sich ja langsam auf ein Niveau einpegelt...
 
@TomW: Intel hat es auch nicht nötig große Sprünge zu machen. AMD hat die letzten Jahre ja nichts bringen können was nur annähernd Intel gefährlich werden hätte können.
Bei den Prozessoren für Tablets und Smartphones hat Intel dagegen total verpennt und wird da nun mit aller Kraft versuchen vom Kuchen noch ein Stück abzubekommen.
 
"wesentlich höhere Leistungen erreicht, als die Intels Skylake-, Apples A9x- und ARMs Cortex A72-Architekturen" Was soll das heißen? Ein Prozessor hat heutzutage viele unterschiedliche Funktionen, da einfach von leistung zu sprechen ist sinnlos. Jede moderne GPU hat so gesehen mehr Leistung als die ganzen CPUs, da sie viel mehr Transistoren haben. Man sollte schon genauer angeben, was gemeint ist.
 
@Nunk-Junge: Sehe ich genauso. Ich könnte jedes Mal ausflippen, wenn die "Fachleute" schreiben, dass der A9x schneller ist als ein Intel Skylake, nur weil das in bestimmten Benchmarks so ist, heißt es noch lange nicht, dass es wahr ist.
Ohne gleiche Architektur/gleiches System ist der Vergleich sowieso nicht möglich.

@News:
Naja man kann gespannt sein was auf dem Markt passieren wird. Bei Desktops werden die sicher kein leichtes Spiel haben, denn x86/x64 dominiert den Bereich und Intel wird es denen sicher nicht einfach machen. Aber gerade bei mobilen Geräten oder anderen Systemen könnten die groß werden.
 
@Arhey: "Ohne gleiche Architektur/gleiches System ist der Vergleich sowieso nicht möglich." - das ist Schlicht falsch. Insbesondere bei den Supercomputern gibt es verschiedene Architekturen, die man auch miteinanderer Vergleichen kann. Warum sollte das nicht in kleinerem Maßstab funktionieren? Beispielsweise einfach mal schauen, auf wie viele FLOPS das System kommt. Zugegeben, es kommt im Alltag noch mit drauf an, wie gut das OS das System ausnutzt, aber das sagt nichts über den Prozessor aus.
 
@FensterPinguin: Weil es Consumer CPUs werden und dort interessieren FLOPS keinen. Wichtig ist, dass gewisse Bereiche optimiert sind jede CPU muss andere Aufgaben erledigen. Mit einem Autovergleich: für eine Zugmaschine ist die Zuglast und Drehmoment wichtig, für einen PKW sind eher andere Faktoren wichtiger. Manche brauchen viel Platz und holen sich einen Van, andere brauchen einen Sportwagen. Genauso ist es bei den Consumer CPUs, es sind völlig verschiedene Bereiche mit unterschiedlichen Kriterien und unterschiedlicher Software die drauf laufen soll.
Einer braucht Leistung für Spiele, anderer für CAD und anderer will einfach, dass auf seinem Tablet der Akku möglichst lange hält. Und ohne gemeinsamen Nenner (Software/Architektur) sind jegliche Vergleiche für die Tonne.
 
@Nunk-Junge: Der Unterschied ist, dass eine x86 oder ARM zu den "General-purpose processor" gehören, die alles können.
Auf der anderen Seite gibt es so etwas wie die Grafikprozessoren (und andere Spezialisierte), die eine (Art von) Aufgabe besonders gut können, aber andere halt nur sehr Schlecht bis gar nicht.
Noch schneller, aber noch weniger Flexibel, ist es natürlich, einen Algorithmus direkt in Hardware zu machen, aber da hast du dann keine Chance mehr, wenn du auch nur eine Kleinigkeit ändern willst

Von dem, womit im Artikel vergleichen wird, geht imo hervor, zu welcher Kategorie sie gehören und damit sind sie auch vergleichbar.
 
@FensterPinguin: Es stimmt, was Du sagst. CPUs sind Generalisten, GPUs sind Spezialisten (für Grafikberechnungen). Trotzdem werden inzwischen zum Beispiel viele Simulationen auf die GPUs verschoben, auch wenn es keine Grafikberechnungen sind. Sie sind aber für die Art der Berechnung oftmals leistungsfähiger als die CPUs. Außerdem gibt es auch bei den CPUs deutliche Unterschiede. Ich erinnere mich an die Diskussion über Leistung eines Prozessors als die RISC-Prozessoren aufkamen und man sie mit den CISC-Prozessoren vergleichen wollte. Danaben haben Dinge wie FPU, Anzahl und Breite der Register und mehr deutlichen Einfluss auf die Leistung - bei bestimmten Anwendungen. Allgemein über Leistung eines Prozessors zu sprechen ist daher wertlos.
 
@Nunk-Junge: Deswegen habe ich ja auch gesagt "eine Art von Aufgabe" - bei GPUs sind das halt wenige Operationen auf großen Datenmengen, wie man es zuerst bei Grafik, aber halt auch bei Simulationen, Videocodierung etc findet
 
Was in dem Beitrag so gar nicht heraus kommt ist die interessanteste Info überhaupt.
Werden das CPUs in x86 Architektur? Wäre es also möglich ein normales "Consumer" Betriebssystem wie Windows auf den CPUs laufen zu lassen?
 
@KnolleJupp: "Die VISC arbeitet mit AMR-, x86- und eigenem Code zusammen."

Übrigens Herstellung in 16FF-Verfahren bei TSMC - scheint also schon mehr als ne fixe Idee zu sein.
WInFuture hat es ja nicht so mit vernünftigen Infos, deshalb hier mal nen Link *fg*
http://www.golem.de/news/visc-shasta-mojave-soft-machines-neue-cpus-beherrschen-reversed-hyperthreading-1510-116771.html

Hört sich auf jeden Fall nicht so schlecht an - bin gespannt!
 
@oetti1731: Ahh - danke für den Link... so weit war ich mit golem heute noch nicht -.-
 
@KnolleJupp: Hab auch die Befürchtung, dass das so ähnlich endet wie Parallela (Epiphany cores) oder Tilera oder aber Intels eigenes Itanium.
 
@KnolleJupp: Die entwickeln schon seit 2006 diesen Chip und AMD, Globalfoundries, Samsung und noch ein paar mehr finanzieren das. Geplant ist der Chip für Embedded-Systeme und Server die für x86 geschrieben sind, durch eine Übersetzungsschicht wird dieses realisiert. Im Jahr 2014 war der Chip theoretisch schon besser als die zu der Zeit aktuellen ARM- und Intel-Chips und hatten dabei nur einen Takt von 350MHz.
Daher ist entweder die Entwicklung von ARM und Intel besser geworden oder der Chip erfüllt die Erwartungen nicht von 2014, denn damals war von 200-400% effektiver die Rede und heute (in diesem Artikel) nur von 50%.

Das V in VISC steht für virtuell, also sollte durch andere Übersetzungsschichten ein Virtualisieren von anderen Architekturen wohl auch möglich sein. Aber geplant ist eine x86-Kompatiblität.
 
Na dann hoffe ich mal das das nicht wieder eine Varporware wird wie in den 90ern als die "Bitboys Oi"
einen besseren Grafikchip als ATI und NVIDIA mit revoluzionärem neuem Design jahrelang ankündigten und doch nichts als heiße Luft dabei rauskam >> Vaporware !
 
@Helmut Baumann: Es kommt halt darauf an ob die Macher der CPU schon jahrelange erfahrung mit Chipentwicklung haben oder nicht. Simulationen sind das eine aber alles dann in echter Hardware umzusetzen kann durchaus zu massiven Problemen führen, vor allen dann wenn man sowas noch nie zuvor gemacht hat.
 
@Helmut Baumann: Da gab es aber etliche andere Gründe - u.a. lag es an der Unterstützung von Infineon!
Der Glaze hätte(!) einschlagen können!
Kannte damals einige der Jungs noch persönlich aus C64 & Amiga-Zeiten..

Nachtrag: Und hätte es damals sowas wie Crowdfunding gegeben hätte der Chip es geschafft!
 
@oetti1731: Danke für die Info, die genauen Gründe für das Scheitern waren mir noch nicht bekannt, wenns an der Finanzierung lag wäre Crowdfunding bei dem tollen Design natürlich der Retter gewesen.

Leider scheitern viele geniale Ideen an der Vermarktung oder andern kaufmänischen Fehlern (oder fehlendem kaufmänischem Wissen).
 
Îch finde das die Macher hier etwas zu dick auftragen, vor allen deswegen weil sie schon jetzt einen Nachfolgechip ankündigen, wo es doch bis jetzt allenfalls Simulationen zu theorethischen Performance gibt.
Weiterhin kann ich nirgends erkennen um welche Architektur es sich handelt, ob sie x86, ARM oder keinem von beiden ähnelt.

Letzteres wäre eigentlich schon der Todesstoß für den Chip, es sei denn er kann sich in Nischenbereichen behaupten. Ohne kompatible Software ist das Teil sonst nutzlos.

Die sprechen zwar davon schon Prototypen zu haben aber ob die auch funktionieren ist fraglich.

Wenn es darum geht die Effizienz zu verbessern, könnten AMD und Intel durchaus schnell nachziehen, indem sie alte Teile der x86 oder x64 Architektur endlich entsorgen und somit massig Transistoren auf ihren Chips einsparen. Da gibt es allerdings wieder das Problem mit älterer Software und auch das Betriebsystem muss da mitspielen.
 
@X2-3800: Nur mal des Interesses wegen; wieviel Prozent eines Die macht der x86 bzw x64-Part gegenüber dem restlichen Chipdesign aus?

Da es diese Parts auf den Dies ja nun schon quasi ewig gibt, müssten die doch durchentwickelt und dem entsprechend wenig Platz (gegenüber SSE4, AVX und jüngeren Befehlssätzen) einnehmen? Immerhin passen auf die Dies mitlerweile zusätzlich noch reichlich viel Speicher und sogar ganze GPUs mit rauf?
 
@X2-3800: "Die VISC arbeitet mit AMR-, x86- und eigenem Code zusammen." Alle Klarheiten beseitigt?
Er kann beides.
 
Neues Woodoo???
Wie die "Super-Akkus", die man uns seit fast 10 Jahren verkauft?
...warten wir mal ab...
 
@Zonediver: Exakt, keine Branche ist dermaßen gut im bloßen Ankündigen wie die IT. Ich kann mich noch erinnern, wie es um das Jahr 2000 hieß, in 5 bis 8 Jahren werden Computerspiele absolut fotorealistisch sein. In der Realität hat man das bis heute nicht zuwege gebracht.
 
@Heimwerkerkönig: Das liegt wahrscheinlich daran, dass bahnbrechende Entwicklungen erstmal verheimlicht, aufgekauft und/oder für militärische Zwecke verwendet werden.
Bzw gehen bestimmte Patente einfach an die Konkurrenzindustrie(Energie/Öl), die weiterverdienen wollen.
Elektroautos könnten heute schon der absolute Standard sein, man hat sie damals aber im Keim erstickt bevor sie der Öl-Industrie gefährlich werden konnten.
https://www.youtube.com/watch?v=-SeBW3wnOOo
 
@Heimwerkerkönig: Die Spiele heutzutage sind schon sehr nahe am Fotorealismus (bspw. Witcher3). Ausserdem muss man sehen, dass zwischen den 80er Jahren und heute kein Vergleich mehr hergestellt werden kann. Die Entwicklung vom Auto hat deutlich länger gedauert als von der CPU/GPU
 
@Firesign: Nahe am Fotorealismus ist aber kein Fotorealismus, wie in der einstigen Ankündigung. Ein Computerspiel kann heute immer noch problemlos als solches identifiziert werden - und das nach dem doppelten bis dreifachen Zeitrahmen, der damals prognostiziert wurde.
 
@Zonediver: Gibt einige die das gleiche Behaupten .. z.B. Tilera. Enden eh alle wie Itanium.
 
50% mehr REAL WORLD ST-Performance als Skylake?

Ich glaube nicht, Tim.
 
Mir stellt sich nur die Frage: WANN (nicht ob) das Startup aufgekauft wird. :) Ich kenne die internen Vorhaben natürlich nicht, aber es braucht nur genug Geld auf den Tisch gelegt zu werden. War immer so und wird immer so sein. Und das finde ich schade, auch wenn ich genau so reagieren würde. Also ich würde es mir wünschen, wenn Startups statt sich aufkaufen zu lassen ihr Ding durchziehen und Konkurrenz aufbauen. Aber wäre ich so ein Startup und würde man mich aufkaufen wollen, und würde genug Asche auf dem Tisch liegen, würde ich nicht nein sagen. Leider :/
 
@NewsLeser: Das kommt drauf an, ob jemand an sein Produkt glaubt, oder nicht.

Hätte ich einen solchen Prozessor, und zum Beispiel Intel würde mir Milliarden bieten, würde ich mir schon den Gedanken durch den Kopf gehen lassen, warum ein mächtiger Konzern soviel Kohle raus hauen würde. Denn da steckt mit Sicherheit noch mehr drin, als nur die paar Milliarden.

Wie war es mit Whatsapp und Facebook? Ich hätte Facebook den Stinkefinger gezeigt, wenn ich das System entwickelt hätte. Wer eine Software und die Rechte daran für so unglaublich viel Geld kaufen will, der hat Angst davor und versucht Konkurrenz loszuwerden.
 
Ich würde es dem Unternehmen gönnen.
Leider setzt sich ja meinst nicht das beste durch, sondern der der man meistens Geld in die Werbung steckt. Wenn dann noch Fehler gemacht werden..... Naja
Das war VHS und Beta/ V2000 so. Bei HDDvd und Blue ray, bei Windows und OS/2,
und bei Transmeta mit ihrem Efficeon und Crusoe eben auch.
Warten wir es mal ab.
 
@Trabant: Was ist an einer HD DVD denn bitte besser als an einer Blu-ray Disc?
 
@shawn777: Das Medium ist robuster.
 
@Firesign: Und das ist wo belegt?
 
Zu einer CPU gehört für gewöhnlich auch ein Chipsatz dazu. Hat man dazu schon Informationen?
 
Wenn sie ihr Versprechen halten, wird das Unternehmen eh von Intel aufgekauft.
 
@Firesign: Wenn sie sich kaufen lassen! ;-)
Wenn sie mit Weitblick die Entwicklung machen, werden sie wissen, was sie da geschaffen haben und wo das ganze hinführen wird. Dann werden sie Intel sagen, dass sie ihren Scheck behalten sollen und sich einfach nur warm anziehen müssen! :-D
 
Wurden diese "Daten" unter kontrollierten (von dritter Stelle bestätigten) Umgebungen getestet/erstellt?

Ich kann auch in 5 Minuten eine Powerpoint Grafik mit schönen Kurven zeichnen. Nachdem offensichtlich der Chip noch nicht einmal in Vorserie existiert setzte ich bei diesem neuen Wunder-Startup eher auf die Kathegorie Scam in der Liga von "Solar roadways","Thorium betriebenes Superauto", und "Plastik das aus der Luft gewonnen wird" etc. Zu all diesen gab es echte Artikel, die sich allesamt offenbar von schönen Präsentationen ohne Inhalt haben blenden lassen.

Ein komplett neues Chipdesign ist für ein Startup schlicht eine technische nahezu Unmöglichkeit. Mit so einem Design dann auch noch alle etablierten großen Unternehmen in Performance/Watt in die Ecke zu stellen wäre wie den Lotto Jackpott zu knacken während man vom Blitz getroffen wird.

Klingt schön, ich würde es ihnen gönnen aber mit größter Wahrscheinlichkeit löst sich das ding einfach in Luft auf. Ich lass mich aber gerne überraschen.
 
Falls das wirklich der Fall sein sollte, wird man sich bei Intel sicher schon die Hände reiben und die Portokasse öffnen.
 
Man müsste das mal mit der ZEN-Architektur (AMD) die diesen Sommer verfügbar wird vergleichen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles