Google arbeitet schon Monate mit geheim entwickelten Super-Chips

Während die Eröffnungs-Keynote der Google I/O vordergründig zwar verschiedene interessante, aber nicht gerade spektakuläre Informationen bereithielt, lüftete Google dann letztlich aber doch ein bisher ziemlich gutgehütetes Geheimnis: Das Ergebnis ... mehr... Google, Tensor Processing Unit, TPU Bildquelle: Google Google, Tensor Processing Unit, TPU Google, Tensor Processing Unit, TPU Google

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
und die beiden Riesen AMD und Intel werden auf längere Sicht in der Versenkung verschwinden. Finde ich super!
 
@AlexKeller: Ich glaube nicht. Wir brauchen immer noch exakte Berechnungen mit hoher Geschwindigkeit, und das macht eine TPU halt einfach nicht.

Willst du die zwei "Riesen" AMD und Intel etwa gegen einen Riesen, Google, eintauschen? Naja.
 
@sinni800: ob es hier nur um Google geht?! ;-) Ne, ich "hasse allgemein das x86/AMD64bit" Chipdesign. Ein Murks und das seit bald 20 Jahren. Für mich als Informatiker einfach unverständlich wie man so etwas abliefern kann. Ist wie eine schlecht geschriebene Anwendung.

Lieber SPARCs als HighEnd und ARM als LowEnd.
 
@AlexKeller: midrange Vorschläge auch eventuell?
 
@AlexKeller: Ich seh schon ein dass x86 mittlerweile organisch gewachsener Müll ist. ARM hält sich aber ehrlich gesagt ganz gut und ich denke ARM kann sich auch im Highend halten. Ist halt Reduced Instruction Set, also muss man komplexere Dinge mit mehr Instructions machen. Dafür sind halt keine Instructions drin die 90% der Zeit nicht genutzt werden. Vor und Nachteile.

Intel hat ja auch IA64 gebaut, also ists jetzt nich so dass Intel nur x86 kann. IA64 war den Leuten aber wohl zu blöd, ist ja auch eine Architektur die viel Arbeit dem Compiler und den Entwicklern überlässt, weil die Prozessoren nicht automatisch Abhängigkeiten zwischen Instruktionen rausfinden und selbst neu ordnen. Hätte ja auch Vorteile gehabt, naja.

SPARC ist eigentlich ganz interessant... Hab kurz bei Wikipedia reingelesen und die verschiebbaren Register sind eigentlich richtig genial. Anstatt Daten umzuschreiben verdreht man einfach den Blickwinkel bis die Daten am richtigen Ort liegen. Gut, SPARC ist auch RISC. Also is das Argument gegen ARM damit ja auch weg.
 
Interessanter Ansatz. :)

Und schön zu hören, daß man auch bei Google weiterdenkt und nicht einfach nur das generische Allzweckzeugs Marke Celeron verbaut. Passende CPU für den passenden Anwendungsfall und die Angelegenheit läuft um längen besser. *daumenhoch*

Wär vielleicht auch was für den Endkundenmarkt, so vom Ansatz her. Spezifischer Prozessor für spezifisches System. Das kurbelt dann auch den Absatz wieder an, solange es für den bewußten Anwendungsfall halt ausreichend performanter läuft. Und sei es nur eine "Spiele-CPU", die mit Steam gut kann und mit MSOffice aber nicht.
 
@RalphS: Alle Jahre wieder, so um I/O herum, wird hier gegen google geflamed was das Zeug hält. Wieso du Minus für deinen Kommentar kassierst ist mir ein Rätsel. Wie dem auch sei.

Zu deinem Kommentar: Das Problem hier wäre wohl die Softwarekompatibilität, in deinem Fall Spiele. Wenn man sich anschaut wie schlecht gewisse Ports für den PC laufen weil sie nicht für eine vereinheitlichte Hardware geschrieben werden kann, scheint mir dein Ansatz etwas problematisch. Das würde die HW Fragmentierung nur erhöhen. Auch ein OS müsste die neuen Chips unterstützen müssen, und das scheint noch nicht im Interesse von z.B. MS zu liegen.

Auf absehbare Zeit sitzen wir auf den bestehenden Architekturen fest.
 
@hundefutter: Richtig, Binärkompatibilität ist ein Problem, daran ist schon IA64 gescheitert.

Ich hatte da eher an spezifische Optimierungen gedacht. Also so, daß da am Ende eine Einheit herauskommt, die für Sache X sehr gut funktioniert und für Sache Y eher schlecht... mal so als ganz blödes Beispiel, daß also am Ende eine CPU herauskommt, die die Unreal Engine in Hardware implementiert und aber ansonsten eher... nichts kann außer bootstrapping.

Außerdem, Stichwort Steam Machines. Die Dinger sind ja schon von der Konzeption sehr spezifisch, also kann man das auch bis aufs letzte Hemd an eben diese Konzeption optimieren.

Wenn man das weiterdenkt und das Konzept "Internet of Things" in den Raum wirft und dieses dann vor allem auch ein bißchen weiter denkt, sind wir da eigentlich recht schnell an recht spezifischen Anforderungen... die schlicht keines generischen Prozessors bedürfen oder die zumindest mit einer "Sonderanfertigung" (= für diese Geräteklasse optimierten Hardware) signifikant besser laufen würde.

ARM paßt dafür allerdings nicht so richtig. Das ist zu offen und sorgt damit schon von Haus aus für Fragmentierung, wo keine sein muß. Hier hätten also andere Anbieter - andere Entwickler -- noch gute Chancen, sich zu etablieren, denke ich... und darüber hinaus gibt es ja auch noch andere offene Plattformen, wie zB OpenSPARC, auch wenn ich da grad nicht genug in der Materie stehe in bezug auf Eignung und Anpaßbarkeit für "kleine" Bedürfnisse.
 
skynet wurde geboren?
 
@neuernickzumflamen: Daran musste ich auch denken :-D
 
Aus eigener Erfahrung kann ich nur sagen: 22 Tage vom ersten hergestellten Testmuster bis zum produktiven Einsatz sind wirklich sehr erstaunlich.
 
@hurt: naja... erstaunlich hin oder her...

vom Prinzip hat Google unbegrenzte Ressourcen ... und wenn dann mal 500 Programmierer EIN Tool entwickeln ist das doch auch schnell gemacht (selbst wenn es VÖLLIGES Neuland ist).

was ich daran erstaunlich finde, ist dass jemand seine Ressourcen NUTZT... es gibt da einen anderen Hersteller (gut man weiß nicht was in den dunklen Sphären des großen A´s passiert) der eigentlich seit seinem "super Handy" nur Lifestyle auf den Markt brachte... mit Technologie hat das (meiner Meinung nach) nicht viel zu tun.
 
Die Angabe war aber in Performance/Watt.
Und was das angeht, sind ARM-CPUs schon länger den Intel-CPUs überlegen.
Aber das darf man im Alltag eben nicht mit der Rechenleistung vergleichen, denn die Rechenleistung ist ja immer auf eine bestimmte Zeit bezogen. Und bei Performance/Watt kann die Rechenzeit zwar z.B. 10x so lang sein, aber das Rechenergebnis wird eben mit einer geringeren Leistung (Watt) erreicht.
Somit würde ich da jetzt nicht von einer Super-CPU reden, besonders wenn auf der PK auch schon im Vergleich die FPGAs und ASICs erwähnt wurden.
 
@Seth6699: Naja, Chips halt, die das, was sie tun sollen, gut können. Wobei ich persönlich der Meinung bin, daß es sogar -längerfristig- "besser" ist (sein könnte), wenn die aktuelle Implementierung derzeit noch nicht mit anderen CPUs mithalten kann - einfach deswegen, weil es eine eigene Entwicklung ist.

Dann darf man das meines Erachtens nach schon "Super CPU" nennen, wenn man darunter versteht, daß die bewußte CPU hinterher perfekt auf ihr Einsatzgebiet abgestimmt ist.

Aber, wie Du natürlich schon sagtest: für den Otto Normal-PC-Menschen hat das nicht die besondere Bewandtnis, und irgendwie vergleichbar im Sinne einer Meßlatte ist es natürlich auch nicht. Eher ein Fall von Konsolen-CPU versus PC-CPU.
 
@RalphS: "...daß die bewußte CPU hinterher perfekt auf ihr Einsatzgebiet abgestimmt ist."

Genau das ist aber ein ASIC (Application Specific Integrated Circuit).
Siehe z.B. die ASICs die für das Minen von Bitcoins gebaut wurden. Diese ASICs machen nichts anderes als Hashes zu berechnen und das schneller und effizienter als jede normale Desktop-CPU oder GPU. ( https://www.bitcoinmining.com/bitcoin-mining-hardware/ ).
 
@Seth6699: Ja, schon klar. Die Frage die sich stellt ist, ob man das eine vom anderen nun wirklich trennen kann(sollte) oder nicht. Sinngemäß, ob man eine selber entwickelte "Spezial-CPU" ASIC nennen kann oder halt nicht.

- Eins muß natürlich jedem klar sein, so Wendungen wie "Super CPU" sind in jeder Form reines PR und damit, vor einem technischen Hintergrund, albern.
 
"Hey Leute, wir haben hier jetzt neue superkrasse Prozessoren, aber sagen euch weder wie sie funktionieren, noch dass wir dafür schon irgendein Patent angemeldet haben, sonst wüsste es ja jeder. Aber sie werden schon eingesetzt und sind superkrass!"

So liest sich das für mich.
Und dann belächelt man Verschwörungstheoretiker...
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen