Nvidia-Chef: GPUs in sechs Jahren 570 mal schneller

Grafikkarten Jen-Hsun Huang, Chef des Grafikchip-Herstellers Nvidia, geht davon aus, dass die Performance-Steigerung von GPUs die Beschleunigung herkömmlicher Prozessoren um ein Vielfaches übertreffen wird. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
ui das isn ne harte prognose ob nvidia das einhalten kann :) 570x schneller isn hartes ding :D Sie sind zwar noch nicht so leistungsstart wie CPU's in sachen berechnung von normalen Applikationen, aber sie gewinnen echt an stellen wert =)
 
@Currywurst: Aber es geht ja gerade darum, dass GPUs nicht so genau rechnen wie CPUs, dafür aber viel schneller. Sehr interessant für Numeriker.
 
@Currywurst & Leopard: da haben sich aber zwei spezialisten gefunden. An Currywurst: wird sich die 570 fache beschleunigung etwa auf "normale applikationen" auswirken?! wie werden und haben sie denn an stellenwert gewonnen? (wenn man mal bedenkt, dass GPUs wie bisher auch weiterhin für spezialaufgaben verwendet werden) An Leopard: GPUs rechnen nicht so genau wie CPUs?? wo hast du denn das her? ist fließkomma für dich etwa ungenauer als ganzzahl?!? und inwiefern kann etwas ungenau ausgerechnet werden, außer man hat zu wenig speicher. aber da würde ich von dir gerne mal wissen, wie viel so eine GPU überhaupt hat. nicht videospeicher! ... nenene...
 
@Currywurst: Also ich als langjähriger Nvidia Fan (Riva TNT war die erste, aktuell ne 8800GT) sag jetzt einfach mal nö. Nix gibts. Aber man kann ja Zahlen auch sohindrehen wie man sie braucht. Vergleicht man ne FX 5200 mit ner 295GTX, dann ist die in einigen bereichen 100 oder 200 x so schnell. Das ist aber kein Indikator für irgendwas, sondern nur Zahlendrescherei die zu nichts außer Aufmerksamkeit und Fanboybashing führt.
 
@laboon: also ich hab auch mal gehört das GPUs weniger genau rechnen als CPUs. bei doppelter genauigkeit steht für zwischenergebnisse oft wirklich doppelt so viel speicher zur verfügung. stell dir mal kurz vor du könntest das ergebniss von 3 geteilt durch 2 nur ganzzahlig speichern, du musst zugeben das 1,5 genauer als 1 ist. in der numerischen mathematik ist es notwendig zwischenergebnisse in höherer genauigkeit zu speichern, um ein endergebniss mit ausreichender genauigkeit zu erhalten. bei speziellen numerischen aufgaben wie eben grafik reicht einfache genauigkeit aber vollkommen aus und daher ist nicht zwingend gesagt das GPUs die anforderungen in hinblick auf die genauigkeit genauso wie CPUs erfüllen.
 
@(R)MacGyver: Was mich mehr interessiert ist: Wieviel Strom werden diese GPUs verbraten? Vielleicht scheitert das Leistungwunder von Herrn Huang auch an den nicht vorhandenen 20.000 Watt PC-Netzteilen.
 
@laboon: Öhm, ja mein Mathematikerfreund. Floats sind ungenau, sie mit integer zu vergleichen ist aber auch nicht wirklich sinnig. Das muss man nicht wissen, wenn man nicht aus dem IT- oder Mathebereich kommt. Aber man muss ja dann auch keine falschen Aussagen verbreiten. und @Jen-Hsun Huang ich wünsche mir nicht 570x mehr Leistung sondern 95% weniger Stromverbrauch. Wenn du das geschafft hast bist du toll. Aber bei dem was heutigen Grafikkarten an Strom schlucken brauchen sich weder ATI noch NVIDIA auf die Schultern klopfen...
 
@(R)MacGyver: ich habe "mal gehört", dass GPUs auf fließkomma und CPUs auf integer ausgelegt sind. das was du mit deinem rechenbeispiel angegeben hast, ist natürlich korrekt. aber wer hat nun das richtige gehört?? sollte der speicher tatsächlich kleiner sein, was ich jetzt gerade allerdings auch nicht weiß, dann werden die GPUs wohl doch ungenauer sein.
@silentius: blöd nur, dass ich genau aus dem bereich komme. dann muss ich es wohl nicht drauf haben... integer sind also genauer als fließkommazahlen?? seit wann? erklär mir dann bitte, was ich wohl noch nicht weiß. oder beziehst du dich auf den wertebereich. also bei 32 bit ca. 4 milliarden werte bei integer. was bei floats entsprechend weniger ist. oder steh ich jetzt grade auf dem schlauch und gehe in die völlig falsche richtung?
 
@laboon: Nein... floats sind vor dem Komma genau. Das Problem liegt bei den Nachkommastellen. Floats und Integer sind unterschiedlich. Mein vergleich bezog sich auf den Vergleich oben :-)
 
@SkyScraper: Könnte schon funktionieren, man braucht halt nur ein 32A/400V CEE-Anschluss im Haus für den PC :D
 
Hm, wenn ich jetzt 6 Jahre zurückdenke, wird das wohl nix mit den 570x ^^ (Als Bsp. ne 6 Jahre alte Karte, die 1000 Punkte im benchmark hat, da müsste eine aktuelle ja 570000 Punkte haben) Sicher mag die entwicklung immer schneller vorran schreiten aber so schnell nun auch wieder nicht.. Das sind immer diese Versprechungen, woran sich in 6 Jahren keiner mehr erinnert und garnicht feststellen kann, ob die ihr Ziel eingehalten haben :)
 
@Magnus: Genau das habe ich auch gerade gedacht aber anscheinend haben die schon was in der Schublade liegen.
 
@mausie: 1. sagt der benchmakr ja nichts ueber die leistung des GPU sondern des systems aus .. und jetzt schau mal was man vor 20 jahren fuer ne grafik leistung im system hatte..
 
@Magnus: Glaub ich auch net so ganz. Aber wenn ich mir CUDA auf einem 960 Core Tesla System anschaue (darum geht es hier wohl)... vor 5 Jahren war noch nicht daran zu denken, paralleles Supercomputing auf einem GPU basierenden System laufen zulassen. Ich nutze im Beruf ein Tesla basiertes System, und gerade im wissenschaftlichen Umfeld, wie hier, bringt es eine Menge. Wir haben einmal in ein solches System investiert und muessen uns nun nicht mehr CPU Zeit einkaufen, spart eine menge Geld . . . Habe ein US System, also keine Umlaute ...
 
@Magnus: Die Leistung wird nicht von den verschiedenen PC-Komponenten "aufgestapelt". Wenn ein Teil eine extreme Mehrleistung bietet, dann muss der PC davon nicht schneller werden. Eher geht die Leistung wie durch eine Röhre und wird durch die schmalste Stelle festgelegt. Erst wenn alle Teile im Rechner 570mal schneller sind, gibt dir der Benchmark 570mal soviele Punkte an. Selbst wenn es nur ein GraKa-Benchmark ist, ist er noch auf CPU und HDD angewiesen (was ja auch kein Problem ist, wenn das Verhältnis nicht so völlig unrealistisch verschoben wird... 570mal kann ich mir nicht vorstellen. Da wird ja Folding@Home mehrere ExaHertz an Leistung haben. Da können wir die Proteine in ein paar Tagen durchrechnen :-))
 
@Magnus: Nicht linear denken, sondern exponentiell.
 
@tinko: Proteine in ein paar Stunden - eine Genom Sequenzierung in ein paar Tagen und Erdbeben, sogar bevor sie entstehen :)))
 
Das würde fast einer Verdreifachung der Leistung jedes Jahr bedeuten ... bisher lag die Leistungssteigerung eher so im Bereich des zweifachen, oder? Damit wäre zumindest im angegebenen Zeitraum ein Steigerung um das 64-fache möglich. Was natürlich auffällig ist, ist das fehlende WIE bei dieser Aussage, vielleicht ist auch einfach nur die Quelle Aussage-faul, aber erstmal scheint da wenig dahinter zu stehen.
 
@Stirbelwurm: Noch nichtmal zweifach.
 
@Pac-Man: kleinere architekturen, besseres material, neue features... vllt noch dx15
 
@s3m1h-44: wers braucht. mir reicht d2d :D
 
In 6 Jahren? hmm wartet mal... bis dahin ist Deutschland bankrott, und ich auch arm wie eine Kirchenmaus vermutlich sogar obdachlos ^^ Und obs AMD/ATI da noch gibt, ist auch fraglich... ich mag AMD, nur so mal am Rande ^^ Tja da muss man dann abwarten inwiefern das alles bezahlbar ist u durch ev. fehlende Konkurrenz die Preise bei nvidia sein werden u ob sichs noch einige Deutsche in Zukunft kaufen können^^ Deshalb halte ich nichts von diesen: "in 6 Jahren wird... in 10 Jahren kann man..." etc!
 
@marex76: In 8 Jahren und 5 Monaten wird der Iran zum fundamentalistisch-Christlichen Kirchenstaat! Initiiert durch die USA, deren nächster Präsident (Hautfarbe Schwarz-Weiss-kariert) die in 7 Jahren und 3 Monaten gewählte demokratische Regierung für zu weltoffen deklariert hat und die Vereinten Nationen zu einem Schlag gegen den "Punkt des relativ Bösen" aufgefordert hat.
 
@3-R4Z0R: wenn du mit deinem kommentar den nonsense von marex76 verdeutlichen wolltest, dann kriegste ein plus.
 
@laboon: Dann sage ich einmal bereits danke. :-P
 
@3-R4Z0R u laboon: Kommentare von Hardware-Nerds oder nur das übliche Foren-Elitäre-Getue? :-))) Die Minusse sind mir schnurze übrigens...
 
@marex76: Wenn dein Chef deinen Kommentar liest biste morgen zumindest schonmal arbeitslos.
 
@marex76: werder noch. nur übertreibst du es mit deinem kommentar meiner meinung nach ein bissel. ein bissel viel vielleicht. die minusse sind mir übrigens auch egal...
@3-R4Z0R: bitte bitte :)
 
@SkyScraper: Bin deiner Idee heute mal nachgekommen u hab meinem Chef meinen Post gezeigt... Reaktion: schallendes Gelächter... und das ich irgendwo Recht habe :-)) Aber vllt. möchte ihn ja jetzt jm. als dumm bezeichnen? :-)) Wär ich aber vorsichtig ^^
 
In 6 Jahren ist man in good old Germany so am Arsch, das sich die Mehrheit garkeinen Rechner mehr leisten kann. Ob eine GPU dann 570 mal schneller ist, steht hinter dem Attribut seinen Lebensabend für die nächsten 6 Jahre bestreiten zu können.
 
Ich bin jedoch mal gespannt, wie man die schon jetzt hohe Stromaufnahme bändigen will. Bei den normalen CPU Architekturen wäre auch eine große Leistungssteigerung durch mehrere Kerne möglich, nur wird der Chip riesig und die Transistor Anzahl zieht dann eben viel Saft. Die jetzigen Topmodelle von Grafikkarten hinken der Fertigungstechnologie hinter her, so dass diese Monster kaum zu bändigen sind. Wie z.b. diverse Tests zeigen, überschreiten die Grafikkarten bei extremer Last weit die vom Hersteller angegebene TDP. CPU Hersteller wie Intel und AMD haben immerhin den Vorteil, dass diese die Chips weitgehend selbst Herstellen und somit auch CPU Architektur und Fertigungstechnologie in einer guten Symbiose entwickeln.
 
Ich hab mal irgendwo gelesen, dass DX10 Spiele mit DX11 Karten von ATI um 25% schneller laufen. Vllt laufen dann DX11 Spiele 30-35% schneller. Nagut, es kommt nur jedes Jahr (oder noch später) eine neue Grafikkarten-Generation raus. Also wie will der nvidia-Mensch jetzt auf 57000 % kommen?!?
 
@CruZad3r: Will ja nicht klugscheißen und vielleicht habe ich da einen Denkfehler, aber wenn 2 x so schnell einen Geschwindigkeitszuwachs von 100% bedeuten, bedeuten 570 x einen Zuwachs von 28500%, oder liege ich da falsch?
 
@CruZad3r: Die Leistung in Spielen, spiegelt nicht die reine Rechenpower einer GPU wieder. Die hat noch viel mehr Recheneinheiten, die werden nur nicht alle ausgenutzt. Das was du über die ATI-Karten gelesen hast, würde ich auf den Prüfstand stellen. Da habe ich eher von deutlich größeren Geschwindigkeitszuwächsen gelesen.
 
@wulfie: Du liegst falsch: 2x sind 200%, für den Zuwachs mußt du 100% abziehen verbleiben also 100% Zuwachs. 570x sind 57000%, der Zuwachs sind dann 56900%. Da die Zahl aber eh nur geschätzt ist spielt das kaum eine Rolle
 
@Harald.L: ah, OK, danke für die Info, wieder was gelernt, auf 56900 wäre ich nun nicht gekommen :)
 
Sind die GPU's dann auch 570x teurer?
 
@lordfritte: Schon, wenn man die nächste Währungsreform mit einbezieht....
 
@lordfritte: Nein aber du brauchst ein Netzteil mit der 570fachen Watt-Zahl. Dafür bekommst du aber einen golden eingerahmten Dankesbrief von deinem Stromversorger :D
 
@Harald.L: *rofl* und bei E-Werken einen Goldrahmen mit der Aufschrift: "Verbraucher des Monats". So wie bei MäkDonälds.
 
@Harald.L: Und einen nichtvergoldeten toten Wal oder so in deinen Garten. Es gibt auch Leute, die sehen das nicht so gerne :-)
 
Die wollen auch nur am Leben bleiben. Intel hatte ja damit "gedroht", das in Zukunft sehr viele Kerne in der CPU werkeln. Damit würde die Graka überflüssig. Angriff ist die beste Verteidigung. Und wir Spieler können nur gewinnen. Dann spielt man ca. 40000 FPS - jetzt müsste man nur "schneller" gucken können... xD
 
@Bösa Bär: Um die GraKa überflüssig zu machen müssten das aber einige Kerne sein. Ein Intel Core i7 hat irgendwas im Bereich von 70 GFLOPS-Leistung, eine 4870 hat 1200 GFLOPS. Die Grafikkarten sind zu ungenau für die CPU-Aufgaben und die CPUs schaffen nicht genug Berechnung für die Aufgaben der Grafikkarten. Sie sind zu unterschiedlich um einander zu ersetzen. Intel könnte höchstens damit drohen neben den CPU-Kernen auch GPUs auf ihre Prozessoren zu basteln. Und die 40000 FPS werden wir ganz schnell los, wenn wir mehrfach rechnen, damit wir 3D-Bildschirme mit Bildern speisen können und wenn wir anfangen die Sichtweiten in Spielen zu erhöhen und die Auflösungen der Texturen in Richtung Fotorealismus verschieben.
 
@tinko: Ja, die Prognose von Intel beruht auf das Vorhandensein von mind. 100 Die´s. Ich schrieb ja auch: "..das in Zukunft sehr viele Kerne in der CPU werkeln.". Von einem Intel Core i7 ist dann schon lange nicht mehr die Rede. Ich finde leider den Artikel in der PCGH nicht mehr. Aber in naher Zukunft durchaus realistisch, Intel hat ja schon vor einiger Zeit eine 80 Prozessoren-CPU entwickelt, die aber nur einfache Fließkomma-Berechnungen beherrscht. Wenn auch nicht Serienreif zeigt es doch das schon damals Mögliche. Die 40000FPS beruhen auf nen Spaß, den ich mir hier erlaubt habe (DESHALB DER SMILIE) und ich bin von durchschnittlich 70FPS ausgegangen. Und an dieser Stelle nochmal danke für die 2 Minus, ihr habt euch mal wieder selbst disqualifiziert. Natürlich ist mir auch klar, je besser/performanter die Grafikausgabe, umso mehr Möglichkeiten, die auch wieder Performance fressen. Wie Du schon erwähnt hast, 3D-Ausgabe usw. usf......nach Diktat zum Heulen gegangen, 2 (!) Minus, ihr seid sooooooooo gemein! *buhuuu*
 
@Bösa Bär: Die Minus hast du nicht von mir. Das die 40.000 FPS nicht wörtlich gemeint waren, war mir schon klar, ich wollte die Gelegenheit nur allgemein nutzen um mal in den Raum zu werfen, wie wir die jetzt schon fast fotorealistische Grafik auch in Zukunft noch viel leistungshungriger machen können. Das bezog sich auch nicht nur auf die 40000 FPS, sondern ist auch ein Gegenargument für die Bedrohung Intels. Wir werden noch viel mehr GFLOPS brauchen. CPUs können das einfach nicht leisten. Selbst wenn 80 CPUs zusammen arbeiten, hätten sie immer noch viel weniger Rechenleistung als gleichwertiger GPUs. Aber wenn 80 GPUs zusammenarbeiten. Ich jedenfalls warte auf Raytracing in Echtzeit. :-) Ich will in Rollenspielen von der Reflexion der Sonne in meinen Schuhen geblendet werden :-).
 
Einem schon aufegfallen, dass es nicht um die Game-Performance geht sondern um die Raw-Performance bei FliesskommaOperationen...???
 
@DieselDandy: Einigen sicherlich, aber das kannst du nicht vorraussetzen, wenn man sich nicht näher mit GraKas beschäftigt.
 
Na hoffentlich steigt nicht auch der Stromverbrauch um das 570fache. Denn während der Trend bei CPUs deutlich in Richtung Senkung des Stromverbrauchs geht, scheint das im Bereich der GPUs noch nicht so ein großes Thema zu sein.
 
"I have a Dream(...)",... nee, aber ohne jegliche Begründung wo der Durchbruch her kommen soll klingt das sehr nach träumerei.
 
okay... würde das dann auch für eine GPCPU gelten? :O oder sowas? könnte man da nich den prozzi durch ne gpu ersetzen? xD also durch sone gpcpu oder cpgpu? weiss nichtmehr so genau... :O
 
"Spieleindustrie: Ist uns egal, wir programmieren weiter für XBoX und Playstation und portieren dann"
 
Hmmm letztens hatten die noch über 20x Leistung gesprochen und auf einmal 570x? Irgendwie läuft da was falsch..... http://winfuture.de/news,47961.html
 
Dr. Kirk wird das schon hinbekommen,hehe!
 
Aber sicher, 570 mal? Wieso denn nicht gleich 5700 mal? Ohne nähere Angaben wie man das denn schaffen will ist diese Aussage meiner Meinung nach nichts Wert. Ich würde es mal begrüßen wenn all diese Leute die solche Aussagen machen auch mal zu Rede gestellt werden, wenn es dann nicht so eintrifft!
 
1,2teroflop sind heute bei der 4870/90 das ganze mal 570 und wir sind bei 684teraflop rechenpower ... und das in 6 jahren ... ich glaubs noch nich wirklich. bei einer jährlichen verdopplung wären wir aber auch nur bei 64mal mehr. also rechnet er schon mit knapper verdreifachung der power pro jahr, ... derzeit absolut haltlos muss ich sagen.
 
570x höherer Stromverbrauch, yeahhh ~
 
wieso kommen solchen theorien immer von nvidia und intel, das wird langsam lächerlich.
 
In 3 jahren hat Nv die Karten 5mal umbenannt.
 
Schön das man versucht die Leistung zu steigern! Es wäre aber auch wünschenswert wenn man um den gleichen Faktor den Energieverbrauch senken könnte.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles