Nvidia-Chef: Wir sind viel schneller als das Mooresche Gesetz

Während immer wieder darüber spekuliert wird, wie lange die Chip-Branche es noch schafft, in ihrer Entwicklung dem Mooreschen Gesetz zu folgen, weist der Weg der Grafik-Prozessoren zumindest hinsichtlich der Performance in eine gänzlich andere ... mehr... Nvidia, Gpu, Grafikkarte, Grafik, Geforce, Nvidia Geforce, Grafikeinheit, Zusatzgrafik, Nvidia GeForce MX110, Nvidia GeForce MX130 Bildquelle: Nvidia Nvidia, Gpu, Grafikkarte, Grafik, Geforce, Nvidia Geforce, Grafikeinheit, Zusatzgrafik, Nvidia GeForce MX110, Nvidia GeForce MX130 Nvidia, Gpu, Grafikkarte, Grafik, Geforce, Nvidia Geforce, Grafikeinheit, Zusatzgrafik, Nvidia GeForce MX110, Nvidia GeForce MX130 Nvidia

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
An seiner Stelle wäre ich bei sowas ganz ruhig, wenn man im Mainstream immer noch keine Karten hat, welche 4K schnell genug darstellen können.
 
@Freudian: die Aussage versteh ich nicht... also ich habe 3 4k Monitore an meiner 1080 (ohne TI) und kann ohne Probleme 3x 4k mit 144 Bilder rendern!
=> das was du meinen könntest ist, dass diverse Spiele die Performance nicht leisten können .. das hat aber nichts mit Grafikkarten Herstellern zu tun sondern mit mieser Programmierung.
 
@bear7:
Geil. Die Spielehersteller sind schuld dass Spiele nicht schnell genug in 4K dargestellt werden können. Ich glaub darauf muss ich erst gar nicht antworten.
 
@Freudian: Doch das stimmt zum Teil schon.
Die Optimierung ist echt mies bei vielen Spielen.

Ein positives Beispiel ist hier the Witcher, negativ Fallout4 (ein wirklich tolles Spiel!, habe 500 Stunden oder so) welches etwa zur gleichen Zeit rauskam, ähnliche Anforderungen hat, aber grafisch bei weitem nicht so gut aussieht.

Oder das berüchtige Batman Arkham Knight.

Oder Minecraft, das nur dank enormer Rechenleistung läuft, weil in Java programmiert und damit extem ineffizient ist.
Es gibt ja zu Vergleich da die Win10 Version, die zwar ein bisschen abgespeckt ist gegenüber der Java Version, aber auch in einer anderen Sprache (glaub C oder C++) programmiert ist und ne ganz andere Performance hat.
 
@pcfan:
Sicherlich. Aber das in diesem Fall aus Ausrede zu benutzen ist schon ziemlich lächerlich, weils eben bei allen Spielen, die eine gute Grafik haben, so ist.
 
@Freudian: Es müsste aber nicht sein, wenn man das Geld statt in immer nervigere Antikopiermaßnahmen (die nach ner Woche oft eh geknackt sind) einfach mal in Optimierung stecken würde.

Und es gibt wie gesagt positive Ausnahmen, leider nur sehr sehr wenige.
 
@pcfan: Die Meister der Optimierung waren noch immer Nintendo. Und auch sonst viele Spieleschmieden, die es seit mindestens den 80ern gibt. Was die z.T. auf den Bildschirm zaubern trotz sehr einschränkter Rechenleistung ist schon erstaunlich.
Damals musste man halt sehr kreativ sein und sich reichlich Tricks zu Eigen machen, um das meiste aus der Hardware zu machen, die man hatte. Und das machen die bis heute. Aber heute ist oft so viel Hardwareleistung verfügbar, dass es sich gar nicht lohnt, viel zu optimieren. Stattdessen heißt es dann "dann müssen die Kunden halt aufrüsten".
 
@eN-t: Ganz genau, du drückst es besser aus als ich es konnte.
 
@pcfan: Ich hab als Faustregel immer: ein Spiel kann nur dann optimiert sein, wenn der Release mindestens ein mal verschoben wurde... ;P
 
@Freudian: Die Antwort findest du unter anderem noch bei dem Spiel World of Tanks.
Mit der neuen, besseren Grafikengine, sieht das Spiel grafisch um Welten besser aus und das sogar noch bei viel niedrigeren Anforderungen.
Die richtige, auf das Spiel angepasste Engine macht viel aus und das hängt nunmal mit der Programmierung zusammen.
 
@miles1984:
Ich spiele es zufällig und habe niedrigere FPS als zuvor.
 
@bear7: Jetzt bräuchte man nur noch einen Monitor der 4k und 144Hz unterstützt...
 
@blume666: https://www.amazon.de/dp/B071Z46XQT (2k)

edit: aber, braucht man nicht :P ... man kann auch schneller Rendern als ausgeben <- bringt dann was, wenn man z.B. Mitschneidet... das braucht man aber nahezu nie!
=> ich hingegen beschäftige mich mit Livebildanalyse und render Teilweise bis zu 5 Instanzen in 4k
 
@bear7: der monitor ist 2k?
 
@bear7: 1440p ist nicht 4k...
 
@Tdope: da muss ich dir recht geben!
 
@bear7: 600€ ist für dich Mainstream? Würde das eher als High-End auslegen
 
@Freudian: Viele können das ja ohne Probleme, man muss nur die Einstellungen herunter stellen ;) Bis UHD bei den PC-Spielern wirklich etabliert ist, wird es noch verdammt lange dauern und die Mittelklasse-Grafikkarten werden dann auch für die sehr hohen Einstellungen gerüstet sein.
 
@L_M_A_O:
VR braucht 4K sogar. Aber solange die Grafikkarten nicht mitmachen und dazu auch noch verdammt teuer sind, wird das ganz sicher nichts.
 
@Freudian: VR ist aber auch noch Zukunftsmusik, die Geräte sind zu teuer und die Kunden müssen dafür auch noch sensibilisiert werden. Auch die Technik an sich muss sich weiter entwickeln(kabellos, kein Schwindel,etc.).
 
@L_M_A_O:
Das ist alles kein Problem. Aber die Drahtzäune zwischen den Pixeln schreckt nunmal viele ab. Das hatte man auch schon in den 90ern. Deswegen braucht man 4K. Aber dazu gibts die Leistung noch nicht, und wenn es sie gibt, ist sie viel zu teuer als dass es sich im Mainstream durchsetzen würde.
 
Es ist ja auch kein Gesetz. Von einem Gesetz kann es unter gleichen Bedingungen keine Abweichungen geben.
 
@FuzzyLogic: Was du meinst ist ein Naturgesetz.
Beim Mooreschen 'Gesetz' geht es natürlich bloß um ein von Menschen gemachtes Pseudo-Gesetz.
 
@rw4125: Also kann man es wohl eher als "Schätzung" bezeichnen. Ich gebe FuzzyLgic recht, ein "Gesetzt" ist es schlicht und ergreifend nicht.
 
"...weist der Weg der Grafik-Prozessoren zumindest hinsichtlich der Performance in eine gänzlich andere Richtung. Hier ist man quasi in einem Turbo-Modus unterwegs."

Das gilt leider auch für den Preis. Verdammte Miner!
 
@Fekal: Problem ist leider, dass der Preis sich jetzt so schön hochgeschaukelt hat. Jetzt gleich wieder auf Normalniveu senken? Neeee... - Haben sie sich bestimmt von den Mineralölkonzernen abgeguckt.
 
@RocketChef: Jepp, das wird wohl nicht passieren.

Interessant übrigens wie viele Miner hier mit "Minus" um sich werfen...
 
Ja, Moores Law wird leider von allen so vergewaltigt, dass es jedem in den Kram passt. Moore traf nämlich keine Aussage über die Leistung, sondern über die Integrationsdichte. Und selbst wenn man die Leistungsinterpretation zulässt: Je nach Quelle dauert die Verdoppelung ein bis zwei Jahre. Im schlechtesten Fall hat man nach fünf Jahren etwa die ~ 5,5-fache Leistung/Dichte. Im besten Fall allerdings darf sich die Leistung/Dichte ver-32-fachen, ohne die allgemein üblichen Angaben von Moores Law zu verletzen. Da ist Nvidia mit seinem Faktor von 25 noch gut im vom Moores Law vorgezeichneten Bereich.

Und die Angabe zum DGX-2: Nunja, das sind 16 Teslas vs. die zum Vergleich herangezogenen 2 Fermis. Bei einem fairen Vergleich wären 16 Fermis nach 18 Stunden fertig gewesen. Und wenn man davon ausgeht, dass ehemals nicht für die Aufgabe geeignete Chips ein paar ASIC-Schaltungen spendiert bekommen haben, die auf die Algorithmen optimiert sind, dann ist das nicht mehr so beeindruckend. Zumal sich nicht ewig optimieren lässt.

Marketing-Gewäsch. Ein Gentlemen schweigt. Ein Prolet in Lederjacke prollt.
 
Hat er wirklich 2 Consumer Grafikkarten (GTX 580) mit einem 400 000$ teuren Businesssystem verglichen?
WoW welch Fortschritt.
 
@DudeD: Jap hat er. Wenn man schon solche Vergleiche bezüglich Fortschritt aufstellt, dann sollte immer auch die dafür notwendige Energie in Betracht gezogen werden. Denn theoretisch kann ich mir auch 5 Supercomputer hinstellen und behaupten das sei "Fortschritt".
Echter Fortschritt ist für mich einzig und allein Rechenleistung pro Watt.
Und streng genommen muss auch noch der Preis dazugerechnet werden, denn auch mit heutiger Technik kann ich mit immer mehr Geld und immer mehr Stromverbrauch immer mehr Rechenleistung erzielen. Das wäre aber auch kein techischer Fortschritt.
 
hmm na und? ...irgendwann ist aber auch hier die Grenze erreicht, denn es geht ja um die Grundtechnik auf der alles basiert...und das sind nun mal Transistoren die mit 0 und 1 arbeiten...im Prinzip genau noch so wie in den 70ern. Nur schneller halt. Irgendwann geht es nicht mehr kleiner, da physikalische Grenzen, da bin ich ja gespannt was Intel und Nvidia sich dann so einfallen lassen....
 
früher hab ich Nvidea gemocht..mittlerweile können die mich aber mal kreuzweise..

Nvidia-Chef: Wir sind viel schneller als das Mooresche Gesetz.. nicht nur das..mittlerweile seit ihr so abgehoben und Geldgeil geworden ..je grösser eine Firma wird..umso arroganter und Geildgeiler...ihr kotzt mich nur noch an
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 10:55 Uhr DIVI PowerbankDIVI Powerbank
Original Amazon-Preis
22,99
Im Preisvergleich ab
22,99
Blitzangebot-Preis
15,99
Ersparnis zu Amazon 30% oder 7
Im WinFuture Preisvergleich