Nvidia-Chef: Wir sind viel schneller als das Mooresche Gesetz

Nvidia, Gpu, Grafikkarte, Grafik, Geforce, Nvidia Geforce, Grafikeinheit, Zusatzgrafik, Nvidia GeForce MX110, Nvidia GeForce MX130 Bildquelle: Nvidia
Während immer wieder darüber spekuliert wird, wie lange die Chip-Branche es noch schafft, in ihrer Entwicklung dem Mooreschen Gesetz zu folgen, weist der Weg der Grafik-Prozessoren zumindest hinsichtlich der Performance in eine gänzlich andere Richtung. Hier ist man quasi in einem Turbo-Modus unterwegs. Das Mooresche Gesetz geht auf den Intel-Mitbegründer Gordon Moore zurück und ist eigentlich eher eine grobe Prognose, die es inzwischen in verschiedenen Ausführungen gibt. Eigentlich bezog sie sich ursprünglich darauf, dass die Komplexität einer Architektur sich durch die wachsende Zahl von Transistoren in regelmäßigen Abständen verdoppelt. Vielfach wurde das im Laufe der Zeit darauf vereinfacht, dass man alle anderthalb bis zwei Jahre eine Verdoppelung der Prozessor-Leistung erwarten kann.

"Es passiert gerade ein neues Gesetz", erklärte Jensen Huang nun aber. Als der Chef des GPU-Herstellers Nvidia auf der Hausmesse GPU Technology Conference (GTC) die Bühne betrat, zog sich die wesentlich beschleunigte Entwicklung durch seine Keynote. Anhand verschiedener Beispiele zeigte er auf, dass die eigenen Chips sehr viel schneller vorankommen, als es das Mooresche Gesetz prognostizierte.


Geht man nach der Vorhersage des Intel-Gründers, sollte die Performance binnen der vergangenen fünf Jahre etwa um den Faktor 10 gestiegen sein. Wie Huang nun aber klarmachte, sind die aktuellen Nvidia-Chips sogar 25 Mal leistungsfähiger als die Produkte, die vor fünf Jahren die Spitze darstellten. Das gilt zumindest auf Grundlage von Standard-Benchmarks.

KI schafft man noch viel schneller

Wesentlich beeindruckendere Verbesserungen gab es sogar, wenn man sich bestimmte Anwendungen anschaut, die in der heutigen IT-Praxis eine zunehmend wichtige Rolle spielen. Das betrifft insbesondere das Training von KI-Algorithmen, die aus der Analyse riesiger Datenbestände lernen.

AlexNet, der Algorithmus eines Neuronalen Netzwerkes, wurde vor fünf Jahren noch auf zwei GTX 580 durch das Trainings-Pensum getrieben. Für die Analyse von 15 Millionen Bildern, die dafür nötig war, wurden damals noch sechs Tage gebraucht. Auf der neuesten Hardware - der kürzlich angekündigten DGX-2 - schaffte man die gleiche Arbeit binnen nur noch 18 Minuten, teilte Huang mit. Nvidia, Gpu, Grafikkarte, Grafik, Geforce, Nvidia Geforce, Grafikeinheit, Zusatzgrafik, Nvidia GeForce MX110, Nvidia GeForce MX130 Nvidia, Gpu, Grafikkarte, Grafik, Geforce, Nvidia Geforce, Grafikeinheit, Zusatzgrafik, Nvidia GeForce MX110, Nvidia GeForce MX130 Nvidia
Mehr zum Thema: Nvidia
Diese Nachricht empfehlen
Kommentieren32
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 15:40 Uhr Die große Spielfilme Collection ( 75 Filme + TV-Serie auf SD Blu-rays)Die große Spielfilme Collection ( 75 Filme + TV-Serie auf SD Blu-rays)
Original Amazon-Preis
45,90
Im Preisvergleich ab
?
Blitzangebot-Preis
22,97
Ersparnis zu Amazon 50% oder 22,93

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

Tipp einsenden