Nvidia Titan X (2016): Rekord-Grafikkarte zu einem stolzen Preis

Der Halbleiterhersteller Nvidia hat sein neuestes Grafikkarten-Topmodell vorgestellt. Die Titan X macht ihrem Namen alle Ehre, es ist die bisher leistungsstärkste GPU, die je gebaut worden ist. Die Performance ist gigantisch, wer diese in seinem ... mehr... Nvidia, Gpu, Grafikkarte, Titan X, Titan X 2016 Bildquelle: Nvidia Nvidia, Gpu, Grafikkarte, Titan X, Titan X 2016 Nvidia, Gpu, Grafikkarte, Titan X, Titan X 2016 Nvidia

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Die macht fast doppelt so viele FLOPS wie die frisch angekündigte Scorpi :-O Heftig... Aber der Preis ist halt auch schon eine Hausnummer ^^
 
@Maggus2k: Dann teile den Preis durch zwei. Dann wären das 600$ für die Leistung der Scorpio. Diese wird allerdings vermutlich noch 200$ billiger und mit der Titan alleine lässt sich auch nicht zocken (wobei ein PC mit der Titan die TFlops natürlich nochmal erhöht)
 
@EffEll: als würde die Titan X zu Release von der Scorpio noch annähernd diese Preise erreichen... wenn die Scorpio final kommt, hat nvidia schon die nachfolge karte aufm markt...
 
@Maggus2k: Die Preise der Titan(en) sind allerdings verdammt stabil. Wirklich günstig oder billiger werden die nicht. Ich habe ja nicht mit dem zugegebenermaßen unsinnigen Vergleich angefangen ;-)
 
@EffEll: soso, unsinnig... weils dir nicht in den kram passt? :D Fakt, das teil hat fast doppelt so viel power zum doppelten preis und das 1,5 jahre vorher... da ist der vergleich nur für fanboys unsinnig ;)
 
@Maggus2k: Es ist nahezu der dreifache Preis und unsinnig ist es mMn, weil die Titan X standalone gar nichts berechnet. Es ist lediglich ein Bauteil welches in einem Rechner verbaut zu dieser Leistung fähig ist, aber als Gerät an sich nicht. Daher ist ein Vergleich mit einer Spielekonsole, die ohne weitere Ausgaben benutzt werden kann (komm mir jetzt nicht mit Monitor), nicht sinnig, da man die Geräte an sich nicht vergleichen kann - falls dir diese Formulierung weniger sauer aufstößt.
Ein theoretischer Vergleich geht ja schon irgendwie, daher habe ich mich ja im positiven Sinne an dieser Diskussion beteiligt. Wie du jetzt darauf auf Fanboy schließt, ist mir nicht ganz klar. Wollte damit lediglich sagen, habe weder die Scorpio verteidigt, noch die GraKa schlecht gemacht, sondern lediglich versucht den Vergleich auszuschmücken
 
@Maggus2k: selbst die gtx 1080 macht mehr. und MS prallt damit das 4k damit möglich sein soll. ich hau mich weg.
 
11 Teraflops, ich lach mich tot. Bäm!!!

Tim Sweeney (Epic Games) sagte vor kurzem, dass man ca. 40Teraflops benötigt, um fotorealistisches Gaming zu ermöglichen. Noch mehr Teraflops benötigt man dann noch, wenn man echt wirkende Menschen integrieren möchte.

Also Leute, lange dauert es nicht mehr. Die Chancen stehen also gut, dass ich das noch erleben darf.
;-)

http://www.ps4news.de/allgemein/fotorealismus-ab-40-teraflops-78252
 
@Aloysius: also würde jetzt ein Quad-SLI reichen dafür
 
@frust-bithuner: Tim Sweeney findet auch, dass ein rollender Konsolenzyklus eine gute Idee wäre und er damit neue kreative Möglichkeiten hat, obwohl er sie nicht wirklich effektiv nutzen kann, weil ja Abwärtskompatibilität gehalten werden muss. Tim Sweeney sagt also im Moment ne ganze Menge. Ich bin recht sicher, fragst du jemanden von CryTec, der wird dir wieder ne andere Zahl sagen. Und jemand von ID/Bethesda dann nochmal. Und jemand von Unity wird dir vermutlich sagen, dass so viel Fotorealismus ja garnicht gut aussieht und ein total unrealistisches Ziel ist xD
 
@frust-bithuner: Naja SLI bedeutet nicht doppelt so schnell und Quad SLI ist nicht 4x so schnell.
z.B. http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36188-test-4-way-sli-und-crossfire-mit-gtx-980-ti-und-fury-x.html?start=3

Wird sich nicht ganz ausgehen ;)
 
@wertzuiop123: Aber bei der theoretischen TFlops hat er recht. Zumal natürlich niemand nur für ein solches System entwickeln würde. Wahrscheinlich nicht mal ne Techdemo
 
@Aloysius: Was ich immer so lustig finde: Ich blicke NUN auf alte Spiele zurück und denke nur "Bäh Grafik" ... obwohl ich mich noch ganz genau erinnere, wie ich selber davor saß und dachte "Aber jetzt mal im Ernst... deutlich besser kann es doch echt nicht werden" (z.B.bei GTA SA dachte ich so) :D

Hmmm 40 Teraflop... jedes Jahr 50% mehr Leistung +1/2 Jahre für die Mittelklasse-Karten

Jahr 0 11 TF
Jahr 1 16.5 TF
Jahr 2 24.75 TF
Jahr 3 37,125 TF
Jahr 4 55.6875 TF
Jahr 5 bis 6 es ist...

Cool... spätestens Anfang bis Mitte 2020 sollte photorealistische Spielegrafik also möglich sein... Na ja.... es waren aber auch nicht immer 50% ... Titan zu Titan Black waren eher 20% ...

Und dann die Frage, ob wir dann noch auf einem HeimPC spielen, oder eh nur noch Cloud-Basiert, wo jeder Spieler dann 1 GigaFlop erhält und wir nur darüber lachen, dass man damals noch mit Teraflop rechnete :D

Oder wer weiß, ob nicht die immer weniger steigende Leistung von Intel CPUsl das Bottleneck werden, was uns davon abhält ... *dmnyouintel* :D

Oder die Auflösungen werden dank Oculus und co so groß, dass wir wieder nur "normale" Spielegrafik, wie jetzt, erreichen könnnen :D

Zukunft ist schon was schönes ^^
 
@M-A-N-N-I: Intel hat Xeons mit 24 Kernen bei 3,6GHz und Atom Xeons mit 68 Kernen, sollte auch in Zukunft reichen.
 
@Zombiez: Solange die Spielehersteller nicht auf Überwachungsrootkits/-malware wie Origin, Steam, UPlay und Co. verzichten und es neue Hardware nur mit Nutzerbevormundungs/DRM-UEFI und nicht mehr abschaltbarem TPM 2.0 gibt, wird bei mir für alle Spiele die ich in Zukunft spielen werde problemlos Hardware vom Ende des letzten Jahrzehnts ausreichen.
 
@Zombiez: ja... das stimmt...ABER Problem ist ja nun: Selbst 8 Kerner sind nicht wirklich optimiert in Spielen ... deshalb zählt ja auch immer lieber 4 kerne mit hohem takt... würden man nun einen 24 3,2 Kerner gegen einen 4+4HT Kerner mit 4.6 ghz stellen würde der 4+4 auf jeden fall gewinnen.. vermutlich sogar selbst dann noch, wenn man kräftig übertaktet und beim 24er auf 4.4 käme.... : ( ... ist halt gar nicht einfach für viele Kerne Code zu optimieren!
 
@M-A-N-N-I: Dass "Tera" aber die höhere Einheit als "Giga" ist, hast gehört? ^^
 
@DON666: lach... autsch ^^ ich hoffe, es war dennoch klar, was gemeint ist... jaa klar ich wollte ... ähm... bekomm ich das aus dem kopf hin ... ne ... ach verdammt Peta.. Dann wird jeder einen Petaflop erhalten :D
 
@M-A-N-N-I: Alles gut! ;)
 
@Aloysius: Bei dem was ich derzeit an grauslich mit ``Bildverbesserungsalgorithmen'' zugerichteten Photos bzw. Computergraphiken aus teils über 3000EUR teuren DSLRs sehe, ist ``photorealistisches Gaming'' auch schon mit heutigen Karten möglich, da heutige Digitalkameras ohnehin kein realistisches Bild mehr erzeugen, sondern nur noch auf menschliche Sehgewohnheiten angepasste Computergraphiken.
 
@Aloysius: wenn man nach moor geht, dann ists wohl in 5jahren soweit..
 
Mal 'ne blöde Frage: Warum nimmt so ein Teil anstatt als GPU nicht als CPU und stattet es mit den x86-Befehlsinstruktionen aus?
 
@departure: Weils dann eine CPU und keine GPU wäre
 
@ThreeM: Witzbold. Ernsthaft: Anscheinend ist die Rechenleistung enorm und weitaus höher als die Leistungen bekannter, "normaler" Consumer-CPUs von Intel oder AMD. nVidia scheint somit hier Leistung fabrizieren zu können, wie es Intel oder AMD nicht können, zumindest nicht in einem Chip. Ist es zu naiv gedacht, daß man mit dieser Technologie nicht auch x86-CPUs herstellen könnte? Ist es einer Recheneinheit nicht egal, ob sie etwas berechnet, was später gezielt zur Grafik oder eben zu etwas anderem wird?
 
@departure: " Ist es zu naiv gedacht, daß man mit dieser Technologie nicht auch x86-CPUs herstellen könnte? - Kurz, Ja! GPU sind Meister beim berechnen von Grafik und parallelen Aufgaben. CPUs sind Meister der universellen Berechnung. Wenn du den x86 Befehlssatz über ne GPU kippst, hast du am Ende CPU die dann auch wieder nicht die TFlops erreicht die sie bei Grafikberechnungen erzeugen können.
 
@departure: Kurzantwort: LKW vs F1
 
@departure: ich zitier mal frei von der Nvidia Seite (hier: https://blogs.nvidia.com/blog/2009/12/16/whats-the-difference-between-a-cpu-and-a-gpu/)
Eine CPU hat wenig Kerne mit viel Leistung, eine GPU viel kerne mit wenig Leistung. Beides hat seine Daseinsberechtigung weil es teilweise sinnvoller ist, eine grosse Aufgabe von einem Kern erledigen zu lassen, in anderen Fällen aber parallelität äusserst mächtig ist
 
@departure: Eine CPU und GPU sind unterschiedlich aufgebaut. So hatdie TITAN hier viel mehr ALUs, als eine CPU, die werden dann einzeln programmiert, und auf Grafik spezialisiert. Die CPU hat weniger ALUs, will heißen ,weniger Kerne, die aber im einzelnen schneller sind. Einfach den Befehlssatz übertragen ist nicht.

Aber anstatt deine Videos mit der CPU render zu lassen, kannst du mal deine Grafikkarte dran lassen. Selbst eine langsame Gurke ist darin schneller als der beste High End Prozessor.

https://www.youtube.com/watch?v=1kypaBjJ-pg
 
Mit VR kann es bestimmt auch schön ausreizen :)
 
60 Prozent Verbesserung reicht mir leider nicht um aufrüsten zu wollen, die magischen 60fps @ 4K @ ultra Settings werden somit Single-GPU-technisch leider nicht drin sein. Naja dann lieber noch ein Jahr warten.^^
 
"geradezu verantwortungslose Menge an Leistung mitbringe"

Ich bin schon auf die ersten Klagen gespannt weil Unverantwortungslose Nutzer wegen der vielen Leistung zu schaden gekommen sind
https://www.youtube.com/watch?v=WY6kgISv4fM
 
Wenn man sich die Karte genauer Ansieht kommt mir´s eher wie eine Mogelpackung vor.

-Kein HBM2 Speicher
-Nur 12GB
-Kein Vollausbau

Gerade die Titan sollte ja für absolutes Highend stehen.Und dafür ca.1500€...Ähh Nö
 
@Laki: das dürften die sich in der Hinterhand behalten für den scorpio konter.
 
@Laki: Manche munkeln das der Prozess so schlecht läuft das sie mit der Titan X jetzt teildeaktivierte chips verkaufen um die yield rate zu erhöhen
 
lol jo...dann noch ne Kombi mit dem i7-6950X ... für schlappe 1800^^ !....ohh ja Lottogewinn sage ich nur...oder halt alternativ 2 Jahre arbeiten für solch ein System ^^...öööhm ach ja dann ist es ja bereits wieder veraltet, hätte ich fast vergessen *räusper*
 
@legalxpuser: Selbst wenn Du es dann erspart haben solltest, dein Stromanbieter bedankt sich bei Dir mit einer freundlichen Erhöhung deines Beitrages damit Du die Kiste auch weiterhin betreiben darfst :D
 
@legalxpuser: Du solltest kündigen. Selbst als Hartz IV Empfänger bekommst in zwei Jahren mehr zusammen ;-) :-D
 
@EffEll: hmm mit CPU und Graka ist es ja dann noch nicht getan....denke son System verschlingt locker 3,5 K.... jeden Monat 100 Euro sparen = 3 Jahre! Also nix für die Normalbevölkerung.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter