Nvidia: Grafikkarten bis 2015 mit 20-facher Leistung

Grafikkarten Geht es nach William Dally, Chef der Forschungabteilung des Grafikkartenherstellers Nvidia, haben Grafikprozessoren noch lange nicht das Maximum ihrer Leistung erreicht. Bis zum Jahr 2015 sei mit einer 20-fachen Steigerung zu rechnen. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Eins drunter steht was von xBox 360 noch bis 2015 =) ohne Hardwareupdate ... Na dann prost. Ich steig wohl wieder um auf PC-Spiele ...
 
@Kjuiss: Aber mit dem Geld, was du bis dahin (also 2015) für neue PC Teile ausgeben hast, könnte man sich viele Spiele für die 360 kaufen. Außerdem heißt es doch immer, das es mehr auf das Gameplay ankommt als auf die Grafik.
 
@Megamen: Bei Konsolenspielen zahl ich doch auch immer den Konsolenzuschlag. Davon kann ich mir schon alle paar Jahre ne neue Grafikkarte leisten =) ... Zum Spielspaß zähl ich neben Gameplay übrigens auch Grafik. Oder spielt einer von euch noch ernsthaft C-64 Titel? Mal abgesehn von nostalgischen Gründen...
Ich hab mich ja auch bewusst für eine xbox und nicht eine Wii entschieden O_x
 
@Kjuiss: naja also spiele wie Tetris, Minesweeper, Solitär, und allerlei gameboy(1) spiele spiele ich schon noch.
 
@Megamen: naja, beides darf man nicht vernachlässigen... bei einem grusel-atmo-action-spiel möchte ich keine licht-schatten-effekte mehr missen... wie soll denn da eine geile atmo aufkommen? *an-s.t.a.l.k.e.r-denk*... eine runde super mario world yoshis island spiele ich aber denoch mal wieder gerne... :-)
 
@Kjuiss: Wenn für dich der Spielspass von der Grafik abhängig ist, hast du schon verloren. Es gibt immer noch viele alte Spiele die besser als neue sind. Solche Spiele spielt man sogar heute noch oder denkst du, dass sich jemand in ein paar Jahren noch gross an Far Cry 2 oder Crysis erinnern wird? Ich glaube nicht.
 
@Megamen: Stimmt Crysis war eher eine Grafikdemo die heutzutage noch nicht mal die HighEnd-Rechner auf >30FPS bei Max-Details bei 1900*1200 darstellen können. Bei 1680*1050 is das glaub ich nicht mehr so. Aber wenn ich ein Spiel wie Diablo I oder II zocken soll kann ich das nicht wegen der GRAFIK. Da bekomm ich einfach nur Kopfweh, mal abgesehen von der Auflösung und der fehlenden möglichkeit herauszuzoomen. Selbiges bei FFVII. Ich glaube gerne, dass das Spiel damals genial war und dass die Story gut ist, aber bei der Linearen Story und DER Grafik, kann ich mich beim besten Willen nicht dafür begeistern ^^. Also GRAFIK ist schon ein wichtiges Kriterium. Wobei ich ehrlich sagen muss, dass die Grafik der HL2-Engine vollkommen ausreichend ist.
 
@Kjuiss:

Ich kenne noch spiele aus der Zeit von 1985.
Dagegen sehen die Spiele heute wie Traumwelten aus.

Und außerdem kommt es nicht auf die Grafik an sondern auf das Gameplay an.
 
@Tim2000: Na klaaar =) Gameplay =) ... ich könnt Stuuuuuunden mit Pong gegen den Computer verbringen. Nichts gegen Spiele von 1985... ich hab auch mal PacMan gespielt... Aber das alles ist Bullshit. Das wisst ihr alle selbst...
 
@Kjuiss: Ich spiele gerne mal Counter-Strike 1.5. Half-Life hat überhaupt eine stimmige Grafik, denn m.M.n kommt es nicht auf die Grafik an sich drauf an, sondern wie das Spiel mit den zur Verfügung stehenden Mitteln präsentiert wird. Schon mit 2D-Sprites kann man packende Spiele erschaffen.
 
@Tim2000: ... was für ein Blödsinn! Zu einem guten Spiel gehören Gameplay und Grafik gleicher Maßen - und das Jahr 1985 ist längst Geschichte ...
 
@Kjuiss: na aber hallo spiel ich noch c-64 spiele und die genauso ernsthaft wie aktuelle spiele... mir fällt da spontan, OEL, vermeer, choplifter, summergames, wintergames, worldgames, wizards of war und vor allem barbarian :)
 
@Kjuiss: Also ich zocke immernoch Counter-Strike 1.6. Das Spiel hatte gestern ja sein 10-jähriges Geburtstag.
 
@Megamen: Dafür muss ich für Computerspiele gar kein Geld ausgeben. :)
 
Heut ist der Tag des Doppelposts... O_x ...bitte entfernen.
 
Hm, ich sehe da in der Meldung nur einen multiblen Marketing-Blahfasl Stream.
Was in 6 Jahren kommt, kann heute noch kein Mensch vorhersagen, 6 Jahre sind eine sehr Lange Zeit für solche Produkte. Vielleicht gibt es bis dahin gar keine GPUs mehr und alles ist in einem einzigen Chip vereinigt.
Wer es genau wissen will, der schaut in 6 Jahren noch mal hier rein....
 
@chronos42: tjoa so is das mit der zukunft, aber tatsächlich ist sowas planbar. zwar kann man niemals etwas genaues sagen aber wenn man ein haus kauft zb schlisst man auch verträge mit banken ab über jahrzehnte..
 
@chronos42: bis dahin gibt es eher keine CPUs mehr... dass man sowas sehr wohl voraussagen kann beweist übrigens das Moorsche Gesetz...
 
@Kjuiss: nein, das Moorsche Gesetz sagt nur etwas aus über die machbaren kleinsten Chip-Strukturen. In absehbarer Zeit ist hier ein physikalisches Ende erreicht, aber CPUs wird es dann trotzdem noch geben, irgendwann auf Basis einer komplett anderen Technologie.
 
Nvidia: Grafikkarten bis 2015 mit 20-facher Leistung... und 2020 wirds noch schneller und wartet erst mal 2025... dann geht es wieder schneller...
 
Absolut uninteressanter Artikel. Dass es in Zukunft immer schnellere und noch schnellere Produkte geben wird, versteht sich von selbst. Was erfreulich wäre, wenn Produkte in Zukunft nur noch 1/20 der bisherigen elektrischen Leistung benötigen würde, 20fach länger halter als bisher und 20fach günstiger wären :-)
Der Wahn zu schneller, schneller, schneller ist einfach langweilig. Immer das gleiche.
 
@andreasm: genau das dachte ich auch, als ich den artikel las...
 
@andreasm: Watn das fürn Spruch ? =D ... Haben nicht irgendwelche Leute ,als die Eisenbahn erfunden wurde, erzählt ,dass einem Menschen ab 50km/h das Hirn aus den Ohren gedrückt wird? =D
 
@andreasm: Das ist ziemlicher Unfug, denn kaufe dir mal heute eine Grafikkarte, die 6 Jahre alt ist... Genau. Die verbraucht vielleicht mit gleicher Leistung 1/5 der Leistung von der Grafikkarte, die du vor 6 Jahren gekauft hast, hält demnach wohl auch lange, weil keine hohe Abwärme entsteht und sie sogar passiv gekühlt eher kühl bleibt, zudem sind sie deutlich günstiger als damals.
 
@Kjuiss: "tödlich, gefährlich, schlimm" und "unnötig" besteht doch ein kleiner Unterschied. Ich für meinen Teil werde wohl bei meiner HD4350 bleiben, weil die es schafft, LotRO flüssig laufen zu lassen, während sie komplett lautlos ist und weniger als 20W Leistung aufnimmt. Ich für meinen Teil bin zufrieden, wenn mein PC die Sachen machen kann, die ich mit ihm machen möchte und falls dafür eine einfache Lösung mehr als ausreicht bin ich äusserst zufrieden.
 
danke für eure Rückmeldungen! Ich nutze übrigens in meinem Computer eine geforce 2 mx 400. Probleme habe ich nur bei HD Videos, aber die kann ich im Notfall auch auf dem Laptop schauen. Bedenkt auch immer, dass für die Herstellung von neuen Bauteilen/Geräten auch viel Energie benötigt wird. Solange die alte Karte noch läuft und ausreicht, bleibe ich bei der :)
 
Verzwanzigfacht sich der Energiebedarf dann auch? Dann müßte ich nämlich jetzt schon mal anfangen für die Stromrechnungen ab 2015 etwas beiseite zu legen. Bin dann auch mal auf die Kühllösungen gespannt.
 
@DennisMoore: Nach Tegra-Grafikchip googeln =D ... Geschieht schon was in Richtung Stromverbrauch...
 
Und wann kommen die Mehrkern-Prozessoren für GPUs auf den Markt? ... O_ô
 
@BlackFear: ähm... habe ich was verpasst? *lach* Aktuelle GPUs haben schon einige Kerne mehr als normale CPUs :D
 
@FFX: Du verwechselst da was ... Das sind die Streamprozessoren. Das ist nur ein TEIL einer GPU und dient nur als CO-Prozessor. Normale Grakas haben nur Einkernige GPUs. Das höchste aller Gefühle ist eine Dual-GPU-Lösung.
 
@BlackFear: Sagt mal sind heute wieder die verdammten Minusklicker unetrwegs??? Das war eine normale Frage, dann rechtfertige auch deinen Minus du ****** Echt mal, dümmer gehts kaum noch!
 
@BlackFear: Die Hauptschule macht halt Freitags früher zu als üblich!
 
Das sind diese tollen visionären News die toll klingen, die auch keiner verneinen wird und die dennoch null informationsgehalt haben.
 
Also ich find's schon interessant, das nVidia hier zwar 20-fache Leistung orakelt, aber was ist mit der Leistung, die solche GraKas verbrauchen? Schon heute hat eine "Stromsparende" 9600GT unter Vollast 95W Verbrauch. Möchte nicht wissen, wie hoch der Stromverbrauch in ein paar Jahren ist... Die sollten sich mal lieber um eine Steigerung der Effizienz ihrer Grafikchips in Punkto Stromverbrauch kümmern. Ich habe mich auch bewusst für ein 9600GT entschieden, da die "großen" Modelle wesentlich mehr Strom verbrauchen.
 
Jedenfalls hat Nividia dann die Karten 10x umbenannt und will die wieder verkaufen.
 
Mir ist es egal, ob NVIDIA oder ATI.
Hauptsache die Grafikkarten werden um 1000fach schneller werden, so das wir nicht wieder an Grenzen kommen werden.
Ich selber habe die ATI HD 4870 DDR5.
Bin sehr zu frieden, aber auch mit 3D MARK 2006 finde ich bei CPU BENCHMARK ein ruckeln, trotz CPU INTEL CORE 2 EXTREME QUAD QX6850!!!
 
Ich finde, die sollten erst Stromverbrauch/Lautstärke im Betrieb auf mindestens die Hälfte reduzieren und dann anfangen die Leistung zu erhöhen (aber auf dem Stromverbrauch/Lautstärke-Bereich bleiben).
 
Toll mit 20 facher Leistung und auch 20 facher Stromverbrauch. Bin gespannt wer als erstes ein mini Kernkraftwerk mit liefert, ATI oder Nvidia :D
 
@avril|L: Klar, weil sich der Stromverbrauch deines Rechners in den letzten 6 Jahren auch ums 20-Fache erhöht hat und in den Jahren davor und davor...demnach müsste sich in den letzten 20 Jahren, (vorrausgesetzt wie angenommen verdoppelt sich die Leistung alle 2 Jahre) sich der Stromverbrauch ums 1024-fache gesteigert haben! o.O
 
20 TFLOPS ... irgendwie Irre, ich kann mich noch an meine 3dfx Vodoo 2 erinnern, die schaffte unglaubliche 1,2 Gigaflop.
 
sagt der hersteller der noch keine dx10.1 karte am markt hat, aber ich mag nvidia und glaube ihnen das die speicher sind ja auch um das x fache gestiegen.
 
"Um diesen Wert zu erreichen, müsste sich die Leistung der Grafikchips alle zwei Jahre verdoppeln" +++ Moment, ich rechne mal: 2010 (x2) + 2011 (x2) + 2012 (x2) + 2013 (x2) + 2014 (x2) + 2015 (x2) = 12-fache Leistungssteigerung. ALLES ERLOGEN. +++ @ urbanskater: Hör auf mit dem Geschwalle, keine Sau braucht DX10.1, du weißt wahrscheinlich selbst nicht mal, welche Unterschiede zwischen 10.0 und 10.1 existieren.
 
@blu3light: ATI hat schon dx11 und ist damit fortschrittlicher.
 
@blu3light: trotzdem man muss mit der technik gehn :-)
 
Hoffentlich ist zum. die Stromaufnahme nicht auch gleich 40 mal höher.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte