Unreal-Engine-Entwickler: Ende der GPUs ist erreicht

Grafikkarten Laut dem Entwickler der bekannten Unreal-Engine, Tim Sweeney, sind die Tage des heute üblichen Grafikprozessors gezählt. Vor allem die komplizierte Programmierung der GPUs verschlingt zu hohe Kosten und lohnt sich deshalb nicht. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
nun dass die PS3 scheiße zum Programmieren ist ist nicht neu - allerdings ein durchaus interessanter Artikel - der angegebene Link ist übrigens tot - der hier wärs gewesen.....http://graphics.cs.williams.edu/archive/SweeneyHPG2009/TimHPG2009.pdf
 
@RohLand: http://short4u.de/4a896093c9924
 
@werosey: na , nochne tinyurl?
 
@RohLand: Mein Gott pienz pienz winsel. Vor 20 Jahren mussten die Grafikengines noch selbst programmiert werden und das ganze in ein paar hundert Kilobyte Speicher gepackt werden mitsamt dem Spiel. Was müssen denn heute Programmierer noch programmieren? Die meisten Spiele setzen doch eh auf ner vorprogrammierten Engine auf.
 
@Shiranai: Ich habe den Artikel gelesen: [ ] Ja [ X ] Nein
 
@Shiranai: es geht hier ja um die programmierung einer solchen engine: unreal engine
 
@RohLand: Von welchem Verhältnis spricht der Mann eigentlich? Jahre, Wochen, Tage oder Stunden?
 
@Shiranai: Du bist ja voll der pro... Du bist also Softwareentwickler, schreibst multi threaded games und arbeitest natürlich auch mit fertigen Engines? Abgesehen davon ist der Herr da oben so ein Engine Programmierer und er meinte nun mal, dass das schreiben dieser Engines nur noch grausame ist, weil die GPU's im Gegensatz zu C++ total bescheuerte Syntax haben und du auf jeden Mist selbst achten musst. Heute sind Programme nun mal unendlich komplizierter und größer als damals. Das macht das programmieren hochkomplexer Anwendungen fast unmöglich, wenn die zu verwenden Sprache murks ist...
 
@Shiranai: "vor 20 Jahren" und Grafikengine in einem Atemzug???? Du bist mutig.
 
@RohLand: Quatsch, von wegen scheiße zu programmieren. Man kann aus den Aussagen ableiten, dass es aufwendiger ist mehrere Threads zu programmieren als nur einen. 2 Butterbrote brauchen aber auch länger um geschmiert zu werden als 1. Was daran scheiße sein soll, versteh ich nicht. Man hat mehr möglichkeiten, und will man sie ausreizen, muss man mehr Zeit und Geld investiert werden. Wenn man nicht alle SPU's der PS3 nutzen will, soll mans halt bleiben lassen und nur die hälfte nehmen. Warscheinlich ist das bei den meißten Games auch der Fall. Doof nur, dass das bei den 6ern und 8er von Intel und AMD ähnlich rauslaufen wird, früher oder später müssen sich die Progger wohl umorientieren, aber wohl kaum die Hardwaremacher.
 
@RohLand: ja mensch, wie kompliziert ist es heute Operationen durchzuführen, früher hat man gesagt in manchen fällen pech gehabt! so einfach geht das nicht, wer geld haben will der muß auch was leisten, der muß halt das 10fache an leistung bringen.. ich meine klar, wenn es sich nicht lohnt muß man es lassen, aber irgendeiner wirds machen und den knaller rausbringen, dann halt nicht unreal engine.
 
@Every_b: Mir fällt da auf Anhieb die Freescape Engine ein (Driller, Castle Master, 3D Construction Set etc.) Ihr glaubt wohl Gtafikengines wurden von John Carmack & Co. erfunden. Setzen, 6!
 
Mir gefällt diese Sichtweise. Besonders gut find ich die Aussage mit der "Reyes-Architektur". Damit würden wir uns auf die nächste große Stufe auf dem Weg zum Fotorealismus begeben.
 
@markox: Ich finde es auch gut, was er sagt. Durch Softwarerendering ist man an keine Strukturen gebunden. Auf jeden Fall könnte man dadurch die Kompabilität steigern und sich die Programmierung mit der Zeit vereinfachen. Außerdem ist alles möglich was man will :-)
Vielleicht wird es wirklich der Unterang der GPUs werden.
 
@John2k: aber ist software-rendering nicht um einiges langsamer als direkt über die hardware?
 
@CruZad3r: Sicherlich, aber es geht nicht darum Software-Rendering über einen Core2 laufen zu lassen, sondern über z.B. Larrabee, hinter welchen deutlich mehr Power steckt.
 
@John2k: Doch, er redet auch von SW-Rendering auf "einfachen" CPU's.
 
@Roidal: aber auch auf larrabee wäre über hardware mehr power drin? oder ist die architektur so verschieden, dass es dort mehr sinn macht?
 
Komisch. Der tut so als ob ein Software-Raytracer weitaus einfacher zu realisieren ist als HW-beschleunigtes Rasterisieren, aber wenn es wirklich der Fall wäre, warum arbeitet dann Intel seit Jahren daran und hat es bis heute noch nicht geschafft einen SW-Raytracer zu presentieren welcher bei zeitgemäßer Grafik nur halbwegs ordentlich läuft? Ob das bis 2012 (die Jahreszahl erwähnt er in einem etwas ausführlicheren Artikel) möglich sein wird ist fragwürdig.
PS.: Alleine die Aussage das durch Rasterisierung alle Spiele ähnlich aussehen kann ich überhaupt nicht teilen. (Quelle: http://www.golem.de/0908/69099.html)
 
In der c´t war vor nem halben Jahr mal ein Bericht über Grafikprogrammierung mit Hilfe von Voxeln. Ist das jetzt schon out? (Hier nochmal die Begriffe aus Wikipedia: VOXEL: Räumlicher Datensatz. Bei einem räumlichen Datensatz, der in diskretisierter Form in kartesischen Koordinaten vorliegt, bezeichnet Voxel den diskreten Wert an einer XYZ-Koordinate des Datensatzes. Bei dieser Definition handelt es sich um das dreidimensionale Äquivalent eines Pixels, somit hat ein Voxel keine bestimmte Form. Man spricht hier auch vom isotropen Voxel oder „Volumenpixel“. Häufig handelt es sich bei den in Voxelgittern enthaltenen Daten um Farbwerte, die mit den Mitteln der Volumengrafik zur Visualisierung bestimmt sind. Anwendungen findet diese Form der Datenrepräsentation vor allem in den bildgebenden Verfahren der Medizin, hier können die diskreten Werte als Dichte (Knochen, Fettgewebe) aufgefasst werden und entsprechend visualisiert werden. RAYTRACING: In anderen Fällen bezeichnet ein Voxel eine quaderförmige Zelle innerhalb eines regelmäßig aufgeteilten Quaders oder unbegrenzten Raumes. Am häufigsten wird diese Bedeutung bei bestimmten Techniken zur Beschleunigung von Raytracing verwendet.)
 
@Bösa Bär: Voxel is nur eine Art 3D-Objekte zu representieren, daher is es nicht abwägig Voxel + Raytracing zu verwenden. Ist sogar besser als Polygone + Raytracing.
 
@Roidal: Sorry hat sich überschnitten, war noch schnell auf Wikipedia. :-)
 
@Bösa Bär: Wer sich noch daran erinnert: Outcast war 1999 eines der letzten Spiele mit einer Voxel-Engine. Ich weiß aber nicht, ob hier der Begriff Voxel-Engine jetzt 100% korrekt ist.
 
@noComment: Ich glaube Outcast war nicht ganz das was wir heute unter Voxelengine verstehen. Eher eine vereinfache art die für einige dinge auch polygone mit texturen nutzte.

Eine "echte" Voxel Engine samt raytracing war die VoxelSpace von Comanche.
Damals kam man von dem Konzept ab da man nicht genug rechenpower hatte und mit GPUs über die pylogon/textur schiene die grafiken effektiver erstellen konnte.

Mittlerweile sind wir an einem detailgrad angelangt an dem dieser Vorteil wieder zu gunsten der prinzipiell hochwertigeren Voxel engine kippt.
 
@noComment: War eher ne hybrid engine da Landschaftsbestandteile mit Voxeln gerendert wurden, aber Objekte und Figuren mit normalen Polygonen (sah für jeden Fall hammer aus dahmals). Zum Thema ich glaube kaum das die GPUs bis 2012 abschreiben können, ev. entwickelt sich das durch Cuda und OpenCL ev. zu einer Art universal Beschleunigungslösung. id Software will mit der id Tech 6 für jeden Fall zu Voxeln greifen auch wenn sich das nach wie vor auch eher nach einer hybrid engine anhört aber mal schauen. Für jeden Fall wird der Herr von Epic sich mit seiner Prognose ins Leere greifen denk ich.
 
@Roidal: Bevor du von jemand anderem deswegen angesprochen wirst. Es schreibt sich prÄsentieren [o3], bzw reprÄsentieren.
 
@sunrise: Die letzten Games mit Voxeln waren imho die Delta-Force-Spiele (DF2). Voxel wurden aus mehreren Gründen aufgegeben. Zum einen wurden die Voxelengines nicht durch Grafikbeschleuniger "angetrieben". Zum anderen waren die Engines oft "Hybriden" (Rasterisierer und Voxel), da sich Strukturen (Gebäude, Bäume, Figuren...) nicht gut in Voxel darstellen ließen. Die verschmelzung beider Techniken jedoch birgt Probleme mit Kollisionsabfragen und dem "Zusammenlegen" Räumlicher Koordinaten. Gebäude versanken im Bode oder schwebten in der Luft. In Gebäuden schienen die Voxel durch, unmengen von "Glitches"... Dies zu beheben hätte so erheblichen Aufwand bedeutet, dass hätten wiederum die Rechner nicht geschafft. Eine Kombination aus Raytracing und Voxeln jedoch wäre cool, da hierdurch die Beleuchtung jedes Voxel perfekt und sehr exakt berechent werden könnten. Das würde zu korrekten Schatten selbst auf Grashalmen führen. Auch verhält sich der Rechenaufwand von Voxeln mit steigender Detailzahl linear... PCO
 
Klingt nach reiner Larrabee Werbung
 
@~LN~: so verstehe ich das allerdings auch. raytracing über software rendering?!? ehm, raytracing lohnt sich erst bei gewisser rechenleistung und soll dann bei gleicher leistung effizienter sein als rastering. wer weiß denn bitte jetzt schon (außer man macht natürlich werbung für larrabee) wie schnell larrabee sein wird. und dann ohne dieses wissen gleich software rendering?! ja klar... warum soll multithreading für 80 kerne??? (irgendwie so viel soll der doch haben, oder?) leichter sein als die der GPUs??
nochmal zum raytracing. soweit ich das damals mit dem R600 von ati und den g80 GPUs von nvidia mitbekommen habe, war der chip von ATI damals mehr auf das raytracing ausgelegt, weil man damals der ansicht war, dass es kommen würde. noch ist das allerdings nicht eingetreten. die theoretische leistung des chips von ATI war ja auch höher, als die des nvidia. nur waren und sind die spiele von heute nicht mittels raytracing realisiert und nvidia hatte die nase vorne.
die ganze aussage von dem herren ist mir wirklich zu ungereimt! und larrabee mit ins spiel genommen .... also gibts da ein bezug zu intel. übrigens, wer sagt grafikprogrammierung ist einfach? die ganzen dinge, auf die man achten muss, von denen er da redet, sind doch normal. oder verstehe ich da jetzt was falsch, wenn ich sage, dass man auch bei software ohne grafikprogrammierung auch auf die verwaltung des speichers achten muss. klar, kein grafikspeicher, aber den gibts auch nicht ohen grund und kompromisse muss man immer eingehen, sofern das endprodukt was werden soll.
 
CPU und GPU gleichen sich immer näher an. Die GPU kann inzwischen Rechenaufgaben der CPU übernehmen und ein Großteil der heutigen Programme hat von Multicore auch noch nichts gehört, so dass die nicht ausgelastet werden. Dennoch glaube ich nicht daran, dass in absehbarer Zeit wieder Softwarerendering zum Einsatz kommt. Die Entwicklung hierfür ist auch nur begrenzt einfacher und spätestens die Lizenznehmer der Engine werden sich bedanken, wenn sie sich die CPU-Power mit der Engine teilen müssen. Alles was technisch ausgereifter wird ist auch automatisch komplizierter. Das muss eben auch langsam mal die Spieleindustrie kapieren. Ein Autohersteller braucht heute auch 10-mal so viel Zeit für Tests wie vor 20 Jahren, obwohl Computer und Co zur Verfügung stehen. Und das nur weil die ganze Mechanik und Elektronik feiner und mehr geworden ist. Trotzdem sitzen wir nicht wieder auf einem Pferd um zur Arbeit zu reiten. Und da Epic Games die Engine weiter verkauft bzw. dies ihr Hauptgeschäft ist, sollte man evtl. auch mal überlegen ob man als "Lieferant" wirklich sagen kann: "Ne gibt keine Autos mehr.. kauft unsere Bobbycars und freut euch"
 
@Mudder: Das steht da so nicht!
 
@Yogort: aber mehr oder weniger sollte man es genauso verstehen! was natürlich nicht die absicht des herrn Sweeney war. er wollte, dass es genauso aussieht, wie die meisten es hier verstehen!
 
@Mudder: keine ahnung wer hier minus verteilt aber ich bin ganz deiner meinung und hab da nichts hinzuzufügen.
 
Wie zum Geier wollen die Larabee ausnutzen, ohne Multithreading zu benutzen?
 
@Kirill: Vielleicht kann ja Larrabee die Prozesse selber geschickt verteilen. Soweit ich weiß, wollte AMD das Ganze mal aufgreifen. Eine logische CPU, aber viele Kerne dahinter. Software muss nicht geändert werden und alle sind zufrieden :-)
 
@Kirill: Es geht ja nicht darum kein Multithreading zu nutzen. Er spricht ein Problem an, was das Konzept der GPUs angeht.
 
@Kirill: weil du bei der Synchronistion von Threads Probleme haben kannst, insbesondere Race Conditions können hier auftrehten. Wäre sicherlich eine Möglichkeit, allerdings zielen die Entwickler darauf ab, eine Hochsprache zu verwenden und die Programmierung durch Softwarelösungen möglichst zu vereinfachen, um so Kosten zu sparen. Daher schlage sie vor keine Threads zu verwenden, auf shared memory variablen zu verzichten.
 
@John2k: War imho nur ein Gerücht das um den K10 erzählt wurde und als "Anti Hyperthreading" durch die Foren geisterte.
 
@John2k: Das ist leider nicht so einfach.
 
@John2k: wenns mit einer CPU möglich ist, dann auch mit einer GPU!
@Demiurg: welches konzept?? der herr hat mir da kein konzept gezeigt. oder stehts nur bei winfuture nicht dabei? (ich weiß, dass ne GPU anders aufegbaut ist, als ne CPU. aber von nem konzept lese ich hier nichts. nur werbung für larrabee)
 
wie ihr sicher wisst arbeiten viele firmen untereinander, was wäre denn wenn nur ne gute soft die graka überflüssig machen würde ?, dann könnte doch Nvidea & ATI/AMD einpacken oder ? das ist bei vielen produkten so die einfach besser sind aber nicht gut für den verkauf, also ab in die schublade damit ( möchte gern mal wissen was da so alles schon drinnliegt )
 
@Sir @ndy: Diese Vermutung hatte ich auch schon beim lesen der News. Nicht alles was besser ist und unter umständen billiger ist, wird auch das Licht der Welt erblicken. Da spielt viel Geld mit rein. Mit "viel Geld" meine ich zweistellige Milliarden Euro Beträge. Nicht alles was besser ist, bringt auch mehr Geld in die chronisch leeren Kassen. Die Wissenschaft musste sicherlich schon sehr oft vor dem Kapitalismus kapitulieren. Wie oft, würde ich auch gerne mal wissen.
 
@Sir @ndy: Naja zum einen wird eine solche Grafik recht sicher kommen, ID Software hat das für idTech6 bereits angekündigt. Zum anderen werden Grakas denke ich deswegen nicht gleich untergehen sondern sich eben anpassen müssen. Und da Intel kein allzu großes Inetresse an den marktanteilen der Konkurenz hat werden die in jedem Fall entsprechende Produkte bringen, larrabee kann man wohl als ersten versuch in der Richtung werten. Und sobald Intel vorlegt werden die anderen reagieren müssen.
 
@seaman: Billigere Lösungen zu entwickeln gehört auch zur wissenschaftlichen Arbeit. Es geht darum, das Spiele billiger und schneller entwickelt werden können. Wenn alle deiner Meinung wären, würden wir heute noch mit Assembler programmieren, statt auf Hochsprachen wie C++, Java und .Net zurückgreifen zu können. Wahrscheinlich wären wir mit deiner Meinung sogar noch beim Getreide kloppen mit großen Steinen, bzw. mit kleinen, weil mit großen Steinen wäre es ja viel zu einfach und zu billig :P
 
@Yogort: "Wenn alle deiner Meinung wären, würden wir heute noch mit Assembler programmieren, statt auf Hochsprachen wie C++, Java und .Net zurückgreifen zu können." Was ich bei guten Fähigkeiten der Programmierer nicht als Nachteil ansehe :)
 
Eigentlich kurios. Auf der einen Seite sollen GPUs ausdienen, auf der anderen werden sie gerade jetzt noch intensiver genutzt dank CUDA oder ähnlichem. Sorry, aber wenn eine GPU bestimmte (und nicht wenige) Sachen um ein vielfaches schneller berechnet als sogar die stärksten Mehrprozessorsysteme, dann hat der liebe Mann wohl nicht wirklich recht.
 
@Islander: Einige Sachen ist eben der Knackpunkt. Für alles andere ist die GPU unbrauchbar.
 
@Islander: Der Mann argumentiert aus seiner sicht - Entwicklungskosten. Von der Performanz spricht er nicht. Die Komplexität modernrer Hardware bedeutet bspw. dass jeder Programmierer, bevor er "Loslegen" kann, lernen muss mit der neuen Hardware zu arbeiten. Dann, ist die Engine fertig, muss diese optimiert werden und am Ende das Spiel selbst. Die Aufwände wachsen, während der VK-Preis relativ gleich bleibt. Der ursprüngliche Vorteil von Grakas war es, vieles zu erleichtern, was früher in Software gestrickt werden müsste. Die nun wachsende Komplexität führt dazu, dass Programmierer weniger die "Fähigkeiten", als viel mehr die Geschwindigkeit nutzen. Fettere Texturen, mehr Polygone... Heute wäre es schon wieder angenehmer, es wieder in Software abzubilden und so "flexibler". Hier kamen vor ein paar Jahren Shaderprogramme ins Spiel. Larrabee ist imho in der Hinsicht die Zukunft, da es hier völlig uninteressant ist, welche grafische Technik ich anwende. Die Effekte werden in Software als Treiberprogramm mitgeliefert und können einfach geladen werden, ansonsten hat man einen frei Programmierbaren Chip, mit dem man so ziemlich alles anstellen kann. Ob nun Rasterisierung oder Raytracing ist Larrabee freilich egal. Es wird sich etwas tun müssen.
 
Der Seitenhieb gegen Crytek durfte natürlich nicht fehlen. -.-
 
ICH HAB TETRIS BESTE ENGINE WELTWEIT, das lässt sich noch in 100 Jahren spielen... tzz GPU?
 
@illuminati: Dann spiel Du weiter Tetris...
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles