Bessere Spielegrafik mit Punkten statt Polygonen

PC-Spiele Ein australisches Unternehmen will die Grafik von Computerspielen mit einem einfachen Trick deutlich verbessern, ohne die Hardwareanforderungen in die Höhe schnellen zu lassen. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
nicht schlecht, aber gibt es aktuell nicht bereits Algorithmen, die verdeckte Elemente nicht rendern?
 
@zwutz: Also ich sehe jetzt kaum einen voteil in dieser technik. Ok, wenn man niur die Objekte haben will ist das natürlich ein schöner schritt. Aber das gleiche machen Voxel auch Öö. Und eine Technik um nicht sichtbare lemente auszublenden, bzw. beim rendern nicht mit einzubeziehen ist auch eher falsch.
Wie soll den licht richtig berechnet werden. Mittlerweile stehen wir ja beim rastarisierungsverfahren kurz davor, dass licht auch farbinformationen der oberflächen mitnimmt. Wenn jedoch eine oberfläche garnicht berechnet wird, können auch keine farbinformationen weitergegben werden. Also die idee ist nicht schlecht, nur nicht neu. Soetwas was hat ID-Software vor einiger zeit vorgestellt.
Voxel in verbindung mit RT.
 
@rony-x2: Was ich daran nicht verstehe ist, wie die sich das mit der Texturierung z.B. auf Models & Objekten vorstellen?! Normal liegen Texturen auf Polygonflächen, aber bei einzelnen Punkten gibts doch eig. kaum Möglichkeiten Texturen zu fixieren, skallieren usw...das war auch einer der Gründe warum die Voxeltechnik heute keine Verwendung mehr findet...extrem matschige Texturen! Farbige Punkte sehen vllt. aus der Entfernung noch annehmbar aus, aber garantiert nicht aus der nähe...trotzdem hoffe ich, dass diese Punkt-Technik irgendwann all diese Kinderkrankheiten überstanden hat!
BTW: Das "Unlimited Detail"-Logo sieht derbe Billig aus...so sahen Gamerschmiedenlogos ende der 80er aus^^
 
@Aeleks: Die Punkte sind so groß wie ein Pixel. Gibt man den Punkten nun unterschiedliche Farbwerte brauchst du keine Texturen mehr. Die Punkte Bilden das Modell + Texturierung.
 
@ThreeM: Und wer soll sowas programmieren? Ich glaube kaum dass sich Entwickler die Mühe machen werden, milliarden Punke farbig zu scripten bis sie einigermaßen scharfe Texturen/Bilder ergeben. Mal davon abgesehen dass es hier erstmal nur um die reine Texturierung geht...dazu kommen ja mindestens noch so Spielereien wie Bumpmapping, Specular Lightning usw...und das für jeden Punkt einzlen? Nö^^
 
@Aeleks: Bumb Mapping brauchste ja dann nicht mehr. Specular Lightning stell ich mir mit Dots einfacher vor als mit Polygonen, da jeder Punkt bestimmte Farb/Lichtweret annehmen kann. Ich glaub auch nicht das man jeden einzelnen Punkt Scripten muss. Legst diesee einfach eine Textur über die Punkte, und die SDK nimmt die Farbwerte der Textur und überträgt diese auf die Dots.
 
@ThreeM: Wäre schön wenn das so einfach zu machen wär...neben vielen Polygonen kommen gleich die Texturen als größter Leistungsfresser in 3D-Games...ohne direkte Texturen wäre sowas ein großer Performencegewinn.
 
@darius_: verdammt....lässt sich nicht löschen...
 
@rony-x2: also ich sehe da riesige Vorteile. Denn damit gehören die eckigen Darstellungen der Vergangenheit an. Sehr Homogene Übegänge. Jeder wird es haben wollen. Jeder will 32 GB Arbeitsspeicher haben wollen, der sehr schnell sein soll. Da wird der Ram Hersteller glänzende Augen bekommen. Und Mainbordhersteller. Etc.... Verstehst du nun, warum diese Idee Gold wert ist?
 
@zwutz: Ja es gibt in einigen Engines mittlerweile sehr gut funktionierende Algorithmen die verdeckte Elemente nicht rendern...z.B. die Unreal3- und die Sourceengine.
 
@Aeleks: texturiren kannst du so wie bishger, nur es wird eben auf voxel umgerechnet.
Aber auch bei voxel gibt es eine technik die sehr ähnlich der tesslation von rastarisierung ist, so geht man immer näher an ein objekt heran, und es wird immer detailierter. Wenn man es bis an die spitze treibt kann man sich die shader sparen, also die pixelshader und auch die ganzen mapping effekte. Denn diese gaukeln einem ja nur vor, dass es so aussieht. So spart die Unreal 3 engine einem enge speicher. Es werden matschige texturen genommen, und da wird einfach eine armada von shadern drübergejagt.
 
@Aeleks: also bei der U3 engine bin ich mir jetzt nicht ganz sicher, aber ich glaube die source engine kann das nicht. Schau dir mal die maps z.b. von hl2 aus der vogelperspektive an, und du wirst schnell merken, dass man dort vieles weggelassen hat, was der spieler sowieso nicht sieht, man hätte es ja auch hinbauen können, wenn es soweiso nicht gerender werden würde ;)

Soweit ich weiß, ist es immernoch grafikkarten abhängig - so konnte es damals die kyro 2
 
@rony-x2: Das ist nicht ganz richtig...du wirst in jedem Spiel (per NoClip) irgendwelche Bereiche finden, die mit Absicht abgeschnitten oder Detailarm gestaltet sind, weil der Player sie eh nie sehen oder in ihre Nähe kommen wird...egal welche Engine. Bei der Sourceengine werden die Levelbereiche in Vis-Leaves unterteilt, befindest du dich in einem VisLeav-Bereich, werden alle Anderen "nicht sichtbaren" in der Umgebung deaktiviert und nichtmehr gerendert . Das ist zwar nicht die beste aller Lösungen...aber sie funktioniert und spart eine menge Performence in großen/detailierten Levels ;)
 
@zwutz: Gibt es, doch wenn man dem Typen glauben soll (was auch durch die Bilder bestätigt wird), so ist dieser neue Algorithmus so effektiv, dass er sofort den richtigen Voxel findet, den er aufzeichnen soll. Wenn man sich die Nahaufnahmen in den neueren Videos auf Youtube ansieht, erkennt man deutlich, dass es sich hier immernoch im Prinzip um Voxels handelt, die aber in einer erstaunlichen Geschwindigkeit gerendert werden. Schatten habe ich in den Videos auch gesehen, somit scheint der Algorithmus auch dafür geeignet zu sein.
 
In der Industrie kommt es nur auf 2 Dinge an: Die Toolchain (also ne Sammlung von Tools für eine Engine, z.B. Model-Editoren, Animatoren, Importer, Leveleditoren, usw.) und die Performance. Ob eine Engine Occlusion macht oder nicht, entscheidet weniger die Engine, als dann das Spiel. Natürlich, wenn man eine Engine nimmt, die alles vorgefertigt macht (dabei kommt dann ein 0815 Spiel bei raus), muss man sich nicht darum kümmern. Dennoch: in den heutigen Auflösungen und Detailreichtum gehts nur um eines: Speicher (sowohl Platz als auch Durchsatz). Die besten Spiele sind nur durch Speicher begrenzt. Da Polygone nur dann Speicher sparen, wenn sie groß sind, ihn aber verschwenden wenn sie sehr klein werden, ist ein Punkt-Algorithmus eigentlich der nächste logische Schritt. Der Punkt-Algorithmus ist eigentlich nichts weiter, als Polygone die so klein sind, wie ein Pixel auf dem Bildschirm. Je weiter ein Punkt ist, desto "größer" kann er werden. Also das, was hier angestrebt wird, ist unendlich hoher Detailreichtum, denn es wird pro Pixel berechnet (d.h. unabhängig davon, wie komplex die Szene ist, es werden immer nur gleich viele Punkte berechnet). Bei den Polygon-Engines geht das nicht: hier verdecken Effekte und andere Dinge sich immer gegenseitig. Das wird auch bei der Pixel-Engine der Fall sein, nämlich dann, wenn es um alpha-blending geht. Ich persönlich bin der Meinung, dass Raytracing die Zukunft gehört und man da endlich an einer Hardware-Lösung forschen sollte. Irgendwann haben wir die Power um genug Rays zu casten. :) Dann heißt es nicht 3B Texel/sec. oder so, sondern 50 Mrd. Rays/sec. Man rendert dann nicht, wie jetzt (also eigentlich pseudo-3D), sondern übergibt der Hardware wirklich die Modelle sammt Materialien (die nichts weiter als Shader-Funktionen +Texturen sind) und schickt dann n Ray da durch. Und damit wäre zumindest ich schon zufriegen. ^^ Im Moment stört mich die Tatsache, dass die Grafikkarten eigentlich nur Vektor-Prozessoren sind und das echte 3D es eigentlich nicht gibt. Die Szene ist ja nirgends wirklich da, sondern nur paar Hierarchische Daten werden zur richtigen Zeit am richtigen Platz auf dem Bildschirm gemalt und zack, schon siehts wie 3D aus ^^.
 
@zwutz: Och war schon vor Wochen auf gametrailers.com. Die Idee ist toll, aber gegen etablierte und prima funkionierende Standards angehen um es besser zu machen? Das kann nur Apple! :D
 
Also streng genommen unter Berücksichtigung der Spezifikationen eines Punktes wäre dies das Ende von 3D? oÔ
 
@rockCoach: 3D ist ja nur das was du siehst, ob das aus Polygonen oder Punkten zusammengebastelt ist, ist ja egal. Ausserdem müssen im Editor ja trotzdem noch alle Objekte im 3-dimensionalen Raum angeordnet werden.
 
@rockCoach: Genau, ab jetzt werden Spiele mit 0D (edit) vermarketet...aber ansonsten: Nein. Weil jetzige 3D-Spiele auch bloß 2D sind, eine 3D Wirkung jedoch durch Perspektive erreicht wird. Das hat, wie im Artikel erwähnt, ne Hand voll Nachteile. Die Methode der Darstellung ist die selbe, nur der technische Hintergrund ändert sich.
 
@rockCoach: Die Ausbreitung eines Punkts ist 0-Dimensional, dessen Position kann jedoch in einem X-Dimensionalen Raum sein.
 
@Demiurg: Wir reden hier aber nicht über Punkte aus der Theoriewelt, sondern über Punkte in einem Computer. Und da gibts den Ausdruck "beliebig klein" nicht, da man "nur" endliche Resourcen hat. Auf die Grafik bezogen, reicht ein Punkt aus, der so klein ist, wie ein Pixel. Was im Hintergrund berechnet wird (z.B. Schatten), das ist erstmal nicht erwähnt worden. Da gibts nämlich auch nochmal "Auflösungen" und Punkte, die man berechnen muss.
 
Gabs den Versuch nicht schonmal? Bevor sich die Polygone durchgesetzt haben?
 
@SpiDe: Den Versuch gab es vor vielen Jahren schon mal und hieß Voxel, eine Mischung aus Vektor und Pixel und war ein Helikopter Spiel (Comanche) - für die damalige Zeit war das Ergebnis recht beeindruckend.
 
@ZappoB: Das Spiel? Es waren jede Menge Spiele von Novalogic, Armored Fist 1 -3, Delta Force Reihe usw - es war deutlich bessere Grafik als alles andere. Nur relativ hardwarefressend und weder 3Dfx, nvidia oder ATi hatten großartiges interesse daran diese Technik zu beschleunigen. Jetzt kommt es u.a. mit Raytracing und id Software mit der id Tech 6 zurück, sofern das irgendwann unterstützt wird.
 
@Schnubbie & BuZZer: Ihr habt natürlich beide recht! Es war schlecht formuliert von mir, Comanche war nur das einzige Spiel, das ich selbst besessen habe (und sogar immer noch besitze). Natürlich war es eine Engine, die in mehreren Spielen zum Einsatz kam.
 
@ZappoB: Es war weitaus mehr als nur ein Helikopter-Spiel. Die Voxel-Engine wurde damals von NovaLogic entwickelt, und kam größtenteils in Flugsimulationen zum Einsatz. Aber auch das Action-Adventure "Outcast" verwendet diese Engine.
 
@BuZZer: Outcast lief zwar auch mit einer Voxel-Engine aber nicht mit der VoxelSpace Engine von Novalogic ! Das währe als behaupte man Unreal läuft mit der Quake-Engine. btw.: http://en.wikipedia.org/wiki/Voxel#Computer_gaming
 
@ZappoB: Danke sehr! Konnte mich nicht mehr richtig entsinnen.
 
@SpiDe: Ja und es gab auch noch mehr als das von Novalogic. Auf der Webseite wird nämlich zwischen Voxel und ihrem System unterschieden. Es gab mal ein Spiel das basierte auf Kugeln.
 
@SpiDe: Mir stellt sich grad' die Frage: Ist das dann "cloud-computing"? ;-)
 
mehr vids http://www.youtube.com/results?search_query=Unlimited+Detail+&search=Search
 
@muesli: btw der typ hat eindeutig ne klatsche, klingt alles wie ein sektenwerbevideo!
 
das Video erinnert mich irgendwie an Teleshopping ^^
 
@nkler: tja, kaum hören sie nen gebürtigen australier drehnse durch
 
HAMMER! Dahin muss die Reise gehen. Der Hardwarehunger muss irgendwann ein Ende haben, denn unendliche Rechenpower wird es nicht geben und die Entwicklung der Geschwindigkeit stagniert auch irgendwann...
 
@evil flo: "Entwicklung der Geschwindigkeit stagniert auch irgendwann..." - wohl kaum...
 
@bluefisch200: doch es gibt grenzen, diese wurden auch shcon berechnet! news gabs auch auf winfuture afaik, soweit ich mich erinnern kann ist das ende der rechen leistung entweder in 80 jahren oder 2080 erreicht.... verhält sich wie mit der geschwindigkeit und dem licht ;) physikalische grenzen und so...
 
@d4rkside: Ach was...dann finden wir doch raus dass man schneller als das Licht sein kann (ist ja nur eine Theorie)...der Mensch hat immer Wege gefunden...
 
@evil flo: Diese Technik ist uralt und wirklich keine neue Erfindung. Nur die Hardwarefirmen (3Dfx, nvidia, ATi) haben diese Technik boykottiert. Wer weiß wie jetzt unsere Grafik aussehen könnte
 
@Schnubbie: Schlechter, denn die notwendige Rechenpower für diese Technik ist um einiges höher als bei den alten Polygonen. Die hatten schon ihre Gründe... Und wenn ich mir moderne Spiele wie MW2 oder Crysis 2 anschaue, dann kann ich keinen wirklichen Nachteil bei den Polygonen erkennen - auch hier gilt wieder das gleiche wie bei den Farben, was der Mensch im Video erklärt hat: Irgendwann sind soviele Kanten (Polygone; Farben) vorhanden, dass wir es nicht mehr als Kante wahrnehmen, sondern als runde Form.
Zu der Sache mit der Geschwindigkeit: Ich glaube nicht, dass wir jemals aufhören uns zu verbessern. Das liegt in der Natur des Menschen. Wir müssen immer besser werden. Sonst wären wir nicht da, wo wir heute sind.
Trotzdem: Diese "Punkt"-Technik wird kommen... denn sie ist der nächste logische Schritt !
 
@SpiDe: Das kann man so nicht sagen. Die früheren Voxelengines von Novalogic liefen CPU only und wurden durch die Grafikkarten 0,0 beschleunigt. Hätte man darauf hingearbeitet die Voxelengiens zu beschleunigen würde die heutige Grafik vielleicht besser aussehen bei gleicher Technik. Was eine einzelne Grafikkarte an Mehr Power haben als eine CPU sieht man ja schön bei den GGPU Anwendungen. Genau das selbe mit Tesselation und Trueform von ATi. Sind im Grunde das selbe, wurde aber boykottiert und so mussten wir Jahre wieder auf die Einführung der selben Technik warten, nur unter neuem Namen.
 
@Schnubbie: Ich habe schonmal eine Voxel-Engine auf meiner ehemaligen X1950 Pro getestet (AGP-Version von Sapphire... ging sehr schnell mal flöten >.<) die über die Shader-Prozessoren lief. Das sah auch ziemlich grottig aus, abgesehen vom schöneren Aussehen der Bäume.
 
ich finds trotz der beachtung und dem aufkommenden interesse seitens ernstzunehmender unternehmen irgendwie trotzdem spanisch.

vielleicht ist das die zukunft von grafikdarstellung dreidimensionaler objekte... mit der website und den promovideos gewinnen die aber keinen blumentopf. wenn man die überlegenheit der technik zeigen möchte... dann bitte nicht mit so hässlichen grafiken. da sollten schon viel komplexere sachen her. klar, die crowd-darstellung in der größe ist beeindruckend... aber sowas hab ich auch schon für die PS3 gesehen, nur vielleicht nicht so komplex.
 
@Deep: Dann gucke dir die neueren Videos auf Youtube an.
 
@JacksBauer: "Nur vielleicht nicht so komplex" DAS ist exakt der Punkt ich empfehle das zweite video: http://www.golem.de/1004/74399.html
 
Das ist wohl der uralte Voxelansatz. Aber seis drum, Voxelgrafik ist an sich ja nicht schlecht. Outcast war ein wunderschönes Beispiel dafür, was mit Voxeln geht.
 
Ich dachte die Reise geht in Richtung Raytracing. Naja auch gut... =) mit Voxelgrafik hat das ganze ja auch nicht viel zu tun. Das bahnbrechende ist ja der Algorithmus der dem ganzen zugrunde liegt. Ähnlich wie bei Google eben... ohne deren Algorithmus wären die ja auch nix ;D
 
Ich sehe das Problem gar nicht darin, das ganze optisch aufzubereiten, sondern in den anfallenden Datenmengen einer "Landschaft". Um herauszufinden was der Spieler sieht, oder was nicht, muss erst einmal bekannt sein, was er sehen "könnte". Für "unlimitierte Details" muss eine Landschaft Datenseitig aus weiiit weiiit mehr Punkten bestehen, als bspw. eine aktuelle Polygongrafik Vertexes hat. Diese Datenmasse mus für nahezu jedes Bild analysiert werden. Kommt dann noch "Bewegung" ins Spiel, Licht und Schatten... pfff.. Das war ja auch immer das Problem bei Voxelgrafik. Der Aufwand wächst exponentiell mit dem, was man darstellen will. Wobei ich es auch erstaunlich finde, dass aktuelle Grafikkarten so explizit ausgeschlossen werden. Wie schauts mit DirectCompute (oder CUDA or whatever) aus... das will ich erst sehen, bevor ichs glaub. PCO
 
@pco: Diese Technik hat als einziges Manko: Speicherplatz. Weil wie er sagt: Der Algorhytmus ist so gut, dass ihm die Datenmenge nahezu egal ist. Aber wenn ein Level 500 Mb groß ist... das könnte eher das Problem sein.
 
@pco: Ja, das stimmt. Ich weiss selber nicht, was ich davon halten soll, da Arbeitsspeicher und Festplatten/SSD-Speicher begrenzt sind. Ich zweifle aber kaum daran, dass sie einen Algorithmus gefunden haben, mit dem der exponentielle Aufwand der herkömmlichen Voxelgrafik in nahezu linearer Zeit abgearbeitet werden kann. Die Youtube-Videos sind im Prinzip ein Beleg dafür, dass der Algorithmus funktioniert. Frag' mich aber nicht wie. ^^ @Demiurg: 500MB sehe ich nicht als Problem, jedoch würden herkömmliche Levels (sagen wir mal mit einer Auflösung von 1000x1000x1000 Punkten x 6byte pro Punkt (xyz in 16bit floats)) 6GB belegen.
 
@3-R4Z0R: In Den Videos bewegt sich wenig, ich sehe weder Explosionen, noch Physik, nie mehr als 1 "Sprite" und alles wirkt sehr "Plastisch" aber tot. So könnte mich kein Spiel vom Hocker reissen. Ich bin ja Voxel-Fan und würde mich wahnsinnig freuen wenn die Weiterentwicklung dieses Ansatzes wiederbelebt würde, aber wie geschrieben, ich will etwas wirklich lauffähiges sehen, was sich optisch mit aktueller Grafik in jedem Aspekt messen kann. Dann jubel ich auch gerne mit :-).PCO
 
@pco: ???
Das ist bisher alles im Software-Modus am laufen
und sieht jetzt schon gut aus, oder? (Nebenleistung eines CPU`s)
Stelle dir mal diese Grafik auf einem Grafikchip der um einiges effizienter und schneller ist vor, wenn der darauf optimiert wird, mit z.B. 50gb Ram und einem aktuellen Chip.... ich sag nur 1000fps bei ENORMER Grafik!
 
jaa die solllten mal crysis überarbeiten xDD wenn das soo hardwareschonend ist!!!
 
@ruhacker: Und du solltest in die Schule gehen "xDD"...
 
@SpiDe: du solltest weniger labern, ich arbeite schon längst, und leider kann ich nichts dafür das du so hängengeblieben bist, und immernoch alles so grammatikal richtig schreibst wie deine mama
 
Seid ihr doof? Oben schreibt ihr:
"Sein Unternehmen setzt auf unzählige Bildpunkte, die zusammen eine "Punktewolke" bilden, mit der die virtuelle Welt dargestellt wird. Für jeden Pixel des Displays soll ein solcher Bildpunkt stehen."
Weiter unten schreibt ihr:
"Jedes Bild besteht aus 614.400 Punkten, was der Auflösung von 1.024 x 600 Pixel entspricht."
Also sind die Bildpunkte doch zählbar. Habt ihr überhaupt verstanden um was es da geht?
 
@c80: Ja... du wohl net!
Unlimitierte Details, weil jedes einzelne Pixel eine andere Position haben kann...
bei Polygonen hast du 5 "riesen" Abschnitte eines Teils das du dir anschaust...
bei dir nimmt das den Teil an Pixeln an, welche dein Monitor darstellt...
unlimitiert bezogen auf die angezeigten Pixel, also richtig.... oder net?
Die nicht angezeigten interessieren mich sehr wenig, dich?
 
@IngoNeuser: Meine Frage war "Seid ihr doof?", du antwortest mit "Ja... du wohl net!" und dann schreibst du noch voll den Müll um zu belegen dass du doof bist. Leute gibts...
 
@c80: Du hast schon recht, so wie es geschrieben ist ist es falsch. Natürlich ist 614.400 eine zählbare Zahl.
 
@IngoNeuser: Ha ha! Du hast es auch nicht verstanden. Es sind unendlich viele Atome aus denen die Bildpunkte berechnet werden. Die Bildpunkte sind das was auf dem Bildschirm angezeigt wird. Also sind die Bildpunkte zählbar. Du musst auch das Video ansehen um mitreden zu können.
 
Ähm, also das Rad neu erfunden oder was?
Voxelspace, Comache und Comanche2 ????
Terragen und das alte Terrainproggi dessen Name mir nicht mehr einfallen will...

mmh, geil, habe mich schon gefragt warum das System verschwunden ist....

ach, und dann war da noch Bryce... und und und...

meines wissens die Landschaft von dem MS Cross-Motoradspiel auch....
 
@JUPSIHOK: "Alte" Voxelrenderer nahmen ein KOS und trugen quasi in einer Schleife einfach von 0 bis n auf Z die Zahlenwerte ab. Dieses System hier funktioniert schon deutlich anders. Man könnte sich das mit dem unsichtbaren Mann vorstellen, der auf den Betrachter zugehend durch eine Mehlwolke schreitet. Hierdurch verändert er die Punktkoordinate der entsprechenden Mehlkörner, die er berührt oder an ihm "haften" bleiben. Der Ansatz ist also ein anderer. PCO
 
@JUPSIHOK: Hier geht es nicht um Voxel das wird auch deutlich wenn man sich das Video ansieht.
 
@JUPSIHOK: voxel und dieser ansatz unterscheiden sich fundamental! schau besser mal all die erklärungsvids an.
 
Ich glaube der Vergleich mit heutigen Algorithmen ist nur begrenzt möglich, da es sich hier um eine ganz andere Art von Technologie handelt.
Die Hardwareanforderungen sind drastisch reduziert, wobei der Detailgrad gewaltig ist.
Ich bin gespannt was daraus wird. Viellleicht kauft Nvidia das Patent auf, um es zu vergraben :-D
 
erinnert mich an voxel
 
@mwr87: sehr interessant zum Thema Voxel und ID Tech
http://www.pcgameshardware.de/aid,681315/Voxel-Rendering-am-Beispiel-id-Tech-6-erlaeutert/Technologie/Wissen/
 
hmm interessant! Gibts da evt. auch schon ne Test Anwendung wo man das mal selber sehen kann??
 
Ich habe mich schon immer gefragt, warum Grafikkarten stehts dreidimensional rendern (müssen), ob diese Art der 2D als 3D Bild die Lösung darstellt, überhaupt mit ordentlicher Aufbaueschwindigkeit realisierbar ist, wird sich wohl noch zeigen müssen.
 
also tut mir leid, aber wie hier schon viele geschrieben haben ist die idee nicht neu bzw. gab es schon früher fertige Produkte wie die Kyro2 die sich mit der Polygon problematik auseinander gesetzt haben. Also die Kyro2 war hervorragend . Die hätten das damals weiter machen sollen, wer weis wie gut die nachfolger der Kyro2 heute gewesen wären. Vermutlich wären wir bei der der Kyro12 oder so.
 
ich finde die Idee zwar klasse, aber die Videos (auch bei youtube) und die Landschaft sieht nicht gerade so Hammer aus. Da hätten die Entwickler sicher mehr nutzen gehabt, wenn sie reale Menschen (anstatt diese Viecher), Strand, Palmen oder Städte gezeigt hätten
 
@mloepp: Hast Du nicht zugehört? 1. Entwickler haben das designt, nicht Künstler. 2. Das ist eine DEMO. Ergo hält sich der Aufwand für sowas in Grenzen. 3. Die "Viecher" und Bäume sollten die Vorzüge des Systems gerade bei "kritischen" Strukturen aufzeigen (Riesenpolygone bei Baumstämmen bzw. allgemein bei runden Strukturen).
 
Mich würde mal interessieren, wie gut sich das für Objektanimationen eignet, also z. B. für sich bewegende Menschen. Wenn ich mich nicht irre, war in dem Video alles, was mit dieser neuen Technik gerendert wurde, starr. Außerdem stelle ich mir Kollisionsabfragen mit so einer Punktwolke etwas schwierig vor (oder sehr einfach - je nachdem wie das ganze arbeitet).
 
@TiKu: Animationen mit der Engine kann man auf Youtube bewundern.
 
fuck der artikel ist 1:1 von sry, habs wo anders gelesen weis nicht wo
 
hat von euch mal jemand bemerkt, dass di ebilder komisch bunt sind? sowas gibt immer einen hinweis auf irgendwelche nachteile. egnau wie die schlechten 3d-objekte. keine textur, wenig zusammengestellt... und das vergleihcen die dann mit- was habend ie da gesagt?- crysis? super! ich hab mir alle videos angesehen, diese news is eigentlich auch keine news mehr, genau wie die videos schon seit einiger zeit im netz zu finden. ich glaub nicht, dass es an der herstellungszeit gelegen hat, wieso die so seltsame sachen geziegt haben. aber an sich ist das vielleicht auch nicht so wichtig. da gings nur um den algorhythmus. ich bleibe dennoch skeptisch. alleine das logo sagt mir schon "diese firma wird nie über längere zeit überleben denn irgendwas rausbringen können."
 
@Deep: Wenn du die Kommentare im Video gehört und verstanden hättest wüstest du wieso das Design der Umgebung Levels etc nicht so berauschend ist. Der Kommentator weist darauf hin das ihr Team aus Programmierer besteht und sie eben keine Game/3d Designer haben. Die Engine sieht jedenfalls Vielversprechend aus, warten wir mal ab :)
 
also mit DX11 und tessalation extreme ist die Qualitätsfrage kein Argument :)....bin mir sicher dass deren Algorithmus abkackt wenn da auf einmal hunderte von Teilchen gleichzeitig in verschieden Richtungen fliegen, so wie bei einer Explosion )
 
Erinnert an das gute alte Commanche auf Voxel-Engine
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles