17 Mal größer als Skyrim: Square Enix stellt Project Flare vor

Die digitale Welt von Skyrim gilt als wirklich groß und weitläufig. Square Enix hat am Rande der E3 jetzt eine Cloud-Computing-Technologie vorgestellt, die weitaus größere digitale Spielplätze möglich macht. Schon das Demo-Level war 17 Mal größer als ... mehr... Gaming, Square Enix, Cloud Computing, Project Flair Bildquelle: Square Enix Gaming, Square Enix, Cloud Computing, Project Flair Gaming, Square Enix, Cloud Computing, Project Flair Square Enix

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wie sind denn diese Welten erzeugt worden? Ich meine, 32 km x 32 km modelliert doch niemand mehr händisch. Wird so eine riesige Welt halbautomatisch generiert nach statistischen Gegebenheiten?
 
@Der_da: Es gibt Tools wie World Machine, Vue oder Terragen, da kann man sowas nach mathematischen Regeln bzw. Node-basiert einfach generieren lassen. Lässt sich dann manuell nachbearbeiten, wie man will.
 
@0xLeon: Google Street View müsste man mal mit so einem Algorithmus so koppeln, dass die Stadt vollautomatisch und auch wirklich in 3D modelliert wird. Das muss alles nicht detailgetreu sein aber "ungefähr" wie im Realen. Ach und wenn es dann eine Baustelle gibt irgendwo in der Stadt, wird sie im Spiel auch natürlich gesperrt. Beim Beispiel Berlin würde man als Gamer sich dann zwei mal fragen, ob man carjacken soll oder doch lieber mit den Öffentlichen fahren soll! :)
 
@s3m1h-44: Du meinst quasi FlyOver?!
 
@s3m1h-44: http://rerollgame.com/ ob das aber jemals was wird, ist mehr als fraglich..
 
@0xLeon: Terragen, eine geile Software :)
 
1. Größe ist nicht alles...
Normalerweise prahsendrescherei, aber hier stimmts. Gigantisch automatisierte spielwelten gabsschon in Daggerfall. Lieber liebevoll Handgeneriert als anders.
2. Hochauflösend? Ich seh schon wieder 720p Konsolenkack....
 
@LivingLegend: Ich habe gehört das es auch games mit 1080p auf den Konsolen gibt. Sowohl auf der One als auch auf der PS4 ;)
 
@Edelasos: Sowas wie Flappy Bird, nicht wahr? ;)
 
@Edelasos: Oh, du meinst sicher diese 30fps-Krüppel ;)
 
@eN-t: Genau. Und sogar 60fps soll gehen. Ist aber nur eine Vermutung. Sogar ohne Ruckler ;)
 
"für eigene Spiele soll Project Flair" Wars nicht FLARE?
Interessant, mal sehen was daraus so wird.
 
@dani4u: Hast du natürlich Recht! Danke für den Hinweis. Artikel wurde angepasst.
 
Genau bei diesen dingen könnte die xBox nun ihre Vorteile zeigen. Hört sich sehr interessant an.
 
@Edelasos: Warum sollte sich die Cloud oder externe Supercomputer die diese Welt möglich machen nun ausgerechnet auf die XBox beschränken? So ein System ist doch eher Platform unabhängig.
 
@Tomarr: Er hat den Artikel nicht verstanden. Er spielt sicher darauf an, dass Microsoft jeder Xbox noch Cloud-Rechenleistung zur Verfügung stellt um nicht nur auf die Hardware angewiesen zu sein.
 
@hempelchen: Aso
 
Also ab einer gewissen Größe kann man dann ja gleich auf eine prozedurale Generierung setzen. Aber für Rollenspiele find ich kleine, dafür aber sehr detaillierte Welten viel besser als große und generische. Eines der wichtigsten Elemente ist doch das Entdecken, und das ist langweilig, wenn man alle Nase lang immer nur das gleiche sieht... .
 
@lutschboy: Wobei auch das alles eine Sache des Aufwandes ist... Große Welten welche mehr Spieler zusammenfassen wären sicher auch interessant... Quasi keine verschiedenen Server für die Spieler sondern ALLE auf einem großen... Hätte mal was anderes.
 
@hempelchen: Naja, auch wenn es schon etwas älter ist, das gute Ultima Online hat auch nen Clusterserver, sprich einen Server der in mehrere Teile aufgeteilt ist. Funktionierte auch. Aber vielleicht ist es ja auch sowas ähnliches. Ich kann mir, Supercomputer hin oder her, nicht vorstellen das alles auf einem Rechner zusammen zu fassen wirklich effizient ist.

Wobei es natürlich auch sein kann das ich etwas falsch verstanden habe, will ich ja gar nicht abstreiten.
 
Wen interessiert eine 17 Mal grössere Welt, wenn Skyrim OFFLINE spielbar ist und Project Flare eben nicht ... vermutlich braucht man da wieder die Leistung eines "Super-Computers" wie bei Sim City ...
 
@Lofi007: Wo genau ist das Problem wenn man eine Aktive Internetverbindung haben muss? Die paar Spieler ohne Internet werden auf die wenigen Spiele verzichten können die sowas nutzen werden.
 
@sk-m: zum einen ist das eine recht egoistische Sichtweise (wobei die für WF-Kommentatoren ja leider üblich ist). Zum anderen: wer nicht immer mit dem Internet Verbindung halten muss, ist einfach freier.. man fliegt nicht raus während eines 24h Disconnects... man muss sich zumindest währenddessen nicht ausspionieren lassen... man kann auch im Zug usw. spielen. Und das wichtigste: Internet als DRM ist Scheiße. Warum? Weil es eben nervt und die ehrlichen Kunden trifft. Jene, die sich das Spiel eh nicht kaufen, profitieren dann von DRM-Befreiungsprogrammen - die Käufer - nicht. Das Problem ist eben, dass z.B. für SimCity 5 der einzige Grund das Internet zu nutzen DRM (und ich glaube größere Karten?) war. Wenn ein Spiel dem Spieler tatsächlichen Mehrwert bietet wenn dieser es Online spielt, dann ist es ja okay. Bei D3 zum Beispiel kann ich immer noch nicht nachvollziehen, dass ich dafür Online sein muss - und dafür gönne ich Blizzard auch keinen Erfolg. Klar - ich muss es nicht spielen. Aber ich bin ein Mensch und auch nicht völlig Reizbefreit.
 
@divStar: 24h Disconnects, sowas gibts noch? Unter Kabeklanschlüssen gibts das nicht. Zumal man sich den 24h Disocnnect mit einem Router auch zu eine Zeit legen kann, wo man nicht betroffen von sein wird. Ich finde es gibt heute kaum noch ein Argument etwas offline verfügbar machen zu müssen. Gerade bei so großen Datenmengen ist es doch angenehm seinen Rechner nicht damit belasten zu müssen.
 
@knirps: so etwas gibt es definitiv noch (1&1, VDSL50). Außer bei gewerblichen SDSL-Zugängen ist das scheinbar sehr geläufig wenn man sich die Foren ansieht. Klar kann man es auf eine Zeit legen in der man höchstwahrscheinlich nicht am Rechner ist - aber es gibt halt immer Ausnahmen. Wenn man z.B. von Freitag auf Samstag durchzockt, kann es durchaus sein, dass ein Disconnect um halb Fünf morgens einem den Spaß verdirbt - obwohl man von der Internetanbindung überhaupt keinen Mehrwert hat. ___ Natürlich muss man heute nichts Offline verfügbar machen. Spiele, die aber offensichtlich Single-Player-Konzepten unterliegen, sollten trotzdem auch Offline spielbar sein - wie es z.B. auf der PS3 der Fall ist. Und inwiefern "Supercomputer"-Leistung für die Berechnung der Welt(en) gebraucht wird, haben wir beide ja eindrucksvoll bei Sim City 5 gesehen - oder nicht? Ich gehe davon aus, dass die meisten Firmen nicht mit Hochleistungsservern bei Spielen rechnen - diese müssen sie nämlich über Jahre hinweg betreiben und sobald sie diese abschalten, wird das Geheule groß sein. Daher empfehle ich bereits im Vorfeld auf Server zu verzichten wo diese nicht unbedingt nötig sind. Dass sie nicht überall nötig sind, beweisen die vielen "Patches" für Spiele, die diese offline spielbar machen.
 
@divStar: Ich hab Sim City 5 nie gespielt, kann von daher keine eigene Wertung dazu abgeben.
 
Technisch kann ich dem Artikel nicht wirklich folgen. Was genau hat jetzt diese "Cloud-Gaming-Technologie" für eine technische Funktion? Letztendlich sinds immer noch Daten die irgendwie zum User müssen und dessen Grafikkarte das alles bewältigen muss. Wenns einen anderen Weg gäbe, bräuchte man diese "Tricks" wie LOD-Stufen, Distance-Fog oder leveldesignabhängige Sichtweitenbeschränkungen nicht.

Es sei denn man bekommt da nur noch fertige Landschafts-Daten vom Server und bewegt sich mit Millisekunden-LAG durch eine vom Server vorgerenderte Landschaft, damit die eigene Grafikkarte nichts mehr machen muss. Wär dann aber für alle unter 32 MBit+ wohl kaum flüssig spielbar und würde auch einen separaten Server bzw zumindest ne eigene GPU pro Spieler für derartige Berechnungen benötigen. Kann mir kaum vorstellen, dass sowas wirtschaftlich funktionieren kann - oder muss man dann einen eigenen Server bei Square Enix für 50-80 Euro pro Mont mieten, über den man dann alle zukünftigen Spiele mit dieser Technologie spielen kann? ^^ Vllt kann Winfuture ja mal einen ausgiebigeren Artikel darüber veröffentlichen.
 
@Trashy: Na da will ich mal sehn wer ne Internetleitung hat die unkomprimiertes HD signal streamen kann lol. So ein Schwachsinn. Gerendert wird die Graphik garantiert immer noch auf dem Heimrechner, der "Supercomputer" würde allerhöchstens Positionsdaten von Objekten auf der Karte berechnen und alles was in Sichtweite ist an den Client übertragen.
 
@Aerith: also nichts anderes wie Heute schon Standard ist seit x Jahren ?!
 
@CvH: meinst das mit den Positionsdaten? Jo das macht jedes MMO so. Versteh den Hype da jetzt auch ned ganz. Wenn du aber glaubst das irgendwer ne Internetleitung hat die UNKOMPRIMIERTES HD material streamen kann irrst du dich gewaltig.
 
@Aerith: ne es ging um die Positionsdaten, aber wer weiß SimSity geht ja auch nur mit riesigen CloudComputern im Hintergrund zu spielen xD
 
@Aerith: Na da wär ich mir nichtmal so sicher. Square Enix schreibt auf seiner Homepage "we take advantage of the benefits of servers- the use of hundreds or thousands of CPUs and GPUs in a datacenter to create experiences which a single CPU or GPU could never create. It's like having a super-powered game console with no need to buy the console." / "Technically, Project FLARE games can be played on any device which can decode HD video." - klingt also ganz nach HD-Streaming. Zusätzlich steht in er Pressemitteilung: "These new experiences will be enjoyable to their full extent in fiber and other broadband environments, to ensure high quality and low latency."
 
@Trashy: Nee danke. Aber ich zieh real berechnete Graphik einem encodierten Video vor. Egal wie man die Bitrate wählt, es wird immer schlechter aussehen.
 
@Trashy: "Letztendlich sinds immer noch Daten die irgendwie zum User müssen und dessen Grafikkarte das alles bewältigen muss." Selbst-Rendern oder Nicht-Selbst-Rendern, das ist hier die Frage, mein Lieber ;-) Eine Graka die nur ein vorgerendertes Bild aus dem Internet anzeigen muss, lacht sich einen Ast ab im Vergleich zu einer Graka, die selbst rendern muss.
 
@Mr. Benutzername: Und dann drehst du dich nach links oder rechts und das Bild laggt hinterher...weil deine lachende Graafikkarte auf die Daten vom Server wartet...
PS: Mich stört bei 30FPS schon der Tripple Buffer vom EIGENEN PC...Deswegen deaktiviere ich die Funktion immer...Damit deren Plan funktioniert muss eine neue Technologie her...
Ich könnte mir z.B. vorstellen, dass man vom Server gerenderte Bilder für alles, was mehr als 1km weit weg ist für 360°, bekommt, die deine Grafikkarte dann nur noch einfügt. Wenn man sich bewegt ändert sich die Ansicht kaum und lag sollte nicht so auffallen.
 
"Die digitale Welt von Skyrim gilt als wirklich groß und weitläufig." komisch mir kam Morrowind größer vor oder meine ich das nur?
 
@happy_dogshit: http://i.picresize.com/images/2013/01/23/j7qrp.jpg :-)
 
@happy_dogshit: Das mag ja durchaus sein, die Skyrim-Welt ist trotzdem groß. :P
 
Ich werde alt :/ Wie genau wird das nun gemacht wenn nicht mit einem Stream?
 
Viel cooler wäre das doch über P2P umzusetzen, dann würde alle Rechner im Netzwerk einen Teil der Map berechnen und man bräuchte keine so extrem schnellen und teuren Server mehr, die im zweifelfall auch relativ schnell wieder abgeschaltet werden können. Aber warum sollte eigentlich alles gerendert werden, was nicht sichtbar ist? Das ist meiner Meinung nach nur Ressourcen verschwendung. Für den Spieler ist nur seine Umgebung wichtig. Wichtiger als noch größere Welten wäre mal eine bessere KI. Bisher hat es noch niemand geschafft eine vernünftige KI in einem 3D Spiel zu schaffen
 
Hier so wie ich es verstanden habe. Die riesen große Karte ist auf einen externen Server gespeichert (Cloud-Server). Die Größe der Karte überschreitet mehrer TB sodass die Karte nur auch einen Server liegen kann und nicht z.B. auf eine Blu-Ray für jeden Heimrechner gebrannt werden kann.
Also, Vorteil Nummer 1 unbegrenzte Größe an Daten.

Vorteil Nummer 2 Streaming. Jede Bewegung die du mit deinen Charakter machst muss die Grafik berechnet werden, diese Berechnung benötige je nach Spiel und je nach Aufwand eine gute bis sehr gute Grafikkarte.
Nehmen wir jetzt also mal eine Spielekonsole. Diese kommt irgendwann mit der verbauten Grafikkarte an ihre grenzen und eine bessere Grafik ist nicht mehr möglich.
Hier kommt jetzt der Cloud-Server zum Einsatz. Dieser hat eine besser Grafik als die die in der Spielkonsole ist, somit kann eine bessere Grafik erzeugt werden.
Die Grafik wird also auf den Cloud-Server berechnet und einfach (quasi wie ein Video) an die Konsole geschickt.

Die Grafikkarte sollte aber wenigsten HD Material verarbeiten.
Somit könnte quasi auch die PS3 oder Xbox360 das gleiche was eine XboxOne oder PS4 kann.
 
@Tidus: Das wird niemals funktionieren. Über die Cloud lassen sich höchstens ein paar einzelne Effekte, die nicht zeitkritisch sind berechnen, aber kein komplettes und zudem aufwändiges spiel: http://de.wikipedia.org/wiki/Titan_(Computer) Dieser Supercomputer nutzt 18.688 GPUs. Wenn das Spiel sehr aufwändig ist, wird mindestens eine GPU pro Spieler gebraucht. Sollte sich das Spiel nur 1 Mio mal verkaufen und davon nur 10% gleichzeitig online sein, bräuchte man alleine dafür schon 6 dieser Supercomputer. Dann wäre da auch noch die Latenz. Bei Rollenspielen mag das noch funktionieren, aber spätestens bei Shootern kannst du Streaming vergessen. Mich stört allein schon der Inputlag durch Vsync, der vielleicht 2-3 Frames verzögerung ausmacht... wie soll das dann erst bei einem Stream sein? Nicht zu vergessen, die Bandbreite. Selbst wenn man sich mit Bluray Qualität von ca 50 Mbit/s, welche ja gegenüber dem original schon stark komprimiert ist zufrieden gibt, wollen wir das ganze in einigen Jahren noch in 4K und mindestens 60 FPS. Dann landen wir schnell mal bei 300-400 Mbit/s alleine für den Videostream. H.265 könnte dem entgegenwirken, kostet aber erheblich mehr Rechenleistung bei encodieren. Ich bezweifle, dass sich Cloud Gaming je durchsetzen wird. Wenn doch, dann frühestens in ~20-50 Jahren. Es gibt so viele grundlegende Probleme, die sich (noch) nicht lösen lassen.
 
@Laggy: Wenn man aber so liest, was Square Enix schreibt, wollen die genau das machen. Der Bilder werden serverseitig berechnet und als HD-Video gestreamt. Glasfaserleitung setzen sie auch voraus, genauso wie beliebige HD-encoding-fähige Endgeräte. Die eigene Grafikkarte übernimmt dann scheinbar nur noch sehr nahe Objekte und kann bei nicht geringer Auslastung auch dem "Supercomputer" zusätzlich Rechenleistung zur Verfügung stellen - SETI lässt grüßen. ^^ Im Prinzip hat aber jeder Spielaccount sozusagen auch ne eigene GPU bei denen, die zur Spielberchnung dient - wie das finanziell gelöst wird, steht aber noch in den Sternen.

Kann mir aber gut vorstellen, dass man das praktisch wie nen normalen Server gegen Gebühr mieten muss. Und je mehr User es gibt, desto stärker wird ihr "Supercomputer" dann auch. Bzgl deinem Schlusssatz schließ ich mich aber gern an - alles Zukunftsmusik und technisch derzeit wenig sinnvoll. Bis das so weit ist, haben wir längst neue Speichermedien, die mehreren TB fassen und Grafikkarten, die auch solche Welten problemlos darstellen können und dann ist dieser Cloudkrameh wieder überflüssig.
 
Irgendwie nur Wischiwaschi in dem Artikel! Was genau ist dann da 17x größer, wo wird was gerendert? Was macht da die Cloud? Klingt wie das letzte Sim City. Und gibt es dann auch 17x mal mehr und besseren Content als in Skyrim? Fragen über Fragen.
 
War damals nicht "Daggerfall" nicht noch größer?
Grosser = Besser? ;)
 
also praktisch wie Elder Scrolls Online....
 
Skyrim war groß? Der war gut...
Kommentar abgeben Netiquette beachten!

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles