'DeLorean': Microsoft stellt nahezu Latenz-freies Cloud-Gaming vor

Es gab bereits zahlreiche Versuche, Spiele in die Cloud auszulagern, um das Computing über Server-Hardware abzuwickeln. Bisher war die Verzögerungszeit, die so genannte Latenz, aber das Hauptproblem. Microsoft Research will dieses nun im Rahmen ... mehr... Smartphone, Gaming, Spiel, LG G3, Spiele Smartphone, Smartphone-Spiel Smartphone, Gaming, Spiel, LG G3, Spiele Smartphone, Smartphone-Spiel Smartphone, Gaming, Spiel, LG G3, Spiele Smartphone, Smartphone-Spiel

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Cloud Gaming was eine Todgeburt epischen Ausmaßes
 
@born2own: diesen kommentar werde ich mir aufheben und dir in 5 jahren vor die nase halten ;) nicht das ich ein fan dieser entwicklung bin, ich halte nur fest das es sicher keine totgeburt ist. es wird so kommen.
 
@Matico: Jup, für Casual Games ist das eine durchaus brauchbare Technik.
 
@Johnny Cache: ja, damit wird es starten. wie gesagt, bitte nicht verwechseln. wenn ich sage, dass das so kommt dann heisst das nicht das es mir gefällt. ich denke es ist eine logische entwicklung. und eins hoffe ich schon: vielleicht ist das eine möglichkeit, 360 games auf der one abzubilden. das würde mich freuen.
 
@Matico: Das war zumindest der Weg den Sony für die PS3 Backwards Compatibility einschlagen wollte mit diesen Gaikai Cloud Lösungen. Es wäre schon toll wenn das halbwegs gut funktionieren würde sowohl für PS4 als auch XBOX One bzw. dann ja auch für spätere Generationen.
Das wäre jetzt eine gute Möglichkeit um hier den Beweis zu erbringen das es eine valide Option darstellt dieses Problem zu lösen.
 
@Matico: Vor 5 Jahren haben mir Leute gesagt, dass sie mir in 5 Jahren vor die Nase halten werden, dass sich OnLive durchsetzt und Gamestreaming normal sein wird. War wohl nix :)
 
@born2own: Ein berühmter Milliardär sagte einst ähnliches über das Internet. ;)
 
@Der Lord: Hier geht es aber immernoch um nicht überwindbare Latenzen. Man kann sie aktuell verschleiern. Aber gerade bei PC Gaming und Maus Steuerung ist jede Eingabelatenz deutlich spürbar. Bei nem Gamepad oder auf Konsole ist das nicht so schlimm, aber am PC kann man das komplett vergessen. Selbst bei billigeren Funkmäusen oder Monitoren mit höherem Inputlag ist das schon störend. Ja selbst die Eingabeverzögerung von Vsync ist für viele Spürbar. Da kann mir keiner erzählen, 250 ms so zu überbrücken, dass man sie nicht merkt. Die Latenz ist Physikalisch bedingt und physik lässt sich nicht einfach mal so überwinden. So eine Problematik zu lösen kann locker mal 50-100 Jahre dauern... wenn sie überhaupt "zeitnah" lösbar ist.
 
@Laggy: "Cloud Gaming was eine Todgeburt epischen Ausmaßes" - das war die Aussage. Und ähnlich äußerte sich jener Milliardär in den 1990ern.

Ich verstehe schon das Latenzproblem. Meine Eingabe muss sich durch eine dünne 2-6MBit-Leitung zum Server quälen (bzw. durch eine viel dünnere Leitung, ein 6MBit-Upstream wäre schon fast rasend schnell zu nennen), von diesem verarbeitet werden und die gerenderten Bilder müssen dann wieder zu mir zurück. Auf der Serverseite gibt es dieselben Probleme. Aber sei beruhigt, unsere Bundesregierung will uns doch alle mit breitbandigen Verbindungen versorgen. ;)

Ich weiß auch, dass das nur ein Teil des Problems ist. Aber hey! Wir reden hier vom DeLorean! Der hat einen Fluxkompensator, weiß jetzt schon, was Du in 5 Minuten machst und kann alles vorrendern. :D
 
@Der Lord: Du verwechselst da aber gerade Geschwindigkeit mit Bandbreite. Die Geschwindigkeit, also die ZEIT, die ein Datenpaket für die STRECKE von A nach B braucht (auch als Ping-Zeit bekannt, wenn man hin und zurück misst) ist das ausschlaggebende für die Verzögerungen um die es hier geht. Und diese ist mehr oder weniger an physikalische Gesetze gebunden. Je größer die Strecke, desto länger braucht ein Signal. Diese Zeit hat sich seit es das internet gibt nicht geändert. Einzig die Bandbreite hat sich verändert. Bedeutet, mit einem 1Mbits Anschluss kannst du ein Datenpaket genauso schnell von A nach B schicken wie mit einem 100 Mbits Anschluss. Der 100 Mbit/s anschluss könnte aber sehr viel mehr davon gleichzeitig loßschicken. Die Bandbreite lässt sich im Laufe des Fortschritts wohl beliebig erhöhen. Die Geschwindigkeit/Signallaufzeit ist aber ein ganz anderer Kaliber.
 
@Laggy: Stimmt. Auch das ist mir soweit klar. Dass meine Eingaben nicht viel Bandbreite brauchen, ist logisch. Sind nicht viele Daten. Aber umgekehrt? Das gerenderte Bild, das vom Server wieder zu mir muss? Es braucht vielleicht nicht 50MBit/s. Aber 864kbit/s sind da wieder ein Flaschenhals.

Wie auch immer: Ein Server in meiner Nähe könnte helfen, die Pings zu verkürzen. "DeLorean at home" vielleicht? ;)
 
@Der Lord: "DeLorean at home" wäre dann ja wohl das, was nVidia mit ihrem Shield macht. Das funktioniert so weit ja auch gut, die Distanz zwischen Server und Konsole ist nur eine bis zwei Millisekunden.
 
@3-R4Z0R: nVidia mit ihrem Was? Muss mich eindeutig besser auf dem Laufenden halten.
 
@Der Lord: http://shield.nvidia.com/ Dieses Ding. Du verwendest einen PC mit nVidia-Grafikkarte und streamst dir das Bild auf deine Konsole im Haus. Da ja LAN und WLAN mehr als ausreichende Bandbreiten und kurze Latenzen haben, funktioniert das auch nicht schlecht.
 
@3-R4Z0R: Ah! Ich dachte eher ohne den nötigen Ernst an verteiltes Rechnen, sodass ich nicht auf einen Server in Japan zugreifen muss sondern auf einen Peer ein paar Straßen weiter.

Wie gesagt: Ein Gedanke ohne größeren Ernst.
 
@born2own: Mode kommt immer wieder zurueck:)
 
@born2own: Glaube ich nicht. Ich glaube aber auch nicht das Cloud Gaming das loakle ersetzen wird. Es sind zwei Lösungen für zwei Anwendungsbereiche. Cloudgaming verwende ich auf Lowend Geräten, bei Highend Geräten wird es weiterhin lokale Lösungen geben. ich sehe keine Gefahr durch die Existenz einer anderen Lösung für die bereits bestehende.
 
@knirps: Sehe ich auch so :) Ist ein wenig so wenn die Leute sich so arg reinsteigern wer jetzt gerade den Konsolenkrieg "gewinnt". Es ist ja nicht so das es einen Stichtag gibt und dann jemand sagt "Konsole XYZ hat jetzt gewonnen!" und alle schaffen dann ihre bestehenden Konsolen ab und kaufen sich den Gewinner.
Koexistenz!
 
@knirps: Es würde aber Raubkopien praktisch unmöglich machen, alleine deshalb glaube ich, dass die großen Publisher stark dahinter stehen, siehe Sim City oder Diablo 3.
 
@born2own: Ich glaube auch nicht das es langfristig eine Totgeburt sein wird. Alleine aus dem Grund der Raubkopie werden sich die ganzen Publisher freuen.
 
@born2own: Was für ein Kommentar epischer Unkenntnis. Was glaubst Du zum Beispiel was Steam ist? Steam ist definitiv eine Cloud-Lösung, die für den Vertrieb, Wartung, aber auch Überwachung, Kommunikation und Datensicherung von Computer-Spielen zuständig ist. Spieleinhalte werden bisher zwar nicht direkt über Steam abgewickelt, aber über separate Spiele-Server. Was glaubts Du was MMO-Spiele sind? Natürlich sind die meisten Cloud-Anwendungen. Wahrscheinlich wirst Du jetzt sagen: "Quatsch, das sind keine Cloud-Anwendungen" (weil Du nicht verstanden hast, was Cloud Computing ist). Unter Cloud Computing versteht man üblicherweise Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS). Erläuter doch bitte, warum es keines davon ist.
 
@Nunk-Junge: Vielleicht verstehe ich den obigen Text falsch, aber geht es im Text nicht um die AUSFÜHRUNG der Software in der Cloud und lediglich die Anzeige auf Deinem Rechner? Natürlich sind Steam & Co. eine Cloudlösung für Vertrieb, Wartung, Überwachung, Komm, Datensicherung. Aber nicht für das COMPUTING. Steam rendert Dir nicht die Bilder zu Deinem Spiel, das passiert immer noch auf Deinem Rechner. Ganz wie früher. Der Artikel spricht davon, das Spiel auf dem Server auszuführen und auf dem Client nur anzuzeigen und Eingaben entgegenzunehmen. DAS ist Cloud-GAMING.

MMO-Spiele? Welche meinst Du? WoW? Du hast immer noch den Client, der das Rendering auf dem lokalen Rechner durchführt, wenn ich mich nicht täusche. Bei Cloud-Gaming geschieht das Rendering auf dem Server. Oder verstehe ich da was falsch? Das Cloud-Gaming, das angeblich eine Totgeburt sein soll, ist die SaaS-Variante, soweit ich das verstehe. Und das ist, was UMGANGSSPRACHLICH unter Cloud-Computing verstanden wird. Ich halte es insofern für falsch, dem Original-Kommentator epische Unkenntnis zu unterstellen, nur weil man Details kennt, die in der allgemeinen Kommunikation mit einem Begriff nicht assoziiert werden.
 
@Der Lord: Auch WoW ist natürlich Cloud Gaming. Wenn ein Dutzend Spieler auf einem Boss rumhacken, dann haben sie natürlich ein gemeinsames Spiel, welches auf den Aktionen aller Spieler basiert. Wenn also ein DD dem Boss Schaden zufügt, dann macht er das bei allen Spielern. Wenn der Boss irgendwelche Effekte macht, dann passiert das auch bei allen Spielern. Die Berechnungen dazu laufen auf den WoW-Servern. Die Clients übernehmen einzig und allein die DARSTELLUNG auf dem lokalen Client.
 
@Nunk-Junge: So weit kann ich das nachvollziehen. Wusste ich nicht, kann es aber nachvollziehen. Das Cloud-Gaming, das meinem Verständnis nach im Text gemeint ist, läuft aber vollständig auf dem Server ab. Quasi ein "interaktiver Videostream". Korrigier mich, wenn ich mich irre. Und wenn Du den Menschen in der Mall fragst, wird er das wohl genauso beschreiben.

Nochmal zu meinem Verständnis: Sagt der WoW-Server dem Client, was er zu rendern hat oder schickt er die fertigen Bilder?
 
@Nunk-Junge: das ist alles richtig, dieses art "cloud" hat mit diesem Artikel aber herzlich wenig zu tun.
 
@born2own: seh ich ebenso,mgerade als hinterwäldler land was breitband angeht. Sollen lieber mal ihre xbox auf vordermann bringen anstatt den rotz zu machen
 
@Razor2049: Ich bin mir ziemlich sicher, dass unterschiedliche Teams daran arbeiten.
 
@adrianghc: Irgendwie halten viele "Microsoft" nach wie vor für eine einzige Person...
 
@DON666: Ich bin mir ziemlich sicher, dass das nicht nur mit Microsoft so ist.
 
Wird bei Multiplayer spielen aber nichts bringen, da kann man nicht vorrendern wo sich ein Spieler relativ zur eigenen Position befinden wird. trotzdem eine interessante Sache.
 
@hundefutter: Ich stelle mir das gerade bei Battlefield 4 mit 64 Leuten vor.
Dann müsste das System also vorhersehen können was 64 Spieler tun.
Was müsste denn da an Rechenleistung anliegen um das zu erreichen.

Ökologisch dürfte das ja nicht laufen.
 
@Holotier: ökologisch?
 
@Commander Böberle: Er betreibt seine Rechner mit Holzbefeuerung.
 
@Nunk-Junge: Ökonomie kann durchaus auch Ökologie ergeben.
 
@hundefutter: Gerade bei MMO-Spielen macht das Sinn. Ich kann für jeden Spieler die Umgebung vorausberechnen, das ist das Aufwändigste. Hinzufügen muss man dann nur fremde Spieler und deren Aktionen. Das bedeutet, dass man meist deutlich über 90 % vorberechnen kann. Es kann aber natürlich passieren, dass die vorberechneten Möglichkeiten in Ausnahmen komplett verworfen werden müssen. Aber dann fällt man in diesem Augenblick auf das Niveau eines normalen MMO zurück, was kein großer Beinbruch ist.
 
@Nunk-Junge: Moderne MMOs funktionieren aber nicht so. WoW zum Beispiel rechnet die Umgebung lokal auf dem host PC. Da werden nur Koordinaten, Befehle und Aktionen verschickt. Sachen wie Mob Bewegungen und Aktionen werden dann auf dem Server mit den Clients Synchronisiert.

Was ich Sagen wollte ist: Sobald du Menschliche Mitspieler hast wird es schwierig Frames vorzurendern. Das kannst du quasi nur bei statischem Content machen.
 
@hundefutter: Nö. Heuristiken und viel Rechenleistung hilft Möglichkeiten vorzuberechnen. Es muss ja keine Sekunde vorberechnet werden, sondern vielleicht 10 Frames.
 
@NamelessOne: Wenn wir Quantencomputer haben ja, dann ist sowas möglich. Im Moment ist das alles andere als lohnend. Grosse Multiplayer Spiele wären dadurch nicht wirklich möglich.
 
@hundefutter: wenn ein Monats Pass für ein Spiel dann mal 100€ kostet evtl schon ;)
 
@hundefutter: Was Du sagst, das stimmt. Auf dem Client lokal wird die Grafik berechnet. Aber vom Server müssen dazu die Umgebungsdaten geliefert werden, damit der Client die Darstellung berechnen kann. Mit immer komplexer werdenden Landschaften explodieren aber diese Datenmengen. Daher berechnen die Server vorher was für den Client nötig ist und übertragen das dann. Sehr vereinfachtes Beispiel: Held steht neben einer riesigen Mauer. Dann muss nicht übertragen werden was sich hinter der Mauer befindet, denn es ist nicht sichtbar. Wie gesagt, das Beispiel ist sehr vereinfacht, aber es erläutert hoffentlich die Idee. Übrigens kann man das in Minecraft sehr schön beobachten: Wenn man sich dreht und läuft, dann wird die Landschaft vor einem berechnet. Eine Vorausberechnung würde da sehr viel Sinn machen.
 
@Nunk-Junge: Was bei MC gemacht wird unterscheidet sich allerdings stark von anderen MMOs. Ich habe mich eine Zeit lang damit auseinandergesetzt, das war aber ewig her. Wenn ich es richtig im Kopf habe wird bei z.B. WoW eben nicht die Spielwelt wie Tiles vom Server an den Client geschickt. Viel mehr besteht der Traffic der auf dem Server berechnet wird nur aus Koordinaten von NPC, Spieler und lebendigen Objekten. Die Spielwelt wird lokal auf den clients gesichert.

Das heisst was hinter der mauer ist weiss der Client schon und muss nicht vom server berechnet werden. Ob sich dahinter aber ein NPC bewegt weiss der Client erst wenn er sich der Mauer nähert.
 
@hundefutter: Daher ist die Umgebung in WoW auch nicht beeinflussbar, denn das müsste ja an alle Spieler übertragen werden. Man merkt eben, dass WoW kein aktuelles Spiel mehr ist.
 
@Nunk-Junge: Eigentlich ist sie es schon, doch. Du musst dir die Spielwelt als riesiges Board mit Knöpfen vorstellen. Jeder Knopf löst eine Aktion aus. Diese Knöpfe und ihre Aktionen/Eigenschaften werden vom Server Synchronisiert. Wenn ich also eine Quest starte und als Teil der Quest die Aufgabe habe ein Gebiet mit Wasser zu überfluten kann ich das machen. Ich muss den richtigen Knopf drücken und die Aktion wird mit allen Spielern in meiner Gruppe oder in einem gewissen Radius synchronisiert.

Was du meinst sind bleibende Änderungen. Mauern wegsprengen oder so. Und da gebe ich dir recht. WoW und alle mir bisher bekannten MMO können das nicht. Zumindest nicht in einem nicht instanziertem Kontext.
 
@hundefutter: Genau, was ich meine ist z.B. eine zerstörbare Umgebung.
 
@Nunk-Junge: Öhm, das ist leider unsinn. Auch in Minecraft wird nicht die fertig berechnete Grafik an die Spieler geschickt. Der Server sendet nur einfache Informationen, welcher Block an welcher Koordinate ist. Wie der Block aber nun aussieht, wie er schattiert wird, welche Texturen hat und wie er im fertigen Bild dargestellt wird berechnet einzig und allein der PC des Spielers. Auf dem Server (und das zählt für jedes mir bekannte Spiel) wird nichts Berechnet was mit der Grafik zu tun hat! In anderen Spielen werden am Server eh nur die Positionen der Spieler berechnet bzw. an die anderen Spieler verteilt, damit alle das selbe sehen. Die Spielwelt (also die Landschaften und Maps) hat jeder Spieler auf seiner Festplatte... Und selbst wenn du in BF4 einen Wolkenkratzer einreißt oder eine Mauer Wegsprengt, dann ist alles was der Server macht im Übertragenen sinne "hallo an alle Clients, Spieler XY hat Mauer YZ weggesprengt. Führt bitte alle Animation XY aus, damit der Spieler sieht, wie die Wand seinen Zustand von unversehrt auf zerstört ändert". Dies wird wiederum alles bei den Spielern berechnet. Der Server gibt immer nur die Info, was zu tun ist. Es werden niemals Spielinhalte übertragen.
 
Da finde ich Konzepte wie das Streaming über Steam deutlich interessanter. Wichtig ist mir eben vor allem daß ich nicht unbedingt die brüllende Kiste neben mir stehen haben muß, aber deswegen muß es nicht gleich irgendwo in der Cloud sein. Irgendwo im Keller, wo ich sie nicht hören kann, würde mir schon vollkommen reichen.
 
@Johnny Cache: Wenn du eine brüllende Kiste hast, solltest du mal über dein Lüfterkonzept nachdenken. Ich für meinen teil nehme meinen Tower neben mir gar nicht für voll.
 
@knirps: Zur Zeit habe ich eine Kiste die voll passiv gekühlt ist, aber eine HD7770 ist eben nicht sonderlich leistungsfähig. Klar, als ich 2001 meine erste Kiste mit WaKü ausgestattet habe konnte ich auch deutlich über 200W lüfterlos loswerden, aber heute würde mich selbst die Pumpe stören und eine richtig dicke Kiste wie ich sie in ein paar Jahren für Star Citizen brauen werde wird man nie wirklich leise bekommen.
 
@Johnny Cache: Ich denke dann bist du schon arg überempfindlich.
 
@knirps: Für mich nur das Beste, weil ich es wert bin. ;)
 
@Johnny Cache: Geräuschlos ist nicht das Beste. Geräusche vermitteln mir einen Eindruck über den Gesundheitszustand meines Computers. Ein absolut geräuschloser Tower würde mich nervös machen.
 
@knirps: Das ist nur eine Erwartungshaltung auf Grund von jahrelanger Erfahrung. Bei einem Smartphone würde man ja auch nicht erwarten daß es Geräusche macht, oder?
Allerdings muß ich zugeben daß ich anfangs die Kiste auch immer wieder versehentlich ausgeschaltet habe weil ich mangels Geräusch dachte daß sie nicht läuft.
 
@Johnny Cache: Ein Smartphone hat auch nie einen aktiven Kühler verbraucht, geschweige denn wird über 90 Grad heiß. Computer Prozessoren hingegen werden derartig heiß, GPUs auch. Hat ja schon seinen Grund warum Kühler dementsprechend groß und in dementsprechender Anzahl vorhanden sind.
Allerdings sind auch schon Smartphones am hitze tot gestorben. Auch da gibt es ein einfaches Erkennungsmerkmal: Fühlen. Wenn das Gerät heiß wird, mal ein paar Minuten weg legen. Was dem PC seine Geräusche sind, ist dem Smartphone seine Temperatur.
 
@knirps: Wie gesagt, bei entsprechender Bauweise geht das auch mit PC-Komponenten ohne Lüfter. Wobei das heißteste was ich bisher passiv im Einsatz hatte ein Kiste mit 105W-CPU und 118W-GPU war. Allerdings hat es dann die GPU im Sommer, bei über 30°C Raumtemperatur, auf teilweise deutlich über 100°C geschafft, was dann schon nah am Grenzbereich lag.
Sommer und Dachwohnungen sind für Passivkühlungen oder Übertakten ganz schlecht.
 
@Johnny Cache: Das ist nicht nah am Grenzbereich, das ist bereits da drüber. Die Grenzbereiche sind bei ~90 grad, bei 70 Grad schalten die meisten Boards schon aus. ~105 Grad ist dann die Todesmarke.
Was du tust ist mit dem Feuer spielen.
 
@knirps: Die olle HD4850 lief bei mir bis 115°C über Jahre stabil.
Lustig daß du gerade diese Redewendung verwendest. Jede Wette daß ich hier der einzige bin der hier einen Feuerlöscher neben den PCs stehen hat. Allerdings nur wegen den immer wieder abbrennenden PSUs.
 
@Johnny Cache: Irgendwie hab ich jetzt das Gefühl dich nicht mehr ernst nehmen zu können...
 
@knirps: Wegen des Feuerlöschers? Sicherheitsvorkehrungen würde ich viel mehr für den Inbegriff von Ernst halten.
Falls du die brennenden PSUs meinst, dann liegt das einfach daran daß ich früher oft den Fehler gemacht habe und zu billige Modelle gekauft habe. Die nicht ganz so billige Silverstone SST-ST40NF habe ich jetzt seit vielen Jahren und obwohl sie keinen Lüfter hat, spielt sie ohne Mucken mit.
 
@Johnny Cache: Es fängt einfach an abstruse Dimensionen anzunehmen die du da beschreibst schlicht um einen ruhigen Rechner zu haben. Das geht über die Grenzen des gutes Geschmacks hinaus und ist sicher kein Ergebnis dessen, sich selbst nur das beste zu gönnen.
 
@knirps: Das unterscheidet mich nicht viel von Leuten die ihre Kisten übertakten um die maximale Performance aus der gegebenen Hardware herauszuholen. Etwas größere Kühler und ein angepaßtes Gehäuse sind jetzt nicht wirklich ungewöhnlich.
Und auch wenn sich meine Kiste nicht immer im optimalen Temperaturbereich bewegt, so hat sie aber auch keine Lüfter die ausfallen könnten, was bei konventionell gebauten PCs zu einem Schaden führen könnte.
 
@Johnny Cache: Leute die ihre Kisten übertakten sorgen für eine dementsprechende Kühlung und nehmen die Unschönheit einer lauteren Kiste in Kauf. Nicht im Interesse dieser Leute ist ihre Hardware am Schmelzpunkt laufen zu lassen.
 
@knirps: Auch da gibt es natürlich sone und solche Leute. Als ich Ende der 90er meine Celerons auf dem guten alten Abit BP6 übertakte habe waren sie auch nur ein oder zwei MHz davon entfernt instabil zu werden. Allerdings hat dann doch irgendwann 2001 die Vernunft gesiegt und ich bin auf Serverhardware umgestiegen welche auch ohne Stunts schneller war.
 
@knirps: Ich glaub bei den 486ern liefen die meisten auch noch passiv, erst DX2 und DX4 kamen mit aktivem Kühler. Von daher ist es eher vermessen zu sagen dass ein smartphone "nie" einen aktiven Kühler braucht. Vor allem die großen smartphones nähern sich immer mehr den kleineren tablets an. Und wie das surface zeigt gibt es einen Markt für leistungsfähige tablets welche dann auch aktiv gekühlt werden.
 
@Johnny Cache: Ich hatte ne Zeit lang mit 10m-Kabeln meinen Rechner in nem Zwischenzimmer stehen und so im Wohnzimmer himmliche Ruhe ^^ Mittlerweile hab ich aber nen Rechner der leise genug ist für's Wohnzimmer. Was mich an Streaming hauptsächlich stört ist dass man Entmündigt ist. Keine Mods, lokalen Saves, Patches wie man will, und dann besitzt man Spiele nicht sondern mietet sie nur. Glaub auch dass sich das darum nicht durchsetzen wird. Auch nicht für Casual-Games wie du meinst, weil die brauchen wenig Rechenleistung, die laufen eh auf jedem Smartphone, Tablet oder Uraltrechner. Warum sollte man sich von Internetverbindungen abhängig machen wenn man das Smartphone zb eh überall dabei hat und grad Casualgames somit jederzeit offline zocken kann...
 
@lutschboy: Wollte ich auch schon versuchen, aber leider habe ich ein ganz lausiges Wohnungslayout welches mindestes 20m lange Kabel voraussetzen würde. Ansonsten wäre auch das die einfachste und vor allem effizienteste Lösung.
 
@Johnny Cache: Gibt doch Hilfe seitens Steam. Starken PC in den Nachbarraum, schwachen PC ins Wohnzimmer und SteamOS drauf. Streamt dann das Spiel ins Wohnzimmer (soll auch mit "steam-fremden" Spielen klappen)
 
@tomsan: Ist ja noch relativ neu, aber ich bin gerade dabei eine Kiste zu basteln um genau das zu testen.
 
@tomsan: Aber auf SteamOS laufen nur die linuxkompatiblen Spiele, oder? Wäre insofern keine wirkliche Option für Gamer, jedenfalls noch nicht... . Edit: Grad gegooglet, läuft wohl grad umgekehrt, man Streamt von Win-Steam zu SteamOS. So rum ist das natürlich dann schon ne echte Option
 
@lutschboy: Jein. Direkt auf SteamOS läuft nur Linunx, das ist richtig, aber wenn man von einer anderen Kiste streamt gehen natürlich auch Windows-Spiele.
 
@Johnny Cache: Hab's grad zeitgleich mit deinem Post editiert :D Aber Danke
 
@lutschboy: Jep. Alle Windowsspiele PLUS sogar noch "Nicht-Steam"-Spiele, die man einfach im Spielerechner einbindet.
 
@tomsan: Dann hat man aber auch gleich 2 Rechner für ein Spiel am laufen (auch wen der Client nicht sehr stark sein muss) - ist für mich reine Stromverschwendung.
 
@DeepBlue: Ja, das mag ja für dich sein. Andere wiederum nutzen noch nicht mal ne Energiesparlampe. Wieder andere sagen, dass die keinen PC im Wohnzimmer brauchen und wollen am Schreibtisch mit Maus/Tastatur zocken. ...... so ist das halt mit dem eigene Willen und der freien Entscheidung. ;)
 
@DeepBlue: Was Verschwendung ist bemisst sich am Wert einer Sache. Wenn einem Ruhe viel wert ist, ist das keine Stromverschwendung sondern genauso sinnvoll wie eine Tiefkühltruhe wenn einem zb Eis oder lang haltbare Lebensmittel das wert sind ;) Abgesehen davon verbraucht ein sparsamer Client von Rasperry PI bis Intel Atom gradmal 3,5 bis 16 Watt. Das ist bei modernen Grafikkarten ein Anteil fast schon im Promillebereich (übersptitzt gesagt ;)). Ich sehe eher Nachteile darin dass man ja meist mehr macht als zu zocken, man müsste dann praktisch auch über das LAN per RDP oder ähnliches browsen, rendern, Bilder bearbeiten und was man sonst so leistungsintensiveres treibt... . Wirklich komfortabel oder praktikabel ist das nicht
 
@DeepBlue: Verschwendet ist Energie nur wenn man sie nicht nutzen kann. Erst die Tage habe ich wegen des miesen Wetters meinen ollen Server in mein Zimmer geschleift weil es mir dort zu kalt war. Effektive Energieausbeute 100%. ;)
 
@lutschboy: Zumindest auf dem Rasberry gibt es kein Steam (kein ARM Support) und wie dem Atom würde ihm beim Decoding wahrscheinlich die Puste ausgehen.

Nur um das klarzustellen: Ich bezweifel gar nicht, dass die Steam-Streaming-Lösung sinnvoll sein kann.
 
@DeepBlue: Könnt beim Atom grenzwertig werden, ja, müsst man mal Benchmarks googlen. Full-HD-Videos schafft mein Atom jedenfalls problemlos flüssig abzuspielen - viel mehr geht dann aber nicht mehr. Aber auch so lässt sich ein klassischer Rechner recht sparsam bauen, mit 15 Watt kriegt man locker nen Rechner zusammen der das Streaming packt.
 
@DeepBlue: Das mit dem Pi habe ich sowieso nie verstanden. Vielleicht stufe ich dessen Hardware auch völlig falsch ein, aber mir erscheinen irgendwelche 50€-Android-Sticks mit 1,8GHz Quad-Core für solche Aufgaben deutlich geeigneter.
 
@lutschboy: Auch wenn ich dir gerne Recht geben möchte.....aber genau aus diesen Gründen wird sich das Streaming durchsezten. Durch diverse Cracks wurden viele Spiele illegalerweise auf den heimischen PC's gespielt ohne dafür zu bezahlen. Das kann sich eine Spielehersteller heutzutage nicht mehr leisten. Monatelanges Programmieren und Tüfteln und dann, kurz nach dem Release findet man auf den diversen Seiten die entsprechenden Hacks. Durch das Streamen kann ich solchen Machendschaften wesentlich besser entgegen treten. Außerdem werden durch stetig steigende Geschwindigkeiten im Imternet Streamings in bis dato unmöglcihen Grössen machbar.
 
@KingBolero: Das habe ich nie verstanden. Sie können nicht auf die potentiellen Kunden verzichten die illegale Kopien einsetzen, aber auf die eigentlich sicheren Kunden, welche die Produkte wegen Origin/Uplay oder Steam nicht kaufen?
Streaming ist für viele Leute in der Bundesrepublik Neuland keine Option, weil es vielerorts einfach nicht die dafür nötige Infrastuktur gibt. In meiner letzten Wohnung hatte ich maximal 6Mbps wenn die Sterne günstig standen... und das mit einem 60er Ping.
 
@Johnny Cache: Deshalb habe ich ja auch geschrieben: "...stetig steigenden Geschwindigkeiten..." In 10 Jahren dürfte das Alles kein Thema mehr sein (hoffentlich *fingerkreuz*). Bis dahin werden die sog. weißen Orte immer den Kürzeren sein. Bei mir ist es der Mobilfunk der schwach bis gar nicht in LTE oder UMTS Geschwindigkeit verfügbar ist (unabhängig vom Netz), dafür komme ich in den Genuss eines Kabelanbieters mit 100 Mbit :-)
 
@KingBolero: Also dafür dass es sich kein Spielehersteller mehr leisten kann, gibt es aber mit mehreren hundert Titeln pro Jahr aber schon noch ganzschön viele Spiele auf PC.. bald sogar GTA V :) Und entscheidend ist nicht was die Hersteller wollen, sondern was der Kunde will. Wenn also die Entwickler die (PC-)Spieler ans Streaming ketten möchten, dann müssen sie dafür echte Anreize schaffen, und die sind momentan einfach nicht gegeben. Mit dem Argument dass sie damit mehr verdinenen werd ich mir jedenfalls keinen Account machen
 
@lutschboy: Nochmal...ich selbst bin auch kein Freund dieser Entwicklung. Ich kaufe mir am liebsten meine Spiele und bleibe offline zum Zocken. Vielleicht werden ja in dem Zusammenhang mehr Anreize für "umsteigewillige" geboten. Das Überleben der Spieleschmieden hängt mehr und mehr an einem Erfolgsspiel ab und nicht mehr an der Masse der Spiele. Einen Top Spiel wie GTA V programmiert man halt nicht grad mal so in ein paar Wochen, sondern ist enorm Zeit- und damit kostenintensiv. Wenn dann noch die Umsätze nach kurzer Releasezeit einbrechen weil immer mehr Raubkopien im Einsatz sind hängen da halt Existenzen davon ab.
 
Musste gerade an den Kalman-Filter denken, hat Microsoft den jetzt auch entdeckt?^^-
 
Ein DeLorean von Microsoft! ...und dann ist es nur ein Cloud-Dienst? Doc Brown wäre enttäuscht. ^^
 
@Runaway-Fan: Naja - hat was mit der zukunft zu tun :)
 
@Runaway-Fan: McFly jemand zu Hause?
 
Die gröbste Rechenpower auszulagern klingt ja erst mal nicht schlecht, wenn man davon ausgeht, dass der ganze grafische Spaß sowie Massenschlachten nur noch ein mal berechnet werden müssen, anstatt auf jedem einzelnen Rechner, nur die Sache mit der Vorhersage klingt ein bisschen so, als könnte man dies bei steigender Wahrscheinlichkeit auch gut für cheats benutzen: statt zu sehen, wo der Gegner momentan ist, sieht man, wo er sein könnte und schickt die eigenen Schüsse schon mal in seine Richtung. Noch dazu ist das mit der Latenz ja ein allgemeines Problem heutzutage, besonders im mobilen Sektor...
 
@BloodEX: Aber macht man das nicht generell schon so das man versucht die Richtung des Gegners einzuschätzen und dann die Waffe etwas vorhält? Die Kugeln haben ja jetzt schon eine gewisse Flugzeit die ebenfalls mit einbezogen werden muss.
Das konkrete Konzept hinter den Predictions würde mich aber auch interessieren. Es dürfte zumindest keine ausnutzbare Unschärfe geben (also das jemand an mehreren Positionen vermutet wird). Wenn zwei Objekte interagieren muss es einen definitiven Zustand geben.
 
@hezekiah: Natürlich, aber wenn man das per Aimbot machen will, zielt dieser ja dort hin, wo sich der Kopf des Gegners ist (kann man hier eig. auch fett oder kursiv schreiben, um Wörter zu betonen); mit der Vorhersage ließe es sich dann aber so machen, dass der Aimbot von selbst dort hin zielt, wo jener Kopf sein wird. Gut, KI-mäßig ließe sich damit bestimmt auch noch einiges anstellen, aber sonst? Ist halt ein zweischneidiges Schwert.
 
cl_timenudge -100 . reicht doch
 
@xiller: Und das gebe ich WO ein? Mein Windows kann damit jedenfalls nichts anfangen, und welches Spiel soll das verstehen? Uralt-Counter-Strike oder was? Nee, das wird wohl nix.
 
Microsoft kann die Physik auch nicht austricksen. Und wer sich mal die Berichte zu Diensten wie OnLive durchgelesen hat weiß, dass Cloud-Gaming für schnelle twitchy-shooter etc. absolut ungeeignet ist. http://www.iis.sinica.edu.tw/~swc/onlive/onlive.html
 
@Seth6699: Wieso austricksen? Ich kann mich mit meinem Sichtfeld nach oben, unten, links, rechts vor und zurück bewegen, sowie eine Kombination aus diesen Richtungen. Wenn das System jetzt alle Richtungen (Blickwinkel) die möglich sind vorrausberechnet, sind alle meine Reaktionen schon gerendert. Sollte die Bandbreite ausreichen, dann kann man theoretisch alle Varianten an den Client schicken. Mit der von MS angewendeten Vorhersage, werden nur die wahrscheinlichsten Alternativen übertragen.
 
@Spacerat: Es gibt ja "unendlich" viele Positionen und Möglichkeiten, die das System berechnen müsse. Ich kann den Analogstick ja in eine beliebige Position bringen und noch zusätzlich die Geschwindigkeit in der Ebene mit dem anderen Analogstick verändern. Erklär mir doch bitte mal technisch und logisch schlüssig wie das funktionieren soll? Das was Microsoft Research da verspricht ist mMn doch nichts andere als Esotherik. Und in Sachen Physik meine ich: Mein Input muss übertragen werden (20-50ms), Bild muss berechnet sowie Audio, dann muss beides komprimiert werden, dann müssen die hunderte oder tausende Datenpakete verschickt werden (da kann man nicht einfach nur die Latenz nehmen). Nimmt man alleine den unrealistischen Optimal fall von Input zum Server übertragen (20-50ms), dann 0ms für Berechnung und Komprimierung, dann 20-50ms für EIN einziges Datenpaket (wie ein PING), dann decoding und dann noch die Latenz vom TV (grey-to-gray mit 20ms ist realistisch; black-to-black mit 2ms ist unrealistisch und kommt so gut wie nicht vor), dann dann liegt man locker schon mal bei Minimum 80 ms. Lies dir mal das WISSENSCHAFTLICHE Paper unter dem Link durch, dann wird dir einiges klarer. Microsoft kann ja viel reden, aber dann sollen sie es doch einfach mal unter realen Bedingungen zeigen. Schon bei der X1 hat MS mit der Cloud ("Power of the Cloud") ganz große Luftblasen erzeugt und bisher nix gezeigt. Und das nächste ist einfach die extreme Unwirtschaftlichkeit. Warum sollte man einem einzigen User so viel Rechenpower zur Verfügung stellen, damit man "unendlich" viele Realitäten in der Spielewelt berechnet um diese dann zu übertragen. Das klingt alles so nach Esotherik und Wunschdenken, das kann doch niemand glauben.
 
@Seth6699: Sie schreiben, dass die Latenz deutlich sinkt, nicht das sie 0 ist. Bei 60FPS ist ein Bild ca. 17ms sichtbar bis ein neues gerendert ist, die Darstellungsgeschwindigkeit des Monitors ist ein anderes Thema! Unendliche Realitäten werden ja gerade nicht gerendert, sonder nur die wahrscheinlichsten Szenarien. Das System steht und fällt mit mit dem Vorhersagealgorithmus. Im besten Fall werden die Daten schon geschickt, bevor du die Eingabe mit dem Controler machst. Der Client muss dann nur noch die tatsächliche Variante mit den vorab geschickten Varianten abgleichen und darstellen. Wenn die Vorhersage daneben liegt, dann fällt das Kartenhaus natürlich zusammen und man hat die volle Latenz wie in deinen "wissenschaftlichen Papieren" dargestellt.
Ob das mit den heutigen Netzen und der heutigen Rechenpower (Client & Server) funktioniert sehe ich auch skeptisch, aber das Konzept ist interessant.
Die Dinge die in MS Research untersucht werden brauchen meist auch noch sehr lange bis man sie als Produkt kaufen kann (wenn überhaupt).
 
@Spacerat: Sorry, aber das klingt unwirtschaftlich bis zum Geht-Nicht-Mehr. Stell dir mal vor, diese Technik wäre Realität bei DIR Zuhause...dann musst du die entsprechende Hardware ja so oft replizieren wie du unterschiedlicher Bilder vorhersagt. Also nehmen wir an, dieser tolle Wunderalgorithmus würde 10 Bilder berechnen.....dann möchte ich nicht die Stromrechnung sehen. Und wenn das ganze auch noch übers Internet läuft und man quasi unnötig Bandbreite verbraucht, weil man schlussendlich nur ein einziges Bild von den vielen berechneten Bildern benötigt, dann klingt das ja noch schlechter als es schon klingt. Mehr als Kopfschütteln kann ich da nicht. In dem Paper von MS steht auch bei State Space Subsampling: " To address this, we use two techniques:
state space subsampling, and event stream time shifting.
These greatly reduce possible outcomes with minimal
impact on the quality of interaction, thereby permitting
speculation within a reasonable budget." Bei Misprediction steht: "When mispredictions
occur, DeLorean enables the client to execute error com-
pensation on the (mis)predicted frame. The resulting
frame is very close to what the client ought to see." ---- Somit nimmt dieser Algorithmus quasi das berechnete Bild, dass der geschätzten Eingabe am nächsten kommt. Also kann/ist der SOLL- und IST-Input unterschiedlich. Das macht bei Shootern, bei denen man genau zielen möchte, ja noch weniger Sinn. Und als Spiele wurden Doom3 und Fable3 verwendet bei einer Auflösung von 1024x768. Also aktuelle Spiele kann man damit gänzlich ausschließen. Da müssen es schon wirklich alte Spiele sein, damit ein einziger Rechner mehrere Bilder parallel berechnen kann und dann noch mit geringer Auflösung. Das wissenschaftliche Paper von MS ist ein "das ist theretisch möglich", aber kein praktisch und wirtschaftlich umsetzbares Vorhaben. Man muss das ganze als Studie sehen, was es auch ist. Das wird wohl aus den Labors nicht herauskommen.
 
Wer dachte bei DeLorean nicht gleich an "Back the Future" ?
 
@Rumulus: Also ich dachte an "Back TO the future"
*wegduck*
 
@Chris Sedlmair: Ui, da hat sich da to doch gleich davongeschlichen! Ne hast recht.....aber doch verstanden was ich meinte. ;D
 
@Rumulus: Ist das eine neue Kickstarter-Kampangne? ;)
 
Ich warte immernoch auf die versprochene unendliche Cloud Power der Xbone.
 
Cloud Gaming ist in deinem Deutschland nicht verfügbar, das tut uns nicht Leid, Deine Telekom! :D , Nette Idee aber es gibt regionen die haben DSL nicht ADSL oder VDSL, und da sind 3 stellige Latenzen weiterhin bis 2016 wenn nirgendswo ausgebaut wird,,, ein Standart. hab in Duisburg eine 6000er , kann grade noch HD Videos schauen, aber Cloud Gaming, gut nacht... das wird ein warte spiel...
 
@awwp1987: DSL ist für normale Kunden auch immer ADSL. DSL und ADSL sind in Deutschland Synonyme. Nur die wenigsten, meist Firmen, nutzen SDSL. Ich hatte vor einigen Jahren auch nur ADSL 6000 und bin dann zu einem Kabelanbieter gewechselt. Alles problemlos und sogar mit 100MBit. Schau mal ob es bei dir auch einen Kabelanbieter gibt. Somit kannst du den langsamen Netzausbau der DSL-Anbieter evtl. umgehen. P.S: Standard bitte mit d am Ende....wird sind ja hier nicht beim Millitär von vor 70 Jahren ;)
 
Was ist mit VR. JEDE Form von Latenz ist da doch schrecklich. Natürlich ist es schwer zu sagen welchen Impact VR haben wird und ob es sich langfristig durchsetzt. Hoffe aber, dass dies geschieht.
Kommentar abgeben Netiquette beachten!

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles