Stadia: Googles Streaming-Dienst "frisst" gewaltige Datenmengen

Googles Cloud-Gaming-Plattform Stadia ist seit dieser Woche verfügbar und bisher lief es alles andere als rund. Denn es gab Pannen und technische Probleme. Eine Voraussetzung ist eine ausreichend schnelle Internet-Leitung und diese sollte auch kein ... mehr... Google, Gaming, Spiele, Streaming, Cloud, Games, Google Stadia Bildquelle: Google Google, Gaming, Spiele, Streaming, Cloud, Games, Google Stadia Google, Gaming, Spiele, Streaming, Cloud, Games, Google Stadia Google

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Dann haben die Router bei den Providern wenigstens was zu tun :-D
 
Genau Winfuture!!!!
das Grass ist grün, Wasser ist nass, Himmel blau und Streaming braucht Daten.....
 
@HappyRaver: Naja, er ist schon recht hoch, ich meine, bei GeForce Now sind es <5GB pro Stunde in FHD. Hier fehlt halt ein Vergleich. Ich find die Werte grade leider nicht auf die schnelle.
 
@HappyRaver: Es fehlt im Artikel lediglich das Fazit am Ende, dann hättest du auch verstanden, was das eigentliche Thema ist, um das es geht: Sollte sich das Ding wirklich in der Form durchsetzen, in der Google das gerne hätte, dann sind das ja nicht nur die paar Leute, die da momentan angedockt sind, die *jeder für sich parallel* diese Menge an Daten durch die Leitung lutscht, und das könnte durchaus nicht ganz unproblematisch sein, wenn gleichzeitig auch noch die Netzneutralität gewahrt bleiben soll.
 
@HappyRaver: In diesem Falle ist das aber so. World of Tanks nudelt dir z.B. locker mal 50 GB an (Grafik) an Daten auf den Rechner. Dann braucht es für Schuss-, Positions-, Animationsberechnungen tatsächlich nur wenige Kb an Daten die da hin und her geschickt werden.
Statdia ist im derzeitigen Stadium nur ein Krampf.
Bei heutigen Mobiletarifen und Leistungsfähigkeiten der mobilen Geräte kein schönes vergnügen.
Da brauchen sich Steam und Co keinen Kopf zu machen und können sich ganz entspannt zurücklehnen.
 
119 MB pro Minute ist heftig. Spielt man durchschnittlich 3 Stunden/Tag ergibt das 21 GB. So viel lade ich nicht in der Woche. Kein Wunder, dass die Chromecasts alle abschmieren bei der Datenmenge.
 
@Ryou-sama: Alle?
 
@wertzuiop123: Nein natürlich nicht. Aufgrund der gestrigen News hier hieß es allerdings, dass dieses Problem auf "zahlreiche" Nutzer traf.
 
@Ryou-sama: Ich habe aktuell von einem einzigen gelesen, der gerade durch alle News gepeitscht wird. Unter den News liest man dann von anderen Leuten nur, dass sie keine Probleme haben.
 
@FatEric: Im gestrigen Artikel hier auf WF war doch auch mindestens ein Kommentator dabei, der die Erhitzung bestätigen konnte. Aber das wird sicher das geringste Problem sein, denn sowas lässt sich schließlich durch ein Hardwareupgrade in den Griff kriegen.
 
@DON666: Ja, dass er warm wird. Dass aber gleich Abstürze folgen etc.wurde jetzt nicht bestätigt. Natürlich sollte man das beobachten, aber aus einer Meldung gleich wieder ein riesen Fass aufmachen ist schon längere Zeit irgendwie typisch.
 
@FatEric: Ich meinte das nur aufgrund der News gestern. Da heißt es, dass mehrere Nutzer das gleiche Problem haben.
 
Wieso so viel? Ernstgemeint! 1080p 60fps bei Netflix (ich weiß, es sind weniger, aber auch bei 30fps geht die Rechnung nicht auf) und 1080p 60fps bei Spielestreaming sollte doch gleich viel Daten produzieren?! Beim Codec werden wohl beide auf aktuell setzen. Kann mir das jemand erklären??
 
@MrKlein: Ich denke dass durch die höheren FPS weniger komprimiert werden kann, damits keine Lags gibt
 
@MrKlein: Ja, das ist ziemlich einfach zu erklären. Jeder Codec trifft annahmen über die Zukunft. Bei einem Film ist ja klar, welche Bilder als nächstes kommen. In so einem gut kodierten Stream sind dann auch nur Änderungen zu den vorherigen Pixeln enthalten. Als Beispiel braucht man bei einem Standbild nicht ständig neue das Standbild schicken. Es reicht, das Bild einmal zu übertragen mit der Information 5 Sekunden anzeigen. Das ist natürlich recht vereinfacht ausgedrückt aber so ähnlich funktionieren Videocodecs. Bei einem Spiel weiß man aber nicht, wie der nächste Frame aussehen wird, nur, wie der letzte Ausgesehen hat. Deswegen muss praktisch für jeden Frame Bild für Bild mehr an Daten übertragen werden, was extrem viele Daten verbrät. Außerdem würde eine richtig gute Komprimierung auch Zeit benötigen. Zeit hat man aber beim Streaming nicht. Das Bild wird in der Cloud generiert und muss so schnell wie möglich zum Client übertragen werden und auch das entpacken beim Client muss ratz fatz gehen. Natürlich kommt dennoch eine Komprimierung zum Einsatz, diese kann aber technisch gesehen nicht so gut funktionieren, wie bei einem Film. Diesen kann man mit Hochleistungsrechnern und besten Codecs theoretisch Stundenlang hochoptimiert komprimieren. Das muss auch nur einmal gemacht werden und dann kann dieses Material Millionenfach ausgeliefert werden. Zeit spielt da keine Rolle
 
@FatEric: "Bei einem Spiel weiß man aber nicht, wie der nächste Frame aussehen wird"
Ähm... das weiß der Encoder bei einem Film auch nicht (außer bei Multi-Pass vielleicht) und entscheidet bei jedem Frame aufs neue, ob nur die Unterschiede zum vorherigen Frame oder ein komplett neues Frame gespeichert wird, ich wüsste jetzt nicht, warum das jetzt bei einem Game-Stream anders sein sollte, ist letztendlich auch nur ein Video. Natürlich wird man weniger stark komprimieren können, da man keine Zeit dafür hat bzw. nicht wahnsinnig viel Rechenleistung in die Generierung von Daten investieren will, die wenige Millisekunden später schon entsorgt werden, aber das Argument ist Blödsinn.
 
@Link: Vermutlich ist aber die Datenrate bei Stadia trotzdem höher, als bei Netflix oder Amazon Prime Video. Gerade bei einfarbigen Flächen sieht man besonders bei Amazon Prime Video doch deutlich, dass die Qualität schlechter ist.
 
@Stefan1200: Das mag sein, ändert aber nix daran, dass die Begründung, die ich angesprochen habe, Blödsinn ist.
 
@Stefan1200: Stadia benutzt VP9, das ist der "hauseigene" Codec der auch bei Youtube und co eingesetzt wird.

So I am assuming Google will be using VP9 Profile 2 codecs to deliver the streaming video. Considering the devices that dont support it, it kinda creates a weird issues. Lets look at the major devices that dont support VP9.

-Iphones/iPads
-AppleTV
-Nvidia Shield
-Older Rokus/Fire TVs(The newest ones do)

Wie man hier lesen kann ist das auch der grund weshalb viele Geräte derzeit nicht von Stadia unterstützt werden.
 
@FatEric: Das ist überhaupt keine sinnvolle Erläuterung. Der Codec kennt nicht alle Filme! Dann wäre der Codec Petabytes groß. Und in einem Spiel wechselt auch nicht ständig die Szene. Es ist fließend. Nur halt eben nicht von einem Videofile, dass übertragen wird (wobei das auch nicht komplett übertragen wird, sondern immer nur Stückchenweise), sondern halt die Videodaten des Spiels.

Film, Serie oder Game sollten über die gleichen Codecs auch die gleiche Menge an Daten erfordern. Allerdings ist für Spiele ein anderer und schnellerer Codec, der weniger komprimiert durchaus denkbar.
 
Sollte eigentlich jedem klar gewesen sein das verdammt viel Daten anfallen und das alles nur ohne Datenvolumen Sinn macht. Ich habe auch so einen Traffic von 3 bis 5 TB im Monat da dürfte das zusätzlich keinen großen Unterschied machen.
 
@KingKaizen: Du meine Güte... Was ziehst Du Dir denn da alles rein?

Speicherst Du sämtliche Derivate von Linux auf einem Homeserver inkl. aller Updates und Upgrades???
 
@Hanni&Nanni: Naja recht viel läuft über Streams und arbeite auch als Systemadministrator. Arbeite viel von Zuhause um auf andere Computer zuzugreifen. Dazu kommt das alles mögliche auf der Cloud gespeichert wird. Da kommt dann schon einiges zusammen. Da ich ja auch alles in 4K Streame und der Fernseher bei mir gut 10 bis 15 Stunden am Tag läuft kommt da schon einiges zusammen. Aber ich denke das diese Datenmenge in ein paar Jahren bei fast jedem zustande kommen.
 
Diese Diskussion ist ziemlich lächerlich. Einerseits den Gigabit Ausbau mit Glasfaser überall fordern und diese klingeldrahttechnik Names Supervectoring mit ihren mindestes 175 Mbit/s als altertümlich hinstellen, dann aber zu behaupten, 50 Mbit/s Dauerbelastung wäre ein Drama, passt nicht zusammen. Jetzt gibt es doch endlich mal einen Dienst, der den Gigabitanschluss zu Sage und Schreibe 5% auslastet und schon wird daraus eine News gemacht und Ängste geschürt (Datenlimit gibts in Deutschland praktisch überhaupt nicht), dass sowas zu viel ist.

Gigabitanschlüsse sind überigens dank Kabel und einigen FTTH Anschlüssen inzwischen sogar Millionenfach in Deutschland verfügbar.
 
@FatEric: Aber die Wenigsten nutzen das auch nur ansatzweise über einen längeren Zeitraum aus. Mal sehen, was die Infrastruktur an den Backbones bzw. schon in den Verteilerkästen sagt, wenn das wirklich schlagartig mal in die Höhe gehen sollte.
 
@DON666: Wenn es die Infrastruktur nicht hergibt, dann wären auch solche Anschlüsse überflüssig, weil sie nicht genutzt werden können. Docsis 3.1 schafft im Kabel rund 10 Gbit/s. Jetzt schon. Davon stehen einem einzelnen Anschluss aktuell 1 Gbit/s zur Verfügung. In so einem Kabelsegment könnten also ca 250 Leute mit Stadia in 4k zocken. Und zwar gleichzeitig. Und diese Szenarien, was ist, wenn alle Gleichzeitig irgendwas machen, dann bricht das aber zusammen... Ja das wäre manchmal so, aber in der Realität passiert das recht selten bis nie. Zu den Anfängen der sozialen Netzwerke waren ja Flashmobs recht beliebt. Da hat man sich gerne mal verabredet, mit hunderten Leuten eine McDonaldsfiliale zu stürmen um diese leer zu kaufen. Überraschendes Ergebnis. Hat nicht geklappt, da die "Köche" in der "Küche" das Zeug nicht schnell genug zubereiten konnten.
Selbiges passiert beim Streaming, wirds mal eng, fällt die Auflösung halt von 4k auf FullHD zurück. So What.
 
@FatEric: True. Die Frage wäre auch wie viel Stadia überhaupt maximal nutzen würde. Gut möglich dass es nur 55 beansprucht egal ob 100, 250 oder 600 zur Verfügung stehen.
 
@jackii: Bei 50 ist dann vorerst mal Schluss. Google hat aber für die Zukunft auch 8k mit 120 fps in Aussicht gestellt, da wird dann die Datenrate nochmals steigen. Aber wann diese Zukunft sein wird, wissen wir nicht und was es dann für Anschlüsse geben wird, auch nicht. Hätte man mir 2001 erzählt als ich einen DSL Anschluss mit 786 kbit/s bekommen habe, dass ich 13 Jahre später einen FTTH Anschluss mit möglichen 200 Mbit/s haben werde, der dann 3 Jahre später sogar 1 Gbit/s schaffen kann, hätte ich das nicht geglaubt. Wer weiß, was in 10 Jahren möglich ist.
 
@FatEric: Joa naja ich glaub nicht so recht dass man das übertragen kann und die Entwicklung ähnlich der Anfangszeiten sein wird.
Als es DVDs gab wusste man schon dass da noch mehr Auflösung nötig ist und auch kommen wird und man sie auch gleichzeitig, live in beide Richtungen streamen will und dass da 786 kbit/s nicht reichen. Aber dass man auf 24-27" Monitoren oder 6" Smartphones nicht mehr als 4 oder gar 8k brauchen kann, kann man eigentlich schon ganz gut sagen. Selbst auf 64"+ Fernsehern verspür ich da irgendwie nicht so den drang. Auch mit mehr als 400Mbits wissen selbst größere Familien nichts anzufangen und ich seh nicht wirklich etwas dass das in 10 Jahren großartig ändern würde. Vielleicht irgendwelche VR/AR Geschichten.. Aber ja mal sehn, ohne Glaskugel schwer zu sagen.
 
@FatEric: Das Problem ist aber nicht ein Anschluss, sonder die Masse wenn sich der Dienst durchsetzt. Schau Dir den Traffic mal an, der durch DE-CIX rauscht. Der hat sich in den letzten Jahren mehr als verdoppelt.
Nun kommen derlei Dienste mit einem enormen Hunger nach Bandbreite noch hinzu. Bandbreite ist jedoch keine unendliche Ressource, so schnell wachsen die Netze nicht.
 
Ich erinnere mich an BluRay-Sicherungskopien, die irgendwas zwischen 15 und 30 GB groß waren bei einem Spielfilm. Wenn ich als ähnliche Qualität haben will, werden nunmal diese Datenmengen erzeugt. Echt krass wie sich alle Schweine auf dieses eine Stück Brot stürzen und dabei möchte man meinen es wären welche dabei, die Ahnung hätten, gerade bei "IT-Seiten". Das ist nur noch lächerlich.
Als nächstes werden ihr herausfinden, dass RAW-Dateien von DSLRS viel größer als JPEGS sind und diese die Festplatte zustopfen können!
 
Also ist das ganze ohne Festnetzanschluss zu vergessen und für mobile-Devices kaum bis gar nicht geeignet.
Hat schon seinen Grund warum so manches Multiplayer-Game tonnenweise Daten auf der HD bunkert. Das Hauptproblem sind eben die Bilddaten.
Somit ist Google Stadia ein totgeborenes Kind. Ausser man schafft es, den Smartphones und Tablets mehr physikalischen Speicher ab 500 GB aufwärts zu verpassen.
 
Unbegrenztes und schnelles internet muss endlich ein grundrecht sein!
 
@pl4yboy_51: warum?
 
wie war das damals... da hatte ein anbieter geschenke verteilt, wenn man bei so einem volumen freiwillig vom flatrate-vertrag zurücktritt...war 2und2 oder so ähnlich :D
 
Ich möchte auch so gerne mitreden. Aber mein Stadia Paket ist immer noch nicht angekommen.
Die ganze Welt scheint schon damit zu spielen, nur ich nicht...
Aber vielleicht bekomme ich ja zu Schluß einen extra guten Chromecast , der nicht zu heiß wird...
OT:
Ebenso hat mein Huawei Mate 20 Pro immer noch kein Update auf Android 10 bekommt, während andere das schon seit vielen Tagen haben...
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 07:10 Uhr Blackpine Akku-Bohrschrauber Akkuschrauber Akku-bohrschrauber 12V Maximaler Drehmoment 24 Nm 17+1 Drehmomentstufen 2 Gang Bohrfutter Spannbereich 10mm Zuberör-Set 1x1500mAh-BatterienBlackpine Akku-Bohrschrauber Akkuschrauber Akku-bohrschrauber 12V Maximaler Drehmoment 24 Nm 17+1 Drehmomentstufen 2 Gang Bohrfutter Spannbereich 10mm Zuberör-Set 1x1500mAh-Batterien
Original Amazon-Preis
46,99
Im Preisvergleich ab
?
Blitzangebot-Preis
37,59
Ersparnis zu Amazon 20% oder 9,40

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.