HTTP/2 ist fertig: Web schaltet einige Gänge höher & wird schneller

Nach immerhin 16 Jahren hat die nächste Version des Hypertext-Übertragungsprotokolls einen bedeutenden Schritt vollführt: HTTP/2 ist jetzt offiziell fertiggestellt worden, nun muss nur noch die (formale) "Hürde" der Veröffentlichung als Standard ... mehr... Web, HTTP, WWW Bildquelle: Rock1997 (GFDL) Web, HTTP, WWW Web, HTTP, WWW Rock1997 (GFDL)

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Die News sagt nichts interessantes aus. Interessant wäre gewesen, ab wann mit der Einführung zu rechnen ist. Welche Browser unterstützen das ggf. schon. Müssen außer Browser auch Server aktualisiert werden? Wer hat das schon getan?
 
@knirps: Bis der RFC zum offiziellen Standard erhoben wird, dauert es jetzt nur noch rund 20 Jahre... aber zumindest wesentliche Teile sind in moderneren Browsern ja schon integriert (siehe [o3], Google SPDY).
 
@knirps: Vielleicht, weil man es noch nicht genau sagen kann!? Was soll immer dieses Gemeckere? Der Standard ist verabschiedet und fertig. Das ist die News. Google halt auf englischen Seiten. Gibt immer irgendeine, die zusätzliche Infos bereithält......
 
Schade, dass Winfuture hier nur das Marketing-Geschwätz übernimmt und sich nicht ernsthaft damit befasst. In diesem Heise-Kommentar ist gut zusammengefasst warum HTTP 2.0 kaum schneller als 1.1 ist.

http://www.heise.de/forum/Netze/Kommentare/Wie-HTTP-2-0-das-Surfen-beschleunigt/Geschwindigkeitsvorteil-ist-reine-Spekulation/posting-2173576/show/
 
@XP SP4: Eigentlich besagt das Kommentar lediglich das es nicht genug gesicherte Informationen gibt um diese Behauptung aufzustellen.
Nach diesem Kommentar könnte man beispielsweise eine Internetseite auf HTTP/2 optimieren und würde dann schneller sein als HTTP.
 
@XP SP4: naja, eigentlich schon. Durch HTTP/2 werden zB CDN unnötig.
 
@TurboV6: weshalb? cdn werden vielfach ja zur lastreduktion in vielerlei hinsicht eingesetzt
 
@0711: nicht wirklich. CDN wurden dafür geschaffen, dass Ressourcen zeitgleich geladen werden können sowie, dass Du die Ressourcen von verschiedenen Regionen der Erde ausliefern kannst, sodass jeder Nutzer ein performantes Klick-Erlebnis hat. Die CDN selbst haben aber auch eine Lastverteilung, sodass wenn ein CDN in Nordeuropa ausgelastet ist, einer aus Südeuropa einsteigt. Dafür sind sogenannte SmartDNS Proxies verantwortlich. Du kannst Dir mal den Azure Traffic Manager anschauen; genau das ist nämlich eine Lastverteilung.
 
@TurboV6: also cdn`s dienen sicher nicht alleinig für geo Routing/load balancing....sondern um die backendsysteme auch zu schützen
 
@0711: das hab ich auch nicht geschrieben.
 
@TurboV6: für mich schon...und primär sind cdn`s trotzdem dafür da last vom ursprungsserver zu nehmen.
 
@0711: nein. Dann verstehst Du einen CDN nicht, geschweige denn das Verhalten von Browsern. Das Grundproblem von Browsern ist, dass Du von einer Domain immer nur eine Ressource zeitgleich laden kannst. Das heisst wenn Du Bilder von winfuture.de laden willst, dann geht das immer nur nacheinander. Das ist aktuell der größte Flaschenhals von Webseite. Deswegen verwendet man CDNs, da diese immer eine andere Domain haben und Du so Ressourcen zeitgleich laden kannst. Bei winfuture heisst das zB wfcdn.de. Wenn dann noch viele Webseiten den gleichen CDN verwenden (was sehr gern bei Javascript oder zB bei Bootstrap gemacht wird), dann hast Du sogar noch den Vorteil, dass die Ressource aufgrund einer anderen Webseite schon geladen wurde. Ergo: CDN sind zur reinen Verteilung von statischen Ressourcen da. Jetzt kommen wir zum Thema Lastverteilung: hier gibt es eine Mischung aus Proxies und DNS. Proxies Überwachen Server- und Leitungskapazitäten; der IIS kann das zB durch sein integriertes Web Farm Framework. Wenn also der Proxy erkennt, dass ein Server überlastet ist, dann gibt er dies dem SmartDNS/TrafficManager bekannt und die Anfrage wird von einem anderen Webserver beantwortet. Jetzt zum Regio-Verhalten: Bei einer Anfrage an einen Webserver erkennt der Haupt-DNS anhand einer IP-Rainbow-Table woher die Anfrage stammt. Er leitet dann diese Anfrage an den Server, der am nähesten ist UND nicht ausgelastet ist. Eine Anfrage aus New York wird dann auch zB vom Server in Arizone beantwortet und eben nicht vom Server aus Brüssel. Diese TrafficManager sind dabei so intelligent, dass sie aber nicht nur auf die geringste Entfernung achten, sondern auch auf die geringste Latenz; weil zB Sat-Verbindungen langsamer sind als Unterseekabel.
 
@TurboV6: dann schau mal wie viele verschiedene Domains winfuture bei wfcdn nutzt...1-2...das machen viele site Betreiber auch so oder so (z.B. media.winfuture.de und www.winfuture.de).
beim rest mischt du bei cdn eben u.a. loadbalancing und georouting rein...das bieten zwar die meisten cdn Betreiber zwischenzeitlich aber ist eben nicht im klassichen sinn was ein cdn macht.
 
@0711: solangsam reitest dich riesig rein :-) Evtl. solltest Dir das Thema nochmal anschauen..
 
@XP SP4: Hättest du noch die Antwort auf diesen Beitrag gelesen, hättest du vielleicht erkannt, dass dein Link größtenteils Bullshit ist. Der HTML-Code an sich, den der Autor ja offensichtlich meint, wenn er sagt, wie viele Body-, Style- und Img-Tags man mit den paar Kilobytes ja laden könnte, macht nur einen Bruchteil der Seite aus. Denn hinter einem geschlossenen Img-Tag, das gemäß ASCII-Codierung 11 Bytes groß ist, steht immer ein Bild, das in der Regel mehrere Duzend bis hunderte KByte groß ist. Und jetzt halte dich fest: Eine Seite hat total viele davon. Jetzt musst du dir nur noch zusammenreimen, was passiert, wenn alle hintereinander angefordert und heruntergeladen werden.
 
@Niccolo Machiavelli: Jedoch lassen sich auch heute schon extrem viele Dinge optimieren.
Für Icons sind Sprites beliebt (mehrere Bilder in einem Bild und nur Ausschnitte davon anzeigen). Für kleinere Bilder bietet sich auch eine direkte Base64 Kodierung an, die das Bild direkt ins HTML/CSS einbettet.

Für CSS und Javascript gibt es Tools die ein automatisches Bundling und Minify durchführen (Zusammenführen von mehreren CSS/JS Dateien und entfernen aller unnötigen Zeichen, bzw teilweise Umbenennung von Dingen)

Wenn man das alles streng durchhält (durchalten kann) kommt man selbst bei sehr komplexen Projekten auf genau 3 Web-Requests für eine HTML Seite....
1. HTML
2. CSS
3. Javascript

Dennoch ist HTTP2 ein wichtiger Fortschritt, wenn man sich die ganze Arbeit sparen kann und das Protokoll einem diese Dinge direkt abnimmt.
 
@Draco2007: das kann man heute schon alles mit einem einzigen Request ausliefern. Es geht dabei aber auch um die Integration von modernen Caching-Methoden.
 
@TurboV6: Mit CSS und JS inline im HTML?
 
@Draco2007: korrekt. Ob es gut oder schlecht ist, darum ging es ja nicht. Zudem kannst Du Dir über den GZip stream ebenfalls alles auf einmal schicken lassen.
 
HTTP/2 in Firefox 35.0.1 kann jetzt schon aktiviert werden.
Einfach "about:config" in die Adresszeile eingeben und diesen Wert "network.http.spdy.enabled.http2draft" suchen und auf "True" stellen.

Allerdings konnte ich nicht in Erfahrung bringen,
ob die Webseiten vorher angepasst werden müssen...
 
@SuperSour: das würde mich auch interessieren, in wieweit die Seiten angepasst werden müssen
 
@Blue7: Gar nicht. das hat mit HTML, CSS, PHP, JSP, JS, ASP.net nichts zu tun.
 
@Ludacris: Mit Seiten meint er natürlich Webserver...
 
@Blue7: die meisten können es noch gar nicht von Haus aus. Der IIS zB erst mit Windows 10. Es gibt aber Fremdanbieter Module, die das zB im IIS 8 nachliefern.
 
@SuperSour: HTTP/2 ist die unterste Ebene. Darauf ist HTML,CSS,... aufgebaut. Das bedeutet, dass die Gegenstelle(der Server) auch das Protokoll haben muss. Ansonsten kommt es zu einen Fallback auf 1.1.

Edit: Wenn ich das in der "about:config" richtig sehe, muss auch noch "network.http.spdy.enabled.http2" auf TRUE stehen. ;)
 
@SpiritOfMatrix:
"network.http.spdy.enabled.http2draft" ist per default "True",
meinte eigentlich "network.http.spdy.enabled.http2".
Sorry, mein Fehler. ;-)
 
@SuperSour: der Server muss es unterstützen! Also der Webserver. Sonst wird das nix!
 
@legalxpuser: Das erklärt warum FF mit HTTP/2 in Benchmarks weniger Punkte bekommt, als ohne. ;-)
 
@SuperSour: Das ist doch schon ewig an?
Ich hab die SPDY indicator extension in Firefox schon ewig um zu sehen ob SPDY.
Bei google wird seit neustem HTTP/2 angezeigt (vorher SPDY).
 
@Paradise: In FF ist HTTP/2 NICHT per default an.
Nur in den Nightlies ab FF31 soweit ich weiss.

Und die Google Seite zeigt bei mir KEINEN HTTP/2 Support.
 
@SuperSour: Bei mir schon ohne was in der about:config zu ändern.
 
@Paradise: Nur FF zeigt bei der Seite den HTTP/2 Support an, unter Chrome nicht. Anscheinend ist die Extension leicht buggy. ;-)

Der Wert in FF muss NICHT geändert werden, das Addon zeigt nur an, ob die Seite HTTP/2 unterstützt, NICHT ob es aktuell vom Browser genutzt wird.
 
@SuperSour: Hm.
https://spdycheck.org/#google.com
sagt auch SPDY
 
@Paradise: Unter Chrome erkennt die Extension QUIC und SPDY auf Google/Youtube, kein HTTP/2, aber Chrome unterstützt das im Moment eh noch nicht...
Unter FF erkennt das Addon auf Google/Youtube HTTP/2, aber auch nur weil FF schon HTTP/2 Support hat, auch wenn es NICHT an ist...

Ergo ist das Chrome Addon in Bezug auf HTTP/2 buggy, da beide Seiten es unterstützen, aber das Addon nur das Protokoll anzeigt, welches auch gerade genutzt wird.
Das ist bei FF anders, dort sieht man nur welches Protokoll "unterstützt" wird und nicht welches genutzt wird.

Edit:
Gerade ist eine neue Chrome Version erschienen, die auch HTTP/2 nutzen kann.
 
Was mich hier auch interessieren würde: Ändert sich für Webentwickler was? Im Sinne von: Gibt es neue APIs (JS, PHP, ...), um spezielle Funktionen von HTTP/2 verwenden zu können?
 
"Eine wichtige Änderung betrifft die Requests: Server können künftig mehr Daten zurückschicken als angefordert worden sind. Browser können zudem Daten gleichzeitig von mehreren Quellen beziehen..." An was muss ich da als erstes denken? Geschwindigkeitsschub->schnellere Anzeige von Inhalten die der Nutzer gerne hätte, nicht unbedingt...
 
@Lastwebpage: Jetzt neu im Handel: Messer. Schneiden Sie Ihre Mahlzeiten damit in mundgerechte Stücke. ...oder erstechen Sie Ihren lästigen Nachbarn.
Na, erahnst du, worauf ich damit hinaus will? ;)
 
"Browser können zudem Daten gleichzeitig von mehreren Quellen beziehen"
Das ging schon immer und ist der Grund warum man ein CDN verwendet.
Wer sich das nicht leisten kann richtet einfach ein subdomain ein.
 
Das negative wird dran sein, dass der Endanwender sicherlich in den meisten Fällen wieder nichts spüren wird.

Seiten "würden" schneller aufbauen, wenn man sie so lassen würde, wie sie jetzt sind.

Nur werden die Seitenbetreiber das ganze gleich wieder ausnutzen und die Seiten mit noch mehr mit Werbung
bzw. animierter Werbung überladen. So bleibt dann wieder alles beim alten.

Dürfte dann wie bei LED Lampen sein. Sie sparen Strom, und weil sie es tun, lassen die meisten Leute entweder länger das Licht an, oder stopfen noch mehr Lampen in den Raum.
Kommentar abgeben Netiquette beachten!

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte