Google: Kurze Ladezeit bringt bessere Platzierung

Internet & Webdienste Der Suchmaschinenbetreiber Google wird zukünftig auch die Reaktionszeit einer Webseite bei der Einordnung in den Ergebnislisten berücksichtigen. Das teilte das Unternehmen in einem Blog-Posting mit. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich bin nicht sicher, was ich davon halten soll. Einerseits werden Entwickler zu effektivem Code gezwungen, andererseits ist diese Regelung ein Nachteil für Privatentwickler, welche oft auf (langsame) Gratishoster zurückgreifen müssen.
 
@web189: Ich denke nicht, dass sich viel ändern wird. Die Seitenbetreiber. die gut an google zahlen, werden auch künftig noch ganz oben stehen. Ich denke mal eher, dass sich dieser Filter erst ab Ergebnisseite 10 (und höher) auswirken wird.
 
@web189: Ich begrüße das alle Male. wer ein ernstes Projekt betreiben möchte, sollte die 20-50 Euro im Jahr schon übrig haben für einen gescheiten Hoster mit Domain. Zumal, wie du schon sagtest, endlich mal dazu angeregt wird, das auf den Code geachtet wird. Was da teilweise zusammen programmiert wird und als Professionell bezeichnet wird... ist einfach nicht mehr feierlich.
 
@Spürnase: Google sollte aber als Suchmaschine nicht die "Ernsthaftigkeit" eines "Projekts" beurteilen, sondern die Relevanz der Seite für die Suchanfrage. Mag ja sein, dass für's Shopping eine schnelle Seite dem Kunden mehr bringt, als eine langsame, aber wenn es um wichtige Informationen geht, kann man die evtl. auch auf einer grotten-langsamen Seite finden,
 
@humfri: Ernsthaftigkeit wird von verschiedenen Faktoren definiert. Ähnlich wie man Schönheit Bewertet. In diesem Fall ist weniger mehr. Ich will Content im Mittelpunkt, keine (mit Bildern) überladene Navigation oder Design. Übersicht, schnelles laden usw.. Als ich das aller erste mal Winfuture aufgerufen hatte (7 Jahre her), habe ich diese Seite für eine Unseriöse gehalten, weil der Content unter der Werbung verschwand. Ein Übermaß an Werbung senkt die Produktivität. Das sind für mich alle Bewertungskriterien und ich finde es gut das Google so etwas mit einfließen lässt.
 
@Spürnase: ja ja, aber lange Ladezeit heißt nicht immer "voll mit Werbung". Ich sagte ja nur, dass ich nicht glaube, dass man an der Ladezeit die Relevanz ablesen kann. Und weniger hat nichts mit kürzerer Ladezeit zu tun, sobald der Server selbst lahm ist...
 
@web189: Google kann man ja vergessen...
Nutzt iSearch, das findet alles....
http://tinyurl.com/y626yfg
 
@roflxD: (-) Da hat der URL-Verkürzer die Sache länger gemacht als sie ist. Troll dich wo anders aus.
 
Viele Websiten von Asus (auch wenn sie schon viel schneller sind als früher), wird man dann wohl auf den ersten 20 Seiten bei den verschiedensten Suchen, die mit Asus zu tun haben, wohl kaum noch finden...von Realtek mal ganz zu schweigen...
 
@Xionic: ;D die sind tatsächlich blöd anzusurfen. aber ich glaub, dass die relevanz da noch ein ganzes stück mitzureden hat (steht ja auch im text) und die "herstellerseiten" daher immer noch ganz/recht weit oben stehen werden.
 
@web189: nicht nur das mit den Gratis Hostern ist ein potentielles Problem, sondern auch folgendes. Wenn ich was suche, dann suche ich eine Webseite die meine Suchbegriffe inhaltlich möglichst auf den Punkt bringt und mir die Ergebnisse liefert, die ich eben suche. Ich suche nicht die schnellstgeladene Webseite, ich habe mir nämlich was bei gedacht, wenn ich zu einem Thema recherchiere, da kommts mir nich auf 2 Sekunden oder 10 Sekunden an. Mit diesem schnell schnell was google da forciert wird doch immer noch mehr das Wegfallen der Wahrnehmung für kontinuierliche Zeit gefördert... die Geräte plärren wie ein nicht erzogenes Kind rum und fordern unsere sofortige uneingeschränkte Aufmerksamkeit. Ob Geschwindigkeit jetzt so das Kriterium für gute Suchergebnisse ist, sehe ich jedenfalls nicht so. Auch ist eine quantitative Messung der Geschwindigkeit fraglich, wenn man bedenkt, dass eine Seite schneller geladen ist, die keiner besucht - als eine Seite die hoch frequentiert ist von Benutzern und viele DB Anfragen die von vielen Usern kommen, bearbeitet werden müssen. Wenn dann müsste man die Besucherzahlen und damit eine Art Qualitätsbarometer einführen.
 
Genau so verhalte ich mich auch... wenn eine Seite nicht ausreichend schnell lädt nehm ich direkt das nächste Suchergebnis!
 
@Nelson2k3: Toller Garant für eine erfolgreiche Suche. Ich würde jetzt nicht von ausgehen, dass Seiten, die schneller laden, gleichzeitig auch das bessere Suchergebnis ausspucken. Ich meine, dein Browser wird doch wohl Tabs beherrschen und somit sei es doch möglich, während die Seite, welche nicht so schnell lädt, noch lädt, die andere in einem neuen Tab zu öffnen und in der Zeit, wo die andere noch lädt, sie zu lesen, um danach die andere Seite in Angriff zu nehmen, um dann zu vergleichen. Sollten alle immer das nur schnellste und einfachste nehmen, na dann... [Edit: Geduld ist eine Tugend... ,-)]
 
@klein-m: Ich stimme da Nelson2k3 zu. Seiten so voll zu klatschen, das selbst mit schnellen DSL Leitungen Ladezeiten von mehr als ~3-5 Sekunden nötig ist, ist nicht akzeptabel. Kommentar o5 beschriebt es auch ganz passend.
 
@Nelson2k3: Hast du schon mal einen Realtek Treiber gesucht? Manche finde ich echt nur auf der taiwanesischen (?) Seite, und die ist seeeehr langsam :)
 
@Ðeru: Treiber nehm ich mal raus! Asrock ist in dieser Hinsicht auch sehr langsam... da muss ich dir Recht geben. Da bleibt einem auch nichts anderes übrig.
 
@Nelson2k3: Ich suche, öffne die besten Paar Resultate gleichzeitig (so ca. 10 stk) und wechsle dann zu demjenigen, welches am schnellsten geladen hat und kann die anderen dann in Ruhe später noch ansehen, wenn sie geladen haben. Tabs sind praktisch.
 
@3-R4Z0R: öffne die eigentlich in einem2ten Tab... ein dritter und vierter wäre aber auch eine Überlegung wert ;)
 
"Seiten-Betreiber, die sich um die Verbesserung der Ladegeschwindigkeit ihres Angebots kümmern" - klingt irgendwie WischiWaschi - oder ist damit auch nur wieder eine Spende an das Google AdWords-System gemeint? Wer baut denn absichtlich langsame Ladezeiten in seine Website ein?
 
@GordonFlash: es geht nicht darum, die mit langen Ladezeiten zu bestrafen, sondern die zu belohnen, die sich um kurze Ladezeiten bemühen
 
@zwutz: Ja aber wie "bemüht" man sich um eine Verbesserung der Ladegeschwindigkeit? Wie stellt Google diese Bemühungen konkret fest? Z.B. Das nur noch Google Ad-Server in die Seite integriert sind und nicht etwa die der Google-Konkurrenz? Sorry, für mich ist das immer noch WischiWaschi. Mir kann niemand erzählen, dass Google eine Datenbank führt, in der die Ladezeiten vor und nach "Kümmern um Verbesserung der Ladegeschwindigkeit" geführt wird. Oder sollen die SiteBetreiber bei Google anklopfen "Hallo, ich habe mich um die Verbesserung meiner Ladegeschwindigkeit gekümmert, darf ich jetzt 10 Rankings höher rutschen?" Ballaballa...
 
@GordonFlash: was gibt es da nicht zu verstehen: Wenn zwei Seiten durch die bisherigen Verfahren in etwa gleich auf liegen, was Relevanz und Wahrnehmung betrifft, wird in Zukunft die Seite, deren Startseite kleiner ist (im Sinne von weniger kb, aktivierte Komprimierung, keine unnötigen Bilder) ein Stückchen besser platziert als eine Seite mit 1600x1200-Hintergrundbild und deaktivierter Komprimierung.
 
@zwutz: Also am besten nur noch GoogleAds einblenden oder wie? Oder die Seiten für Googles Mobile Gedöns optimieren? Was sagt denn die Größe eines Hintergrundbildes oder "unnötige Bilder" über die Qualität der Seite oder ggf. Besucheransturm, Serverauslastung aus? Garnix. Ich finde, Google geht hier wieder einen weiteren Schritt dahin, die Autonomität der Website-Betreiber zu bevormunden, um ach nur in den heiligen Grahl der Suchmaschine aufgenommen zu werden oder nicht auf Seite 500 zu landen. Und jetzt wieder ein Minus Herr Zwutz...
 
@GordonFlash: Ich verstehe dein Problem nicht. Wenn ich eine Seite effizient programmiere, so dass sie schneller lädt, bin ich weiter vorne im Ranking. Tolle Sache. Und ja google führt für sowas datenbanken. Und konkret werden sie keine Verbesserungen bewerten, sondern - wie es auch in der News steht - Ladezeiten vergleichen und in Relationen zu den mit ähnlichen Inhalt setzen. Ob die Benutzung von google Ads ein höheres Ranking verursacht kann ich nicht sagen, wahrscheinlich niemand offiziell. Aber ich bin selber bei einem größeren Online-Magazin tätig und auch ohne Google Ads sind wir da oft genug auf Platz 1. Also hör mit dem Google-Bashing auf..
 
@Stratus-fan: Ja wird hier für den Google-Bot programmiert oder für wen? Das hat nichts mit Google-Bashing zu tun...
 
@GordonFlash: du hast mit dieser Unterstellung dein erstes Minus von mir heute verdient. Glückwunsch!
 
@GordonFlash: [re:2] "Ja aber wie "bemüht" ...." indem man seine seiten w3c konform macht, die seiten mit gzip ausliefert, verfallsdatum der headers deklariert, dns - lookups reduziert ... da gibt es eine menge, genau genommen sind es über 200 punkte die zu einem guten ranking einer webseite führen. schnelle webseiten werden ja nicht nur von google, sondern auch von yahoo und bing belohnt. sei doch froh, wenn google versucht das internet schneller zu machen.
 
Dann muss wohl so mancher lahmarschiger Ad-Server sich Gedanken machen, da diese häufig sehr böse an der Ladezeit ziehen.
 
@Fallen][Angel: Und auch die, die diese einsetzen.
 
Richtig so. Hoffentlich landen dann diese ganzen unnützen Weblogs, mit überlangen Seiten, die man mühelos meterweit nach unten scrollen kann und nicht optimierte Bilder im Megabyte-Bereich enthalten, auf den allerletzten Plätzen. Wenn diese dann noch auf einem miserablen Server liegen, dann sind Ladezeiten jenseits der 30-Sekunde-Grenze eher die Regel als die Ausnahme. Solche schwachsinnige Seiten liegen oftmals nur deswegen immer so weit vorne im Google-Ranking, weil sich dort über Jahre hinweg massig Suchbegriffe angesammelt haben. Alle Welt versucht die Seitendarstellung auf Geschwindigkeit zu optimieren und den Traffic zu reduzieren und solcher Mist macht alle Fortschritte im modernen Webdesign zunichte. Da ist sogar jeder gestraft, der seine Seite auf dem selben Server hostet. Dieser überfrachtete Unsinn mit total veralteten und oftmals unseriösen Inhalten gehört weg aus dem Top-Ranking.
 
@Ferrum: Aber zuerst sollten mal Links verbannt werden, die dann z.B. auf Foren führen, wo jemand genau die gleiche Frage wie man selbst gestellt hat, dann aber entweder gar keine Antwort vorhanden ist, oder bestenfalls irgendein Möchtergerntroll den Hinweis auf die Suchfunktion gibt, weil die Frage angeblich schon 1000 mal gestellt wurde. Und wenn man dann sucht, ebenfalls nur unbeantwortete oder zugespammte Beiträge findet ^^
 
@82567: Dies wird sich nicht kontrollieren lassen. Man sollte allerdings probieren Seiten mit mehreren Domains zu filtern. Da hat man 10 Suchergebnisse und alle führen mit unterschiedlichen Domains zur selben Seite.
 
Ohoh, die News nutzt in der Übersicht 2 Zeilen. Wird für BILDfuture wieder Zeit die Überschrift zu vergewaltigen!
 
@Snaeng: Versteh dein Problem nicht, was gibts an der Überschrift nicht zu verstehen?
 
Ich finde es dennoch etwas eigenartig in Zeiten von DSL und höher auf einmal auf die Ladegeschwindigkeit zu achten - die waren damals deutlich schlimmer wo wirklich noch mit BMP-Bildern und Frontpage en Masse gearbeitet wurde. Als Webdesigner hat man es momentan echt schwer. Auf der einen Seite muss viel Content auf die Seite damit Google viel Text bekommt nun jedoch sollen die Seiten klein werden damit auch die Smartphones und Co die Dinger laden können. Es soll im Grunde alles dynamisch sein und mit AJAX geladen werden, auf der anderen Seite muss die Seite aber auch Javascript-Abschaltern zugänglich sein und auf Nostalgiebrowsern wie dem IE6 laufen. Ehrlich das kann man nicht mehr alles unter einen Hut bringen..
 
@Mudder: Ein immer schneller werdendes Internet und immer bessere Hardware darf keine Entschuldigung für das rumschlapem von Programmierern sein.
 
@Spürnase: Wenn die Seite so mies programmiert ist, dann hat sie im Normalfall wegen dem Inhalt und nicht wegen der Ladezeiten nichts auf der 1. Seite von Google verloren. Aber viele Seiten sind gut programmiert, aber Grafiklastig. Man müsste nur nach "Wordpress Templates" oder so suchen und eine Seite die nur aus Text besteht würde nun ein Vorzug erhalten gegenüber der Seite die die ganzen Templates mit Vorschau-Grafiken präsentiert. Und das kann es nun doch auch nicht sein.
 
@Mudder: Was meinst du wieviele große Seitenbetreiber mit wichtigem Content extrem schlecht programmierte Seiten haben...
 
@Mudder: 1. Haben noch bei weitem nicht alle einen Breitbandanschluss und 2. war es damals auch nicht viel schlimmer als heute. Der Vorteil der größeren Bandbreite, wo man heutzutage gegenüber früher zusätzlich zur Verfügung hat, wird gleich wieder zunichte gemacht durch anderen Kram. Es werden zahlreiche, zusätzliche Inhalte auf die Seite gehauen. Früher gab es kaum derartig aufwändige Javascripts genauso wenig wie diese Flash-Seuche; Flash-Videos gab es sowieso nicht. Dazu kommt noch erheblich mehr interaktive Werbung mit aufwändigeren Animationen. Auch der Grafikanteil auf Webseiten ist gegenüber früher enorm gewachsen. Früher wurden Seiten noch für VGA-Auflösung ausgelegt. Heutzutage ist mindestens WXGA die Regel. Damals hat gar nicht soviel Ballast auf eine Seite gepasst, wie es heute üblich ist. Die Bandbreite an Möglichkeiten ist viel größer geworden und dadurch dass diese auch genutzt wird, steigt auch zwangsläufig der Traffic an. Breitbandanschlüsse sind nicht nur wegen dicken Downloads notwendig geworden. Viele Webseiten sind zwar mit den erweiterten Möglichkeiten mitgewachsen, aber nicht alle können oder wollen sich auch mit der Optimierung auseinandersetzen und Altlasten über Bord werfen. Es gibt zahlreiche Seiten im Netz, die selbst bei dicken Breitbandanschlüssen und guter Serverstruktur 10s Ladezeit oder deutlich mehr benötigen. Die gleichen Seitenladezeiten gab es auch schon vor 10 Jahren mit 56k-Modems. Insofern ist es schon traurig, wenn einige meinen, die Ladezeiten nicht mehr berücksichtigen zu müssen. So etwas zeugt von Arroganz und Rücksichtslosigkeit.
 
Da werden die ganzen Warez Seiten sich aber ärgern die ihre Seiten auf HostingPanama oder Heihachi haben wegen WhoisProtect.
 
@JacksBauer: Auch ganz gut so. Das diese Szene so in den Mittelpunkt geraten ist, beschert uns ja diese tolle neue Gesetzgebung.
 
Flashseiten runterstufen. Ich hoffe, dass es dazu führen wird. Diese debilen Ladebalken, die Flashseiten unweigerlich begleiten, nerven.
 
@Kirill: Wird das Flash-Geraffel eigentlich von Suchmaschinen überhaupt erfasst?
 
@arge123: Noch ein Problem mit Flashseiten: Nein.
 
@Kirill: Eigentlich kein Problem, wenn man Flash punktuell und sinnvoll einsetzt.
 
@arge123: Ja, wie auf YouTube für Videos. Ich rede hier aber von Seiten, die vollständig in Flash sind, was ein totaler Mist ist.
 
@Kirill: Wenn Flash von den Suchmaschinen nicht erfasst wird, dann braucht man sie auch nicht runterstufen. Wo nix ist, kann man auch nix runterstufen.
 
das google schnelle und vorallem w3c konforme seiten besser plaziert kann ich nur bestättigen. nur das ist harte arbeit und dazu muss google selbst optimiert werden sofern analytics oder sonst einen dienst bezogen wird. um unnötige dns - lookups zu vermeiden kann man diese dienste nur lokal hosten um eine optimale ladezeit zu garantieren.
 
Google kann tun was sie wollen, sie werden so schnell sowieso nicht an die Suche von Apple rannkommen, da helfen solche kleinigkeiten auch nix!
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles