Web-Traffic zu 51% nicht von Menschen verursacht

Webserver liefern inzwischen nur noch einen Minderheitsanteil der von ihnen verschickten Daten an Menschen aus. 51 Prozent des Traffics wird durch verschiedenste automatisierte Software-Tools im Netz verursacht. Das ergab eine Analyse des ... mehr... Internet, Daten, Netzwerk, Router, Dsl, Kabel, Ethernet Bildquelle: secretlondon123 / Flickr Internet, Daten, Netzwerk, Router, Dsl, Kabel, Ethernet Internet, Daten, Netzwerk, Router, Dsl, Kabel, Ethernet secretlondon123 / Flickr

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"Die übrigen zwei Prozent entfallen schließlich auf Scripte von Kommentar-Spammern." Kommentar-Spammern? Wohl eher Werbespammer!
 
@bLu3t0oth: werbe-spammer nerven, aber kommentar-spammer ebenso... hätte mehr als 2% erwartet... die unterhalten ein forum ganz alleine und antworten auch gerne automatisiert auf ältere beiträge, sobald ein neuer erstellt wird (zumindest sind das in meinen augen auch spammer), so dass der neue beitrag innerhalb kurzer zeit auf seite 2 rutscht und erstmal nicht mehr direkt sichtbar ist
 
@bLu3t0oth: Ich glaube es geht darum, dass diese mit werbung in Kommentaren spammen. Aber das das fast 1/24 der "normalen" Webnutzung entspricht ist schon krass
 
@DRMfan^^: Ich habe das schon verstanden...
 
diese spammer fallen mir auch sehr oft auf. phpbb muss man zwingend aktuell halten sonst wird man geflutet - man braucht nur testweise ein php gästebuch machen für public ohne captcha oder ähnlichem und schon wird es geflutet mit spam
 
@freakedenough: Und dennoch sind Captchas mindestens eine genau so große Seuche wie die Spamner selbst. Entweder die Captchas sind so gut lesbar, dass heutige Bots damit kein Problem mehr haben oder sind so schlecht zu lesen, dass Menschen mit Sehschwächen ausgeschlossen werden. Es gibt da sehr viel sinnvollere und barrierefreie Methoden zur Spambekämpfung als dieser Dreck. Captchas gehören meiner Meinung nach unter Androhung von Ausschluss der Webadresse aus dem Suchindex verboten.

Edit: Bei Filehostern greife ich teilweise nur deswegen zu automatisierten Downloadern und Tools, weil ich eben das Captcha nicht lesen kann. Das Tool aber schon und nach spätestens zwei oder drei Versuchen richtig liegt.
 
@Memfis: Du sprichst mir aus der Seele!
 
@Memfis: Ähm.... CAPTCHAs sind alle Methoden, Bots & Menschen zu unterscheiden.... Aber davon ab: was findest du denn besser, als die Bilder?
 
@DRMfan^^: Auf dieser Seite werden beispielsweise einige Techniken genannt, die jeder Hobbyentwickler problemlos anwenden kann. Davon abgesehen erwarte ich von professionellen Webentwicklern etwas Kreativität. Bots sind eben keine Menschen und unterm Strich eben doch dumm genug um sich verarschen zu lassen. Das schließt natürlich Bots aus, die speziell auf Sicherheitslücken, Bugs oder eine Seite programmiert wurden. http://www.1ngo.de/web/captcha-spam.html
 
@Memfis: Danke für den Link, ein netter Text! - Auch wenn ich da Probleme sehe. Auch wenn ich einiges davon kritisch sehe, besonders "Umbruch extrem langer Zeichenfolgen durch Einfügen von Leerzeichen schließlich dient nicht nur der Stabilisierung des Layouts einer Seite. " - Das ist ein absoluter Graus für Nutzbarkeit, wenn urls abgeschnitten werden. Ist es dann wirklich besser, einen verschleiernden kurzurl-Dienst nutzen zu müssen?! Ebenso brauche ich oft weniger als 16 Sekunden für einen Post......
 
Die haben einge wohl in dem Knochenhohlraum zwischen Den Schultern ;-)
 
Ab welcher Prozentzahl verselbstständigt sich das Netz eigentlich und kann getrost in Skynet umbenannt werden? ^^
 
@DennisMoore: naja, leute so abwegig ist der Gedanke nun auch wieder nicht!
 
@SpiritOfMatrix: ach Mist, falsch gedrückt... Unsere Welt ist immer Vernetzter und wird immer komplexer. Außerdem werden die Rechner immer leistungsstärkster. Ab wann kann man mit einem Bewusstsein bei diesem System rechnen? Ich meine nicht das eintreffen wird, aber ausgeschlossen ist nun mal nicht. Evolution nennt man so was. ;)
 
@DennisMoore: 52%, sind quasi kurz davor. ist ja auch logisch. 2012 ist ja eh alles vorbei
 
@Toasta: Ob die Maja das schon geahnt haben und den Kalender deswegen auslaufen ließen?
 
@DennisMoore: ich wüsste keine andere erklärung
 
@DennisMoore: Das frage ich mich am Jahresende bei gegenwärtigen Kalendern auch immer. Warum hört das Teil einfach bei der letzten Seite auf. Mal daran gedacht, dass es sehr schwierig ist einen Kalender so lange vorzuberechnen und man einfach irgendwann aufhören muss und es späteren Generationen überlässt. Dennoch ist das Alles ziemlicher Käse, da es laut Medien-Guru nur ein, zwei überlieferte Schriftstücke gibt, weil den Spaniern kalt unterm Helm war.
 
@DennisMoore: 42
 
Wird auch schon Zeit das Provider auf das Problem reagieren. Java Bot`s oder Crawler ohne Kennung machen einem das Leben als Webseiten Betreiber nicht gerade einfacher. Die zu sperren ist kein Problem, nur hält sich auch so mancher guter Bot nicht an die Regeln.
 
Meint die Zahl Internet-Traffic oder WWW-Traffic? Das wird aus dem Bericht nicht klar.
 
@Nunk-Junge: "Webserver liefern inzwischen nur noch einen Minderheitsanteil der von ihnen verschickten Daten an Menschen aus." Also gehts um die Protokolle HTTP und HTTPS, ergo Web-Traffic ;) Diese "Analyse" ist aber ziemlich vage und sieht mehr nach Werbung fürs eigene Produkt aus. http://goo.gl/VpJni
 
@_rabba_u_k_e_: Danke. Der Absatz mit den Hacking-Tools ließ mich daran etwas zweifeln. Bei uns sieht man in den Firewall-Logs massive Angriffe auf alle möglichen Rechner/Adressen, nicht nur auf die Webserver. Dazu gehören zum Beispiel dauernde Port-Scans. Aber wenn hier nur der Web-Traffic gemeint ist, dann ist das natürlich eine ganz andere Aussage.
 
Also nicht von Menschen verursacht kann man auch nicht wirklich sagen. Ein Computer macht genau das, was ihm der Mensch/Programmierer sagt. Also haben indirekt Programmierer das so geschrieben.
 
@fabi280: Ja, eigentlich sollte es heißen: "Web-Traffic zu 51% nicht von Browsern verursacht"
 
Dachte schon, die Haustiere wären schuld...
 
@voytela: Ich hätte da eher auf Kühlschränke, die automatisch das Essen nachbestellen, getippt. ;D
 
unterm Strich ist es trotzdem der Mensch, der es verursacht. Noch ist die KI nicht so weit für derart selbständiges Handeln
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte