Google dringt nun noch tiefer in das Internet vor

Internet & Webdienste Der Suchmaschinenbetreiber Google hat angekündigt, dass man zukünftig auch Internetseiten erfassen will, die sich hinter einem Formular verstecken, das normalerweise von den Besuchern ausgefüllt wird. Damit will das Unternehmen seinen Suchindex ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Als nächstes werden dann noch E-Mails in Gmail indiziert und für jeden abrufbar und durchsuchbar gemacht, um den Suchindex zu vergrößern.
 
@Tienchen: *Als nächstes werden dann noch E-Mails in Gmail indiziert*

Passiert schon längst.
 
@Tienchen: Ach Quatsch! Die wären ja doof!
Die würden ha all ihre Nutzer verlieren (also auch mich), würden sie das machen.
 
@cmaus@mac.com: Schon mal die Datenschutzbestimmungen studiert, du Naivling? @Animotion: Aber es passiert nicht um anderen Nutzern das Durchsuchen zu ermöglichen, sondern nur um Profile zu erstellen, die dann an Dritt-Firmen verkauft werden können. Also nur halb so schlimm ^^
 
@cmaus@mac.com: das war kein Scherz! Google durchsucht tatsächlich deine Mails bei gmail nach Schlagwörtern und platziert passende Werbung dazu.

Quelle: http://tinyurl.com/3koryl
 
Mal sehen was der googlebot so alles bestellt und wie oft er Rechnung bekommt (IP), weil er sich seine Restlebenszeit ausrechnen lässt oder andere Abzockseiten besucht.
 
@modelcaster: hm mit modifizierten Webseiten wär das bestimmt möglich
 
Ich bin gespannt auf die kommenden paranoia-posts.
 
Also reicht ein einfaches input-type-password um dem Bot das eintreten zu verwehren?
 
@CruZad3r: es reicht ja schon wenn du die robots.txt anpasst
 
@CruZad3r: wie mach ich das? Hab ich noch nie mit gearbeitet. Kann ich das auch verwenden, wenn ich nur eine Sub-Domain von funpic.de habe?
 
@CruZad3r: Funpic, hmm... Wenn es denn unbedingt ein Freehoster sein muss (die kann man zwar alle in der Pfeife rauchen, aber nun gut): Ja, kann man, sollte nicht Hoster abhängig sein. Such doch einfach mal (ok^^), hier ein Link: http://www.searchcode.de/robotstxt.php Oder das Altbewährte SelfHTML: http://de.selfhtml.org/diverses/robots.htm
Normalerweise sollte auch ein Captcha im Kontaktformular reichen (ich frage mich eh, wer heutzutage noch ein Formular ohne Captcha oder Registrierung verwendet, und mit Captcha meine ich die ganze Bandbreite, nicht bloß die lustigen Ratebildchen...)
 
[quote]
In Formularen verwendete Menüs, Checkboxen und Radio-Buttons hindern den Crawler nicht - er generiert passende URLs, die dann mit in den Index aufgenommen werden können.[/quote]

D.h. wenn ich in google zukünftig einen Link finde und ihn anklicke könnte es passieren das ich auf eine Webseite geleitet werde und im Hintergrund quasi automatisch das Formular so abgeschickt habe wie google es beim crawlen ausgefüllt hatte???

Da werden sich die Webmaster aber freuen.
 
@medwurst: Und wie die sich dann freuen. Ich eingeschlossen. Dann muss man echt für jedes hirnverbrannte Kontaktformular ein captcha einbauen, obwohl ich diese Dinger hasse. Wie oft kommt es vor das man den Zahlensalat falsch ausliest und alle Eingaben für die Tonne sind. Nicht bei vernünftig gestalteten Kontaktforms, aber dennoch mehr als nur einmal passiert. Die sollen sich mal ein wenig zurückhalten von Google und nicht solchen hirnverbrannten Ideen nachjagen.
 
Warum geht die EU nicht auch endlich mal gegen die Google-Schmarotzer vor?
 
@metusalemchen: Was soll die EU machen und warum?!
 
@metusalemchen: Verwende lieber keine Wörter, deren Sinn Du nicht kennst :-))
 
was ist mit kontaktformularen? oder empfehlungsformularen?
 
@andreasm: Es wird sicher keine kontaktformularen ausfüllen. das macht ueberhaupt kein sinn und google hat auch nichts davon ausser verärgerte web- programmierer und -users.
ich glaube, es wird keine formular ausgefüllt wo man name, adresse, email usw. eingeben muss. es macht aber sinn seite zu indizieren, die nach auswahlkriterien geöffnet werden, wie zB bei der treibersuche ( hersteller, gerätname, betriebsystem ).
 
Google such schon seit einigen Wochen so. Habe auf ner kleinen Firmenseite ein interne Suche (Eigenlösung) und seit ca. 3 Wochen crawlt der Googelbot pro Tag zwischen 500-1000 Suchbegriffe durch...
 
@CaptHowdy: Warum stellst du das dann nicht mithilfe der robots.txt ab? Geht doch problemlos
 
@Harald.L: Prinzipiell hab ich nix dagegen wenn die Seite besser gefunden wird. Das ich dieses Verhalten mit robots und Co. beeinflussen kann ist mir schon klar.
 
Was passiert denn wenn der Crawler auf Google.com kommt und das Formular mit einem bekannte Begriff ausfüllt?
 
@Kloeti: Ja klar... eine Suchmaschine durchsucht sich selbst... Also ganz so doof sind die Google-Programmierer nun auch wieder nicht! Aber was soll schon passieren ? Dann würde halt beim Eintippen in der Suche ein Link zu der selben Suche angegeben - und nun ? Passiert so wieso schon mit ähnlich klingenden/schreibenden Suchbegriffen.
 
Sooo, Google! Ich werde mich gleich in die Matrix einloggen, dann hast du auch völllige kontrolle über mich. - tzzzz, ich wiederhole mich zwar, aber was für eine perverse Firma! Die sollen ja meine Page in ruhe lassen (hab ja desswegen extra wenig Meta-Tags). Peace.
 
@DARK-THREAT: Hmm, Meta-Tags weglassen bringt relativ wenig. Meta-Tags haben kaum bis gar keinen Einfluss auf eine Google-Platzierung. Oder anders gesagt: Es ist vielleicht unter den etwa 25 verschiedenen Kriterien wo was und wie bei welchem Suchbegriff etwas gelistet wird an 23. Stelle.
 
@Tienchen: Schade. Zum Glück hatte ich bissher weniger Probleme mit Google-Bots. Und, wer auf meiner Page geht, der kennt sie meißt (konstante Besucherzahl). Jedoch bin ich bei Google, denk ich auf P1 gelistet. Ich geh nicht auf Google, desswegen schätze ich das nur mal. Peace.
 
@DARK-THREAT: Naja, ich sage mal so: Ein Suchmaschinen Bot ist ja an und für sich nichts negatives, sie sehen eher weniger als mehr als ein menschlicher Besucher. Ich bemerke, dass (subjektiv) am meisten Google, gefolgt von Yahoo, danach MSN (Live) meine Seite durchwühlt. Hindern kann man sie nur durch z.B. eine Flash Seite, Einsatz von Javascript, keinerlei Links irgendwo hinsetzen, der Einsatz von Captchas eine rigorose robots.txt, oder htaccess Schutz (IP-Adressen aussperren z.B.). Aber das ist natürlich (bis auf letzte beiden) auch sehr Benutzer unfreundlich. Und eigentlich schadet eine gute Suchmaschinenplatzierung (sofern man an Besuchern interessiert ist) weniger als sie nützt. Für manche Seiten wende ich auch extra SEO Tricks an, damit sie oben stehen, und das zahlt sich denke ich auch aus. Aber du kennst ja meine sehr kritische Einstellung gegenüber Google...
 
@Tienchen: Ja, man ist nie mehr im Internet Googleunabhängig. Jedes wird damit verbunden, wer will oder nicht. Mit meiner Page versuche ich, die Leute, die sich dafür interessieren zu informieren. Besuchergeil bin ich schon lang nichtmehr, bei über 12'000 Besucher. Du kennst ja auch meine Einstellung gegenüber Google, da sind wir uns sicher einig. Peace.
 
mir kommen echt die tränen aber vor lachen, wenn man hier so einiges liest. angst davor das google eine mail oder sonstwas lesen kann, aber windows installiert haben.
 
@OSlin: Und da kommt dann schon der Linux Troll aus seiner Höhle hervor, und beschwert sich über die böse CS und der Möglichkeit Leute abzuhören, die bei fast einer Mrd.? PC noch nicht aufgeflogen ist...
 
@OSlin: Troll da house. Ich wüsste nicht, was Windows (sprich: Microsoft) von mir persönlich will. Bei Google sehr wohl.
 
@ Tienchen: Richtig! Microsoft möchte lediglich wissen, ob ihr Windows auch gekauft wurde. Bzw ihre Daten nicht verändert werden (da ja es immernoch MS Daten sind, und nicht unsere. wir haben nur die lizens, sie zu nutzen). Bei Google sieht es gewaltig anders aus. Sie wollen unsere aktivitäten wissen. Alles was, wo, wie und warum wir machen. Und das beweisen die Dienste von Google und deren Pläne. Peace.
 
Sie sollten stattdessen lieber ihren Suchmechanismus verbessern. Mich nervt des Öfteren, dass Seiten angezeigt werden, bei denen die Suchbegriffe in Menüs oder sogar Text-Anzeigen vorkommen. Ebenso die Bildersuche: wer sucht denn nach Bildern, die 50x50 Pixel groß sind? Wenn sich die Windows-Live Suche weiter so schnell verbessert, steige ich um.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles