Google: Wir brauchen noch 300 Jahre

Wirtschaft & Firmen Voreilige Mission Completed-Statements, wie sie beispielsweise George W. Bush damals verbreitete, wird es von Google nicht geben. Auf der jährlichen Konferenz der US-Werbetreibenden beantwortete Eric Schmidt, CEO von Google, die aufkommende Frage, ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
LoL, und bis dahin wird es noch mehr Seiten geben die sie ja dann auch noch reinpacken müssen, also wirst wohl eine lebens aufgabe, oder?
 
@[__->Mr.D: lebensaufgabe für die googlemitarbeiter oder für die server von google? weil für die mitarbeiter isses ja jetzt schon ne lebensaufgabe, wenn die 300 jahre brauchen
 
@[__->Mr.D: aber auch schnellere rechner. die hardwareleistung steigt aus meiner sicht schneller als internetverbreitung
 
Bis dahin dürten es aber wieder so viele neue Informationen geben die sie dann auch noch nicht indexiert haben.
 
@mike1212: Das sowie die Möglichkeit schneller werdender Prozessoren und Rechenmöglichkeiten sind da bereits eingerechnet. Es handelt sich hier nämlich um BERECHNUNGEN und nicht, wie du offenbar annimmst eine Schätzung Minderbemittelter. :)
 
@BernieErt
natürlich handelt es sich um eine Schätzung. Schon die Grundgesamtheit wird ja nur geschätzt. (5Exabyte). Klar wird mit diesem Schätzwert dann wirklich gerechnet, aber in der Statistik gibt es nur wenig harte Fakten - mit ein Grund weshalb man die Statistik erfunden hat. Um von wenig harten Fakten verlässliche Werte abzuschätzen.
 
Ich kann mseiferle nur zustimmen. Die können auch nicht abschätzen, welche PCs bis dahin exisitieren, sondern nur hochrechnen. Es kann genauso gut sein, dass die Technik ins stangieren kommt, wie es heute bei Intel und den Pentium 4 ist und die Entwicklung wesentlich langsamer wird oder ein Monopol wie damals bei nVidia die Entwicklung entscheidend verlangsamt oder ein bedeutender Sprung zu einer ganz neuen Technik alles extrem beschleunigt. Es ist auf jeden Fall ein sehr wackliges Konstrukt, weil die Hälfte der Daten auf Schätzungen basiert. Ist aber interessant, dass man grob 300 Jahre brauchen würde.
 
"Erst in 300 Jahren wird man dann also mit genauer Sicherheit sagen können, dass wenn auf eine Suchanfrage keine Resultate angezeigt werden, dass es definitiv keine Information darüber gibt." - Schade nur dass bei dieser Aussage die menschliche Eigenheit, Suchanfragen missverständlich und ungenau zu formulieren, außer Acht gelassen wird.
 
@DON666: Sag ich doch! :P
 
Interessant wäre zu wissen ob in der mathematischen Formel auch die wachsende Geschwindigkeit der Computer (man kann schneller die Seiten indexieren) und auch das Wachstum mit berrücksicht wurden, oder die Änderungen auf den schon bisher indexierten Seiten. Das Internet ist wie das Universum es verändert sich ständig und man wird nie alles wissen was drin vorgeht.
 
Da muss wohl ne Lösung her damit es flotter geht :)
 
@Mr.D: lebst du 300 jahre ?
 
@rUbicOn: ich bin schon 349 Jahre alt! :P NATÜRLICH NICHT, aber denkst du wirklich nur an dich und nicht an die nächsten Generationen???
 
na da lassen sich doch arbeitsplätze schaffen um die 300 jahre zu verkürzen! :)
schaue gerade die presserkonferenzen..... alles wichtige bleibt bei der SPD :( :( :(
 
@timohepolis: Das Thema "Angela Merkel wird deutsche Bundeskanzlerin" kann hier im Forum ausdiskutiert werden:
http://www.winfuture-forum.de/index.php?showtopic=54158
 
@timohepolis: ich würd eher sagen die sollen arbeitsplätze umstrukturiren oder abbauen damit das schneller geht O_o denkste die menschen suchen da die seiten nee die sollten arbeitsplätze abschaffen udn dafür mehr rechner anschaffen :P
 
oh gott dieses gesicht die nächsten vier jahre......das hat deutschland nicht verdient!und so etwas soll dieses land im ausland vertreten....das kann man ja nicht ernst nehmen.
 
@susumo: Ich habe den obigen Link zum Forum ja eigenlich extra gepostet damit dieses Thema nicht hier sondern im Forum ausdiskutiert wird. Mit dem Thema Google hat dein Kommentar ja sicherlich nichts zu tun.
 
@susumo: Dich nach diesem Statement aber auch nicht.
 
Es wird weder einem Menschen noch einem Computer je gelingen das gesamte Wissen oder alle Informationen des Internets zu besitzen. Pro Tag kommen mehr als 1 Millionen neuer Seiten ins Netz. Wie also soll das funktionieren? Und in 300 Jahren werden wir die Computer wie wir sie heue kennen nicht mehr haben. Etweder ist die Menscheit bis dahin vernichtete oder wir haben eine Zukunft wie z.B. in Star Trek NG. Aber Computer wie wir sie heute kennen wird es dann nicht mehr geben. Es ist volkommen unmöglich das je eine Mensch oder eine Maschine das gesamte Wissen in sich vereint, selbst dann nicht wenn es sich "nur" auf das Internet bezieht.
 
Das aktuelle wird ja immer direkt indiziert denke ich mir mal und man braucht 300 Jahre bis man das indiziert, was noch nicht gemacht wurde. So habe ich das verstanden.
 
naja das weiß man nie so genau ^^ auch wenn sie alles mögliche brechnet haben , was rein theoretisch cniht möglich ist, den man stelle sich vor das alle mschen mit einander in verbindung stehen, sowie alle Computer, das alles opensource ist, wisst ihr was für ne Power das wäre?? der mensch kann so viel erreichen jedoch steht sein ego ihm dabei im wege ^^ aber naja jetzt mal was anderes, stellt euch das mal so vor wie viel mist bei der suche jetzt schon rauskommt, was passiert erst wenn der gesammte mist da aufgelistet wird xD ???
 
@redlabour: http://www.heise.de :)
 
@redlabour: Oder ORF FutureZone, und tausend andere. :-)
 
jetzt kommt sicher eine Berechnung von yahoo oder msn raus, dass sie das ganze internet schon in 299 jahren oder noch früher indexiert haben werden.
 
@Ijob: hehe, wär ma was :D
 
was nützt ein riesen index der sich primär (bzw. ohne zusatztools) nur darauf ausrichtet irgendwelche sachen in anderen suchmaschinen zu suchen???
ich nutze keine suchmaschine um als ergebnis wiederum einen link zu ner ergebnisseite einer anderen suchmaschiene zu bekommen. die sollten lieber darauf achten das man informationen schnell findet und das diese informationen sich nich nur auf "KAUFE HIER" beschränken, sondern auch sofort anwendbares wissen sollte oben gelistet sein. das regt mich so derb bei google auf.
da können noch so viele seiten indexiert sein - nur ein bruchteil dessen ist wirklich information - der rest ist entweder durch falsche schlagwörter versehentlich in die suchergebnisse reingerutscht bzw. als werbung zu bezeichnen.
 
In 300 Jahren wird es kein Inet mehr geben - ganz klar - all die ganzen Abmahnwellen und die Entwicklungen werden dann das Internet verändern oder gar abschaffen - vielleicht etwas anderes "besseres" schaffen :) - aber die Zahl "Exabyte" ist ja Hammergoil
 
@Voll_die_Seuche:
Exabyte is wohl doch eher ne Einheit als ne Zahl.
 
Bedenkt man, daß die Menge aller relevanter Informationen auf diesem Planeten (für eine hinreichend vernünftige Definition von Relevanz) selbst nur wenige Exabyte betragen würden, so hätten wir in 10-20 Jahren die Technologie, wirklich ALLLES zu speichern. Scheiße ist das Internet redundant. Und wenn man sowas wirklich in Angriff nehmen würde, nimmt man natürlich nicht die Indexmethoden von Google.
 
wär es nicht einfacher eine funktion einzubauen, die texte/themen der erstellten internetseite ausliest und man die möglichkeit hat dies an google zu senden ?!?! so ähnlich wie es jetzt für eintragungen in suchmaschinen der fall ist.somit würden neue seiten gleich indiziert werden und man müsste nur die bestehenden seiten halt 300 jahre nachtragen bzw. nachindizieren :-)
 
300 Jahre? Behaupten kann man ja viel aber von uns wird keiner nachprüfen können ob das Wirklich gelungen ist. Vielleicht sollte man deshalb diese News speichern und jeder neuen Generation weiter vererben, damit unsere Nachkommen in 300 Jahren darüber witzeln können. =)
 
Ich finde es übel, dass in einigen Jahrzehnten fast das gesamte Wissen/Informationen nur noch in digitaler Form zu Verfügung steht. Wenn in ferner Zukunft niemand mehr die Daten decodieren/lesen kann (was auch immer in den nächsten 300 Jahren mit der Menschheit passieren könnte), ist alles Wissen futsch. Das hatten die Ägypter z.B. besser gelöst. Einfach das Wissen in Steine gekloppt und selbst nach 2000 Jahren können es Menschen noch lesen, ohne aufwendige Technik oder Google :-)
 
Na dann bin ich ja beruhigt... Noch 300 Jahre bis zur Weltherrschaft !!!
 
@Wilma: Weltherrschaft? Meinst du Google damit? Da ist was dran! Google könnte gesuchte Informationen geziehlt an Benutzer steuern. Wer weiss, ob die ersten Treffer immer die richtigen sind oder andere Informationen erst gar nicht indexiert werden. Hinter Google steckt für mich auf jeden Fall eine Art von "Wissens-Macht". Ich kenne viele Benutzer, die sich ohne Google im Internet nicht zurecht finden. Google hat Macht! Auf jeden Fall!
 
Das Internet wird aufgespalten in Internet, Googlenet und Microsoftnet. Im Internet findet man dann nur noch Müll, deshalb sperren es die Firmen meistens. Im Googlenet findet man alles das, was man mag, ohne auch nur ein einziger Mal klicken zu müssen - Google schickt dir die Inhalte, schließlich wissen sie ja ganz genau, was du willst. Im Microsoftnet kann man nur rein, wenn man Windows Vista Ultimate, einen Fingerabdruck- und Irisscanner, einen implantierten RFID-Chip und eine große Kredikarte hat.
 
@Rika: Danke Rika!! Endlich jemand der das Internet verstanden hat!
 
Ich versteh nicht genau was google mit Indexieren meint. Meinen die damit alle Internetseiten die aufgelistet sind oder wie geht das ?
 
Wenn es so viele Seiten gibt wo sind die dann alle? Achja wie find ich die die noch nicht in Google sind?
 
Naja... 300 Jahre... in den letzten 10 Jahren hat sich das Weltwissen verdopplelt... und der tech. Fortschritt in den letzten 10 Jahren jatzt mal nur auf den Computer bezogen... 300 JAHRE?? 8-|
 
sowas kann man gar nicht berechnen. Bzw. nur aus der heutigen Sicht. In 300 Jahren wird das Internet in der Form wie wir es kennen wahrscheinlich gar nicht mehr existieren. Denke da eher sowas wie an Matrix in die Richtung :P
 
Minus, Warez & Co. = Minus 100 Jahre :-)
 
1 Exabyte (EB, 10 hoch 18 Byte)

1 Terabyte (TB, 10 hoch 12 Byte)

heisst dass, daß 1 exabyte 1.000 terabyte sind ?

ich hab mich grad emal an die vorstellbarkeit eines terabyte gewöhnt__-gg
seit letzter woche hab ich grade ma "nur" 1,04 TB

und es is unvorstellbar...was bei einem exabyte an daten alles zusammenkommt.
absolut die vorstellungskraft sprengend...

(wenn man sich nicht gerade vorstellt, dass jemand 5.000 filme in dvd-qualität auf dem festplattenspeicher gelagert hat)....

allein schon 1gb nur text is schon hammer...
naja...in 2-4 jahren wird man sich so ans TB gewöhnt haben, wie mittlerweile ans gb

gruß
 
@obiwankenobi: ein TB sind doch nichts, ich kenn leute daie alle DVDs die sie haben auf PC kopieren ungeshrinkt und dann ihren PC als mediacenter benutzen, nun rechne doch mal 1000/9 = 111 ca, das ist total wenig viele von den leuten haben viel mehr DVDs deshalb wird geschrinkt und haben dann teilweise mehr als 2-3TB , zwar nciht alles in einem rechner aber sie habens. ein TB sind wenig reichen mir ncihtmal udn man stelle sich vor ich habe gerade mal 5 CDs!!!!! auf festplatte und sonst alles andere daten und da wird es schon mit TB eng :)
 
@LittleD: Ich kann nicht verstehen, wie du 1 TB als wenig bezeichnen kannst. Es sind ~1000 GB! Nur weil manche 2-3 TB zusammenkriegen, was nach meiner Rechnung 5-6 500 GB Festplatten sind, also ca. 1500-2000 EUR!!! Es gibt Leute, die haben Millionen Euro, aber ist das deshalb wenig, weil es welche gibt, die Milliarden haben? Der Durchschnitt hat 100 oder 200 GB.
 
ah,habs grade gefunden..
petabyte kommt noch zwischen terabyte und exabyte :-)

 
Die Gesamtheit aller gedruckten Werke wird auf 0,2 EB geschätzt

WOW
 
Unglaublich 200 Mio GB !? Richtig!?
 
Zetta und Yota währen dann die nächst grösseren nach EB.
Yota: = 10 hoch 24 / Zetta: =10 hoch 21
 
Im Grunde erübrigt sich jede Diskussion über die Google-Angaben, wenn man bedenkt, wo wir technologisch im Jahr 1705 standen. Eines ist allerdings bedenklich. Je schneller die mit immer neueren Techniken erfaßten Informationen anwachsen, je mehr geht auch an Informationen verloren. Schon heute gibt es bei der NASA Magnetbänder aus dem Beginn der Mondflüge, die heute nicht mehr entschlüsselt werden können / lesbar sind. weil die Technik dazu verloren ging und die Fachleute mit dem nötigen Wissen von damals auch nicht mehr vorhanden sind.
 
@uechel: Ist das wirklich wahr? Kann man diese Bänder wirklich nicht mehr nutzen? Gibt es denn keine Dokumentationen, dass man diese Technik nachbauen kann?
 
@The_Jackal: Dies ist wirklich wahr.Ich habe es bei einem Symposium von internationalen Archivaren und Informations-Wissenschaftlern von US-Teilnehmern als Beispiel für die Problematik in der Informationsverarbeitung bzw. -archivierung erfahren.Diese Bänder (nicht alle) wurden im Original aufbewahrt ohne Dokumentation zur Technik und ohne Konvertierung auf moderne Info-Techniken.Diese Konvertierung müsste praktisch bei jedem Generationswechsel der Speichermedien erfolgen. Bei der Masse der Informationen bleiben ganz einfach einige ausser Acht, was dann zu Problemen führt.Und wer weiss heute schon, was in einhundert oder dreihundert Jahren
oder noch später von Bedeutung ist.
 
hmm ich glaube es heisst indiziert, (so wie du es schon geschrieben hattest) anstatt indexiert.
 
Keine Ahnung, wie so eine Indexierung funktionier... Ich dachte immer, das es ähnlich ist wie eine Dateisuche von Windoof: Suche Datei *.* mit text MZ inhalt, sprich Google scannt das inet nach einträgen... wobei egal ist ob auf ner Homepage 100 GB oder 10 GB liegen, es ermittelt lediglich die Größe aller auf der Page enthaltenen Dateien sowie deren Bezeichnung und verlinkt diese lediglich, bzw. verlinkt die namen der Pages....

GERÜCHTE:
P.S: Wustet ihr eigentlich, das die gute alte command.com angeblich ne .exe is, außerdem soll jegliche .exe mit MZ beginnen... Was die inizialien eines führenden M$ chefprogrammiers seinen sollen... lol soviel zur hackermentalität von M$ Chefprogrmmierern...

mfg TITANsteel
 
@TITAN>Steel: richtig :) ich habe von häckern gehört, das, wenn man die command.com dekompeilt, dann ist es eigentlich eine command.exe :) hehehehe..... und welcher M$ Chefprogrammierer die inizialien MZ traegt, müsste man rausfinden....... nun, diese MZ werden ausschließlich im kompelierten .exe dateien sichtbar, beim coden mit einer höheren Programmiersprache gibt man die beiden buchstaben nicht wissentlich ein. Ich denke, es ist in einer der routinen codiert, auf welche Assembler und C++ zugreifen und die zweite frage, wenn man die Buchstaben ändert, bzw. löscht, startet dann noch die .exe ... also haben die beiden Buchstaben einen sinn im code der exe.
 
@TITAN>Steel: ich meine, eine beliebige .exe im notepad öffnen, dann hat man diesen Zeichensalat....
 
Google ist ziemlich schlecht im Vergleich zu MSN bspw.
Ich bin niemand der pro M$ ist, ganz im Gegenteil, aber...

Der Google Index wird nur alle 6-8 Wochen neu aufgebaut
Daher sind die Suchergebnisse bei Google bis zu 8 Wochen alt.
Ich habe bspw. letztens meine Homepage Meta-Description geändert
In Google steht zwar die neue drin (da der Crawler von Google ja inhaltliche Änderungen bei bereits indexierten Sieten überwacht und aufnimmt), aber die URL (Domain) der HP ist noch die alte (die hatte ich geändert) drin ~_~ während MSN das (fast) direkt geändert hatte.

Das erklärt auch warum Google 300 Jahre braucht. Es werden ja nur alle 6
Wochen neue Seiten erfasst ~_~
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles