TCP/IP soll durch grundlegend anderes Konzept ersetzt werden

Das altbekannte TCP/IP als Grundlage des Datenverkehrs im Internet und die damit einhergehenden Strukturen sollen in absehbarer Zeit der Vergangenheit angehören. Ein hochrangig besetztes Konsortium will das Internet so auf eine deutlich effizientere ... mehr... Internet, Netzwerk, Grafik, OPTE Projekt Bildquelle: OPTE Internet, Netzwerk, Grafik, OPTE  Projekt Internet, Netzwerk, Grafik, OPTE Projekt OPTE

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
In absehbarer Zeit jeden PC auf der Erde auf ein grundsätzlich anderes Verfahren umstellen? xD Na klar doch. Aber ich nehme sie beim Wort. Absehbar ist bei mir <= 12 Jahre
Moment Wie lange stellen wir schon auf IPv6 um? *hust* Absehbar und so
 
@D0N: ja genau an das habe ich auch gleich gedacht... @)
 
@D0N: Du kannst die kommen 12 Jahre überblicken? ... Rehspeck!
 
@doubledown: Außer im Falle eines weltweiten EMP wird die aktuelle IP Hardware über Nacht kaum verschwinden, und in Anbetracht der Vergangenheit von IP4 zu IP6 sind 12 Jahre realistisch überschaubar.
 
@cvzone: "IP Hardware"?? Die Änderung dürfte in den allermeisten Fällen ein Patch an der Software sein.
 
@doubledown: Rehspeck bringt da nix... damit kann man höchstens die Kabel einreiben damit die Daten besser durchflutschen!
 
@Dr. Alcome: Vergiss' dann aber nicht, den Mindestkurvenradius bei den Kabeln einzuhalten, sonst fliegen die Daten aus der Kurve! ;)
 
@D0N: Unmittelbar nach der Umstellung, wird auch der Flughafen BER fertig ^^
 
Au ja.. Cisco + inhaltsbasierte Übertragung. Ganz feine Sache... So spart man sich dann für die NSA in Zukunft die DPI? Oder ist es dann "nur" eine einfachere Methode, die Netzneutralität auszuhebeln?
 
@Slurp: Genau den selben Gedanken hatte ich auch.
 
@trødler: Die NSA hat da weniger die finger drin. ;) Für die Musik, Film und Game Industrie könnte es leicher werden DRM(Digital Rights Management) zu betreiben. Ist was illegales im Umlauf( soll es ja auch geben...) können sie so mit nur einem Knopfdruck alle Quellen mit den selben Inhalt sperren( anhand der Hashwerte). ;)
 
@SpiritOfMatrix: Nee, stimmt.. Cisco und die NSA haben nix, aber auch gaaar nix miteinander zu tun. Komisch nur, dass eine seit Jahren bekannte Lücker in allen Cisco Routern erst ignoriert und dann nach der Offenlegung von PRISM "gefixt" wurde (gefixt ist hier mißverständlich: die Lücke besteht weiterhin, sie wurde nur tiefer im System versteckt). Nachzulesen unter anderem bei heise security.
 
@Slurp: Und ändert das was an dem was ich geschrieben hab? Nicht wirklich... Mal ehrlich, glaubst Du bei den geht gleich "Defcon 1" an, wenn Du Dir mal einen Film "hasht"? Das passiert hunderttausende mal am Tag. Auch wenn die NSA die Technischen Möglichkeiten hat(hätte) alles auf zu zeichnen, was so im Netz geschieht, so fehlen ihnen die Ressourcen in der realen Welt um all die "Fehltritte" zu verfolgen! Da hast Du mehr Chancen im Lotto zu gewinnen. Was meinst Du warum die Strafen stellenweise so brachial sind. Abschreckung ;) Und das ändert auch das neue System nicht. Und ich denke Du bist auch kein Langhaariger Bombenleger um bei denen in das Raster zu kommen. Oder??? ;)
 
Hmm, okay... *mal eine dumme Frage in den Raum werf* Und was ist, wenn die Sachen, die Dezentral angelegt sind, einmal aktualisiert werden müssen? Wird das zentral aktualisiert und verteilt sich die aktualisierte Datei dann automatisch oder wie läuft das?
 
@coxjohn: Sowas könnte man ja über Hashwerte feststellen, welche Dateiversion man lädt.
 
@Seth6699: Okay, aber das sollte, laut Artikel, ja nicht mehr der Fall sein... ansonsten würde das ganze doch wieder keinen Sinn machen. Das neue Protokoll sollte das doch vorher prüfen? Zum Beispiel Websites, die dezentral abgelegt sind. Muss ich dann doch noch persönlich aktiv werden? :D
 
@coxjohn: Darauf baut das System ja auf. Mach mal einen Speedtest zum Beispiel auf www.speedtest.net/de/. Erst last ihr mal die Seite machen und mach einen Test. Dann mach ihr den Test noch mal nur mit einen anderen Server. Die Werte gehen in den Keller. Je schneller die Hausleitung( euer Anschluss) ist, um so gravierender ist der Unterschied. Und das soll mit dem neuen System verhindert werden. Hier wird dann geschaut ob die Datei in der "gleichen" Version nochmal in der nähe ist, um so die maximal Bandbreite zu gewährleisten. Das ist eigentlich schon alles. So gesehen eine echt gute Sache. Vielleicht braucht dann die Suche ein wenig mehr Zeit, das wird dann aber durch die schnellere Übertragung wieder gut gemacht.

Berichtigt mich wenn ich das Falsch verstanden hab.
 
@SpiritOfMatrix: Vielen Dank! :) Ungefähr so geht das ja auch aus dem Artikel hervor. Meine Frage ging eher in die Richtung der Verwaltung von dem ganzen Kram... schade dass da nichts zu steht.
 
@coxjohn: Du als Enduser wirst dich darum nicht kümmern müssen. Das ist mehr das Problem der Provider. Die müssen die Logistik aufbauen. Für uns ändert das nicht viel bzw. einmal WindowsUpdate und Treiber aktualisieren. ;)
 
@SpiritOfMatrix: Ja, ich weiß... das blöde dabei ist, dass ich zu denen gehöre, die das irgendwann aufbauen dürfen. Ich interessiere mich auch persönlich dafür. ;)
 
@coxjohn: Na ja, da müssen wir alle im Moment in die Glaskugel schauen...
 
@coxjohn: Ach ja ich glaube die größten Veränderungen werden dann im DNS Bereich stattfinden. Und das mit den Haschwerten wird auch der Weg sein den sie nehmen werden.
 
"Dies sieht dann so aus, dass eine Anfrage eines Nutzers an einen Router geschickt wird. Dieser sucht nun aber nicht den Weg zum vorher festgelegten Server, der das Gesuchte vorrätig hat, sondern bekommt nach einer Anfrage Rückmeldungen, wo die entsprechenden Inhalte zu finden sind."

Ist ja Super - noch mehr Chancen "Irgendeinen infizierten Müll" von allen Möglichen Quellen zu bekommen. :(
 
@aleggo: Nö. Ob du ein infiziertes Paket von einem Server in Kuala Lumpur oder von 20 Servern in 13 verschiedenen Ländern lädst, das Paket bleibt ja das gleiche.
 
@aleggo: Nein, deshalb überprüft man ja den Hash einer Datei um festzustellen, dass es nicht infiziert/manipuliert wurde.
 
Vorteil liegt wieder in der besseren Überwachung wenn man schon auf unterster ebene eine Deep Packet Inspection durchführt. Des weiteren kann einem dann die böse Weltpolizei auch einfach manipulierte Datenblöcke oder gleich ganze Programme beim Download unter jubeln weil man ja keine Kontrolle mehr darüber hat von wo die Daten kommen!
Bevor man solchen Blödsinn einführt solle man mal in die Pushen kommen und http2.0 einführen.
Google SPDY zeigt doch was möglich ist, aber da schießt ja MS wieder mit seinem eigenen Entwurf HTTP Speed+Mobility dagegen den es als Standard durchdrücken will. Googles SPDY läuft und wird auch schon genutzt MS Lösung gibt es nur auf dem Papier.
 
@KralekM: Von wo die Daten kommen weißt du aktuell auch nicht immer ;)
 
@KralekM: Du redest von Ausnutzung der Möglichkeiten und bevorzugst eine Lösung von Google. Finde ich Paradox. Nicht das eine Lösung von MS gründsätzlich besser wäre, aber von dem heuchlerischen von Doppelmoral geprägten Google möchte ich keine Lösung! Google will tiefer in die Materie weil Ihr Wachstum durch Klicks begrentzt ist. Gegen Googles lösung sollte man eher wiederstandleister mMn.
 
@psyabit:
durch googles OFFENES SPDY wurde http2.0 ja erst angestoßen, deshalb basiert der aktuelle Entwurf auch größtenteils auf deren arbeit! MS ist nur wieder auf den fahrenden zug aufgesprungen , selbst dessen S+M basiert auf SPDY das man noch einmal durch den Fleischwolf gejagt hat nur damit man auch was an zu bieten hat.
 
@KralekM: Ach und beim TCP/IP ist es ausgeschlossen, dass sich die böse Weltpolizei ins DNS einklinkt und mit ihren eigenen Servern manipulierte Files ausliefert?
Oder gibtst du immer schön direkt IP-Addressen ein?
 
Hoffentlich ist Deutschland nicht an der Entwicklung beteiligt. Sonst kommt etwas raus das wie deMail funktioniert. Dann wird an irgendeiner Zentralen stelle das Paket entschlüsselt um es kurz auf Viren zu überprüfen damit es dann natürlich wieder verschlüsselt werden kann. Ist aber kaum Überraschend dass es auch bei TCP/IP Begierlichkeiten gibt. Damit gäbe es ganz neue Möglichkeiten was Überwachung und DRM betrifft.
 
Das verstehe ich nicht:
Wenn ich einen Server anspreche der eine Datei vorrätig hat, oder die Datei direkt anspreche ist doch das Gleiche (Weg)?
Und wieso soll das den "Flaschenhals" verhindern wenn die Zugriffs Einschränkungen (Kapazität) gleich bleiben?
Oder ist damit gemeint, das dadurch auf alle identischen Dateien zugriff genommen werden kann, egal an welchen Speicher-Ort (z.B. anstatt Server mein PC), auch ohne Zustimmung?
 
@Kribs: Ja, ich denke, das ist gemeint. Allerdings bin ich gespannt, wie man das Risiko von Fälschungen umgehen will. Vermutlich ist das auch der Grund, warum VeriSign mit an Bord ist. Die wollen dann wahrscheinlich die zentrale Signatur-Instanz für alle Daten/Dokumente/Dateien werden und ordentlich abkassieren. Aus so einem Netz würde ich mir jedenfalls nichts unsigniertes ziehen.
 
Na wenn das so schnell wie die vollständige Umstellung auf IPv6 geht, dann können sich meine Urenkel ja auf was freuen :)
 
so lang ich intern weiter mit tcp/ip hinterm router kommunizieren kann, nach außen der router "übersetzt" bitte - bin nicht scharf drauf alte pcs aussperren zu lassen deswegen
 
Die Regierungen wird es freuen, denn dann kann man zeitgleich mit der neuen Technik die dazu passenden Abschnorchelstellen flächendeckend einrichten...
 
@doubledown: Genau dies vermute auch ich als vorherrschendes Motiv. Wenn ich schon "inhaltsbasierend" lese, wird mir schlecht. Das geht weit über George Orwell hinaus, der Roman "1984" ist schon heute in vielerlei Hinsicht Realität. Und die Apokalypse spricht von einer eintätowierten Nummer bei jedem Menschen - das ist der Chip, den wir früher oder später alle unter der Haut tragen werden. Das ist dann irgendwie nicht mehr meine Welt.
 
@departure: Wie schon einige andere hier andeuteten, werden wir das wohl zu Lebzeiten nicht mehr mitmachen müssen... ;)
 
@DON666: Ich hab' Kinder! Das alles wäre ja auch kein Problem (und wirkliche Verbesserungen sind auch bei mir stets willkommen), wenn nicht immer wieder Despoten, Diktatoren und andere A-löcher in der Weltgeschichte auftauchen würden (oder jüngst bekannt wurde, daß in diesem Sinne auch Geheimdienste als A-löcher mitzählen), die sich solch weitergehende Möglichkeiten zu ihrem herrschendem Vorteil machen.
 
@departure: Inhaltsbasiert heißt nicht, dass da bekannt ist WAS der Inhalt ist.
Inhaltbasiert heißt doch nur, dass das NDN weiß, dass du die "index.html" vom Winfuture Server haben willst (das weiß der Winfuture Server und alle Stationen dazwischen heute schon). Der Unterschied zum NDN ist jediglich, dass diese File nicht zwingend vom Winfuture Server kommen muss, sondern auch von mir, weil ich die File schon habe und vllt direkt neben dir wohne und dir damit die File extrem schnell zustellen kann.

Dazu muss das NDN aber nicht den INHALT der File kennen, sondern nur wissen um welche Datei es geht.

Wie bei einem Torrent halt.
Was beim Torrent allerdings kritisch ist, dass sich hier die Contentindustrie/böse Menschen als Seeder ausgeben kann und somit mitloggen kann, wer die illegale Datei runterläd. Und dabei den Inhalt der Datei bereits kennt.

Das ist beim NDN aber praktisch nicht möglich, da hier die "bösen Menschen" nicht garantieren können, dass sie überhaupt in die Frage kommen, die Datei auch wirklich auszuliefern. Mal davon ab, dass verschlüsselte Dateien eben verschlüsselt sind. Ohne Schlüssel nix Inhalt. Hält aber das NDN nicht davon ab auch verschlüsselte Dateien direkter zu verteilen.
 
...und wieder alles "zentral" von USA aus gesteuert - Danke aber NEIN DANKE!
 
Irgendwie kam ich grade auf die Idee, mich zu fragen, inwieweit das dafür sorgen könnte, das Spam, Adware und ähnliches Blocker auf einmal ihre liebe Mühe haben (werden), noch nennenswert wirkungsvoll sein zu können. Eine URL eintragen, somit sperren lassen und gut ist ... reicht dann längst nichtmehr ?
 
@DerTigga: Wird dann wohl eine Liste mit Hashwerten genutzt( was auch jetzt schon möglich wäre/ist). Die werden es damit nicht viel schwerer haben.
 
Ist zwar leider alles English, aber folgende Links für diejenigen die es interessiert:
http://gigaom.com/2013/10/30/eu-researchers-create-prototype-for-a-server-free-future-internet/ http://www.fp7-pursuit.eu/PursuitWeb/ http://www.sail-project.eu
 
Also wissen die gleich automatisch was ich saugen/anschauen will... nee das gefällt mich nich.
 
@Aerith: So ein Quatsch. Nur weil du den Hashwert einer Datei kennst, kennst du NOCH LANGE nicht den Inhalt.
Wenn ich beispielsweise die Datei "index.html" vom Server "www.winfuture.de" haben will, kann ich dazu den Server von Winfuture fragen ODER ich kann DICH fragen, weil du die Datei ja schon hast und möglicherweise näher an mir dran bist.
Ich muss dazu aber NICHT den Inhalt der Datei kennen, sondern nur den Namen und vllt den Ursprungsort, was zusammen die Datei eindeutig identifiziert. Aber NICHT den Inhalt.

Wenn du dir den aktuellen Blockbuster illegal runterladen willst, dann bekommt die Datei irgend einen eindeutigen Namen und fertig.
Woher weiß jetzt irgendwer, WAS du da runterladen willst, WENN er nicht die Datei schon selbst hat und den Inhalt kennt. Nur das geht auch heute schon. Immerhin forderst du die Datei von irgend einem Server an und wenn man die Datei kennt, kann man mit den Logs herausfinden WAS du saugst.

Problem, du brauchst die Logs und die Inhalte. Das gilt aber für TCP/IP und für NDN.
 
@Draco2007: Naja das hängt dann aber davon ab wie sie das umstellen. Wenn sies wirklich ähnlich wie torrent designen, dann ist es sehr einfach zu checken wer was saugt und dann brauchste auch keine logs mehr.

Geht mir auch gar ned so ums illegale Saugen von Filmchen, sondern ich denke eher an Menschen in Krisengebieten, bei denen Anonymisierung wirklich lebenswichtig sein kann.
 
Also sowas wie eine verteilte Datenbank? *kopfkratz*

Wie stellen die sich das vor? Wenn das Netz 'statisch' wäre, würde das funktionieren. Aber es gibt irgendwie in jeder Sekunde ein ganz paar mehr als nur fünf Aktualisierungen *irgendwo* im Netz. Das muß ja dann zumindest durch einen Teil des Netzes kaskadiert werden, sonst ist ja gar nicht klar, daß es überhaupt was zu finden gibt (ganz zu schweigen vom Wo).

Wie... das dann transportiert werden soll, tät mich auch mal interessieren: was passiert, wenn die Verbindung erstmal *steht*?

Auf jeden Fall ein interessanter Ansatz. Ob's so auch funktionieren *kann*, muß sich zeigen. Allerdings wird das dann auch wieder ein paar Jahrzehnte dauern, bis das einsetzbereit ist; TCP/IP ist ja nun das, was das Internet zusammenhält, das kann man nicht mal so eben mit was Ultramodernem ersetzen, welches man bei Nicht-Gefallen (oder Nicht-Funktionieren!) mal so eben wieder ändern kann.
 
@RalphS: Beschäftige Dich mal mit dem Torrent Protokoll. Da sind alle Antworten drin enthalten. ;)
 
@SpiritOfMatrix: Das macht die Sache nicht besser - eher schlechter. Torrents sind auch statisch, und interessieren sich auch nur für Datenblöcke (keine Dateien), sodaß man auch nicht unbedingt Datei X von Torrent 1 nach Torrent 2 verschieben kann, ohne dabei Informationen zu verlieren. Genau diesen Effekt gibt es aber immer dann, wenn sich irgendwo irgendein Inhalt ändert.

Wenn... Du natürlich damit andeuten möchtest, daß mit diesem Ansatz dem Urheber einer jeden Information die Kontrolle über eben jene entzogen wird, weil sie schlicht im Netz verteilt liegt... dann wäre das eine Totgeburt. Was natürlich das Entwicklerteam genausogut weiß und ich mir deswegen auch nicht ernsthaft vorstellen kann, daß das so läuft.

Nicht daß Du mich falsch verstehst: mir gefällt das Konzept einer verteilten Datenbank sogar sehr gut. Ich frag mich halt nur, ob das praktikabel ist... und ganz ehrlich gesagt, während zwar natürlich (streng genommen) in einem Netz eine Client-Server-Architektur weniger verloren hat als beispielsweise gleichwertige(!) P2P-Knoten, so gefällt mir die Idee persönlich überhaupt nicht, plötzlich zum *Zwangs*hoster zu werden. Das sind ja dann meine Ressourcen, die ich für Unbekannt aufbringen muß.

Wobei, zugegeben, damit natürlich ggf. die Hosting-Kostenfrage für *irgendwelche* Websites hinfällig werden würde, wenn da "jeder" sozusagen "mit"hostet und das auf seine eigene Kappe. Aber ich glaub nicht, daß das den Werbetreibenden dann gefallen würde...
 
Wie soll das funktionieren? Wer bestimmt auf welchen Servern welcher Content liegt? Ist das als Art CDN zu verstehen, oder als Art Torrent? Bei zweiterem wirds lustig, wenn dann weltweit alle Logfiles durchgeackert werden dürfen, wer wann z.B. auf Kinderpornos zugegriffen hat...
 
Das läuft letztendlich auf eine Kontrolle / Zensur des Netzes hinaus :-(((
 
@beeelion: Ein DEZENTRALES Netz bedeutet mehr Kontrolle/Zensur? Bitte was?
Stand heute kannst du Inhalt der ZENTRAL auf nur EINEM Server liegt als Regierung ohne Probleme einfach abschalten und fertig, nix mehr mit Inhalt. Es sei denn irgendwer hat ein Backup und stellt dieses bewusst zur Verfügung.

Bei einem dezentralen Netz, wie es NDN vorschlägt bedeutet aber genau DAS. Praktisch jeder hat ein Backup, wenn er eine Datei/Website einmalig abgefragt hat. Da etwas zu zensieren ist praktisch unmöglich, da es nicht reicht den Ursprungsserver "unbrauchbar" zu machen.
 
@Draco2007: Was ich mich frage: wie funktioniert das mit dem Dezentral an dem Punkt, wo der Router eine Anfrage an das Internet stellt? Schickt der die Anfrage wild auf jeden nächsten Punkt los oder steht da ein Server, der diese Anfragen entgegennimmt und verarbeitet? Wenn da ein Server steht, hätte derjenige mit der Kontrolle über diese Server verdammt viel Macht. Man könnte Hashes blocken und schon schaltet man alle Quellen der Datei auf einmal aus, da die Anfrage dieses Hashes gar nicht erst weiter bearbeitet wird, die verfällt einfach.
 
@eN-t: Es muss nicht EINEN Server geben der das alles koordiniert. Beschäftige dich mal etwas mit Peer To Peer Netzwerken. Da gibt es genügend Möglichkeiten diese Verwaltungssachen genauso Dezentral zu behandeln.

Ein Beispiel wäre schon mal das DNS. Das funktioniert auch dezentral und es gibt nicht den EINEN Master-Server.
 
was helfen denn die besten leistungsfähigen Protokolle, wenn nach kurzer Zeit eine Drossel zuschlägt
 
das dient nur dazu die netzneutralität auf zu heben. denn ein routing wie bei tcp/ip ist ja trotzdem notwendig... oder soll jeder server das gesamte internet speichern? irgendwie schlecht gedacht...
 
@anon_anonymous: Auch du hast nicht im Ansatz verstanden worum es geht.
Weder wird bei dem Konzept die Netzneutralität angegriffen noch muss jeder Server das gesamte Netz speichern.
 
hmm dazu will ich nur mal anmerken IPv6 gibts offiziell schon seit 1999 *hust*
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles