BT beschleunigt alte Glasfaser von 10 auf 800 GBit/s

Die Ingenieure des britischen Telekommunikationskonzerns BT haben das Tor für eine deutliche Erweiterung der Kapazitäten bestehender Glasfaser-Backbones aufgestoßen. mehr... Glasfaser, Licht, Fiber Bildquelle: AR Photos Glasfaser, Licht, Fiber Glasfaser, Licht, Fiber AR Photos

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Gute Arbeit ! Weiter so ! :)
BTW HAHA Telekom!
 
@m3ta: Bei der Anbindung wären die 75GByte Volumen (vor Drosselung) nach ca. 0,8s erreicht!
 
@The Grinch: Damit kann man dann auch einen neuen Geschwindigkeitsrekord aufstellen: Von 1000 auf 0 in 0,8 Sekunden ;D
 
@dodnet: Solche Bremsen wünschen sich die Autohersteller, vielleicht sollten die Fusionieren ;)
 
@trødler: Solche Bremsen haben die in der Automobilindustrie, nennt sich nur Betriebswirt! Die bremsen jegliche Entwicklung derart ein, das wirkliche Innovationen erst VIEL später auf den Markt kommen - vor allem wenn die Zulieferer richtig geknechtet wurden und die Entwicklung quasi geschenkt bekommen. So in etwa wie die Drosselkom billigst Datenvolumen einkauft (im Cent-Bereich) um das dann an die Kunden teuer zu verkaufen.
 
@m3ta: Von wegen HAHA Telekom, UK ist eines der wenigen europäischen Länder mit einer schlechteren Breitbandanbindung als Deutschland. Ich wohne in einer 100k-Einwohner-Stadt, und von 50MBit/s kann man hier nur träumen.
 
@NikiLaus2005: In London bekommst du von virginmedia eine 100Mbit Anbindung die dieses Jahr wohl noch synchron geschaltet wird. Soviel dazu..
 
@Axel10: Bekomme ich in Kiel, Aachen und Köln auch. Im Schnitt (Stand November) bekommt man in Deutschland immernoch mehr für's Geld als wir hier.
 
@NikiLaus2005: Das stimmt nicht! Es ist genau das Gegenteil der Fall. Schau auf Netindex.com, wenn du mir nicht glaubst. In Deutschland bezahlen wir mehr und bekommen weniger Leistung.
 
@Axel10: Dann Sorry, dass ich keine aktuellen Nummern im Kopf habe. Aber dass der Unterschied nicht wirklich signifikant ist, im Vergleich zu diversen anderen Ländern, ist trotzdem fakt.
 
"Das Testergebnis dürfte somit auch der Argumentation der Deutschen Telekom, die ihre geplante Begrenzung von Breitband-Zugängen mit dem schnell steigenden Traffic und einer Überlastung der Netze begründet, zuwiderlaufen."
Dürfte :-D Aber..... (hier irgendwelche andere fadenscheinige Gründe einsetzen)
 
@Pegelprinz: Niemand sagt, dass die Telekom das Problem der Netzüberlastung nicht beheben kann. Die Telekom hat einfach keine Lust und das ist die unverschämtheit!
 
@happy_dogshit: Es gibt erwiesenerweise aber auch gar keine Netzüberlastung. Im Gegenteil......
 
@Pegelprinz: Stimmt, die haben sogar krasse Überkapazitäten. Das müssen sie auch, da sie den größten Teil des deutschen Backbones tragen.
 
@Pegelprinz: Eine Netzüberlast grundsätzlich hat die Telekom nicht im Backbone, das wäre ja auch mehr als schlimm. Aber durch die "eigenes Süppchen koch" Mentalität ist die Struktur des Telekom Backbone Systems mehr als Marode bzw. schlecht zu warten. Statt sich, wie jeder wirklich jeder andere provider, direkt oder indirekt an den DE-CIX zu hängen baut die Telekom hunderte kleine Interconnects. Und die kosten verdammt viel Geld im Unterhalt und sind nicht so einfach aufrüstbar da beide Interconnectpartner Ausbauen müssen. Die Anbindung am DE-CIX hingegen ist so extrem das selbst der komplette Telekom Traffic ohne (große) Performanceverluste mit verarbeitet werden könnte aber dann müsste die Telekom an den ECO Verband zahlen und da man den Verband nicht mag (sind ja alle Konkurrenten drin versammelt) weigert man sich. Es gibt extrem punktuell Überlasten (zu Level 3/Cogent) was man in Stßzeiten bei Youtube erleben kann. Es kommt aber auch darauf an wo man wohnt. Es gibt wie gesagt xxx Interconnects und 2-3 sind in Stoßzeiten überlastet.
 
@Nero FX: Ne, ne, ne. Diese xxx Interconnects in den Stoßzeiten aber auch! ;D
 
@Ensomhet: Alles was noch PINGs durchlässt (auch bei 800ms) ist nicht überlastet sondern nur gut ausgelastet:D
 
"Forschungszentrum der BT in der Nähe von Ipswitch"
Ipswitch wäre ein Super Name für den Standort eines Netzwerkforschungszentrums... IP Switch.
Aber leider heist der Ort in Wirklichkeit Ipswich. (Es liegt also ein Rechtschreibfehler im Text vor)
 
@weltraumMonster: Danke, ist behoben.
 
Mit der bestehenden Glasfaserinfrastruktur. Das muss man sich mal auf der Zunge zergehen lassen. Und die Idioten von der Telekom (verharmlosend) setzen auf Vectoring und Drosselung.
 
@Jean-Paul Satre: Es geht um den Backbone! Und der ist auch in Deutschland ist seit vielen Jahren Glasfaser-only. Kannst ja mal nach SDH-Ring googlen.
 
@Jean-Paul Satre: Drosselung ist in UK Normalität.
 
@Jean-Paul Satre: Das ist ja der Witz an Glasfaser. Sicher ist die verlegte Faser nicht optisch ideal, aber wie dieser Fall zeigt ist der limitierende Faktor eher die Elektronik an den Enden. Licht kann man wunderbar überlagern, rein theoretisch hat man so beliebeig viele Frequenzbänder zum Datentransport.
 
Wie der Schreiber des Artikels schon schrieb, wird diese Erkenntnis der Drosselkom nicht gefallen ^^
 
Niemand hat die Absicht, eine Drossel zu errichten!
 
Ich verstehe es echt nicht warum Deutschland sich von der Telekom eine verschlechterung der Technologie ertragen lässt. Haben die Politiker denn wirklich nichts im Internet zu tun, so dass es Ihnen egal sein kann das andere Länder schon 5x schneller und weiter entwickelt sind als Deutschland? Das hält einfach nur auf <.<...
 
Die Drosselkom sieht ja auch ihr Geschäftsmodell gefährdet.
z.B. lässt sich ja bei einheitlichen Flatrates kein steigender Gewinn erzielen, es sei denn man drosselt die Ausgaben.
Die Telekom tut aber nun beides. Die baut Netze nicht aus (hatte sogar geplant kein Kupfer mehr verlegen zu wollen, was nun wieder zurück genommen wurde) und hat zukünftig die Möglichkeit mehr zu kassieren. Stattdessen Argumentieren Sie mit Tante Erna wird niemals soviel verbrauchen wie der 4 Personen Haushalt mit 3 PC's 2 Tablets und 2 Smartphones. Find ich auch richtig!
Aber Daraus dann umgekehrt den Verbraucher in die Internet-Steinzeit zurück zu katapultieren ist der Falsche Weg!
Die deutschen Provider, die Bundesnetzagentur und die Bundesregierung sollten sich mal Japan in Sachen Internet als Vorbild nehmen. Leitungswege Verstaatlichen und gut ist! Dann sollen die Provider halt im Konkurrenzkampf untergehn und sehn wohin deren Politik führt. Aber SO NICHT! Das Backbonekapazitäten nichts kosten und durchlaufener Traffic schon garnicht, ist hinlänglich bekannt.
 
Schimpft nicht so viel über die Telekom, verwendet eure energie freunden und bekannten beim wechseln zu helfen (oder sie zum Wechsel treiben :D )
 
Aus Kostengründen, weil sie ohne die fest eingeplanten mehr zahlenden Sich-wieder-entdrosseln-wollenden Kunden nicht genug Geld hat, kann die Telekom diese Technologie in den nächsten Jahren sicher nicht anwenden bzw. einkaufen *fg Kabeldeutschland ist da aber auch nicht besser. In der gestern eingetroffenen Werbung (die ich bitteschön Freunden usw weiterreichen soll) steht, im mit zwergig klein gedruckten Buchstaben, was von zur Zeit noch geduldeten 60 Gigabyte pro Tag, das das aber auch auf 10 Gigabyte gesetzt werden könnte "demnächst" oder eben wenn KD es (im Einzelfall ?) für nötig hält. Wirklich extrem empfehlenswert sowas, kann mich kaum bremsen, beim das empfehlen wollen *fg
 
@DerTigga: erstmal 60 GB am Tag saugen können... bei der Telekom sind es 75 GB im Monat... also 2-3 GB pro Tag. Ausserdem ist mit 10 Mbits ja immernoch angenehmes Surfen oder Voip möglich. bei 384Kbits ist das nicht mehr der Fall...
 
@frust-bithuner: Es waren (nurnoch) 10 Gigabyte gemeint und nicht 10mbits ;-) Habe meinen Text entsprechend abgeändert. Im Falle, das Kabel Deutschland das anwendet, werden wohl ab 10,01 Gigabyte die machbaren Geschwindigkeiten auf 100kbits gedrosselt. Ähnlich wie die Telekom soll das aber wohl nur für bestimmte "Dinge" gelten wie z.B. Filesharing. Was genau da so alles drunter fällt und wie genau das im Zweifelsfall für KD erkennbar ist.. Frage mich z.B. grade ob die anfallende Datenmenge einer Fernwartung und softwaretechnische Einrichtung \ Hilfe \ Fehlersuche bei einem Kollegen meines Webradios auch mitberechnet würde. Ob also diese 10 Gigabyte nur wegen / nach unzutreffender Meinung von KD erreicht wurden, "darf" man bestimmt per entsprechendem Anruf und offen legen von Daten klären ? *fg Edit: habe nun extra die Broschüre aus dem Altpapier gekramt: Die 10 Gigabyte Gesamttransfervolumen pro Tag gelten sowieso schon, die 60 Gigabytegrenze ist sozusagen derzeitige "Kulanz" von KD, jederzeit widerrufbar.
 
Es ist auch interessant, daß Kupfer, zumindest auf kurzen Strecken (z. B. in Gebäuden) immer noch nicht ausgereizt ist. Immerhin gibt es schon jetzt 10 Gigabit Ethernet über Kupferleitungen. Es ist aber leider noch immer kein endgültig verabschiedeter Standard dafür in Sicht, derzeit kochen da noch ein halbes Dutzend Switch-Hersteller ihr eigenes Süppchen. Wenn da endlich mal Einheitlichkeit herrscht, kann man kostspielige SAN-Anbindungen über Glasfaser im Firmennetzwerk durch 10-Gigabit-Verbindungen in CAT7-Kabeln verwirklichen. Darauf warte ich.
 
Es werden evtl jetzt viele Lachen,aber ich habe da mal eine Frage!

Und zwar wenn das alles klappt,und ich hätte dann so 800 GBit/s Leitung,was bringt die mir dann ??

Meine SSD kann ca. mit 480 MB/s Schreiben,meine HDD etwa mit 50MB/s,also meine Frage wie soll das gehen?Ich kann doch garnicht die volle Leitung nutzen?!Die Platten kommen doch garnicht hinterher!
 
@Jacks0n05: Beachte, dass es 800 GB/s sind. Folglich muss man erst durch 8 dividieren (1 Byte = 8 Bits), was eine Rate von 100 Gb/s ergibt.
Und wir können immer noch nicht vergleichen: Wir haben hier zwar einen Durchsatz von 100 Gigabyte/s, aber im Backend, an dem nicht nur ein Verbraucher hängt.
Heimanschlüsse bewegen sich wenn überhaupt nur im Megabitbereich (z.B. 16 MB/s). Nimmt man diese Referenz und betrachtet Heim-Glasfaseranschlüsse, so ergeben sich Raten um 100-500 MB/s, die ca. 12.5-62.5 Mb/s entsprechen (unter Idealbedingungen).
Folglich bewegen die sich auch _locker_ im Rahmen der Festplattengeschwindigkeiten.
 
@Tenzing: Auch die Kabelanbieter hängen an den großen backbones und da gehört 100MBit/s ja gerade eher zum guten Ton und die Planungen für 200MBit und mehr dürften bedeutend weiter sein als vectoring bei der Telekom. :)

Davon mal abgesehen gibt es auch Gbit-Ethernet etc und das wird auch "ausgelastet". Nur eben nicht von jeder 08/15-Maschine. Software läuft ja erstmal im RAM, es gibt SSD-Raids und RAMdisks... der Möglichkeiten gibt es viele. Aber bis Du per FTTH 100Gb/s anliegen hast, vergehen locker zwanzig Jahre, da wird es noch ganz andere Technologien geben xD
 
@Jacks0n05: ich wäre Glücklich, wenn mein DSL so schnell wäre, wie 1/50 meiner SSD (die macht 550MiB/s)
 
Bei so einer News frage ich mich allen ernstes WARUM??? Warum will die Telekom denn dann überhaupt drosseln ? Geht es denen wirklich nur ums Geld? Ist das reine Abzocke oder verfolgen sie wirklich "sinnvolle" Gedanken?
 
@SynTraX: Geld ist für ein kapitalistisches, börsennotiertes, von Managerboni getriebenen Saftsäcken geführtes Unternehmen ein ausserodentlich sinnvoller Gedanke.
 
@SynTraX: Die Telekom ist laut News nicht der Entwickler dieser "englischen" Technologie, damit nicht deren Rechteinhaber und müsste demzufolge "einkaufen" gehen. Vermutlich verbunden mit permanenter Zahlung von Nutzungsgebühren. Von machbarer / benötigter Liefermenge, Lieferdauer / Garantiedauer in Jahren und Wartungskosten noch nicht geredet. Andersrum könnte ich mir allerdings vorstellen, das die Telekom da durchaus eigene Entwicklungen in der Schublade hat.
 
Wieso macht man da eine Sensation draus ?? Der Glasfaser an sich ist es wurst ob man durch sie singulär einwelliges Licht oder ein ganzes Spektrum an bestimmten monochromatischen Lichtfrequenzen hindurchschickt. Die allerbeste Nutzung wäre sogar die Mitnutzung von Lichtfrequenzen die ausserhalb des für menschliche Augen sichtbaren Bereichs liegen, da ist richtig Raum drin behaupte ich jetzt mal. Die Transparenz einer Glasfaser endet beileibe nicht da wo das menschliche Auge seine Grenzen hat.
Wie schon richtig beschrieben wurde es ist eine Frage der Komponenten an den Endpunkten von Faserstrecken, d.h. die aktiven Komponenten sind es welche die Kapazität einer Strecke entscheiden, nicht die Faser selbst erstmal.
Vielleicht gibt es gerade bei Polymerfasern ggf. aber doch einen Alterungsfaktor (Eintrübungen, verstärkte Streuungserscheinungen, Veränderungen an den Grenzflächen zu Innen- und Aussenfaser), das müsste dann untersucht werden und nur das kann mit der Zeit zu Austauschbedarf der Strecke als solches führen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles