HDBaseT: HDMI-Nachfolger auf Ethernet-Basis

Peripherie & Multimedia Mehrere große Elektronikkonzerne arbeiten seit einiger Zeit an der Entwicklung eines neuen Standards für die Audio- und Video-Übertragung, der das aktuelle HDMI ablösen soll. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Würde ich befürworten, schon allei der Preis ist verlockend. HDMi Kabel sind ziemlich teuer. Vorallem würde mich da smal interessieren wie da smit dne 100W funktionieren wird. Warum würd das jetzt noch nicht genutzt? Mal abgesehen das die meisten TV Geräte eh mehr haben.
 
@EvilMoe: HDMI Kabel sind teuer? 2 - 5 Euro hab ich maximal ausgegeben für 1,5 Meter.
 
@John Dorian: Und für welche Version? Siche für kein 1.4HDMI Kabel!
Und vorallem gibt es bei HDMI Kabel unterschiede. Ich habe mehrere billig HDMi Kabel getestet, bis eins mal funktioniert hat.! RJ45 ist trotzdem günstiger.
 
@EvilMoe: Also ich persönlich bin mit den Kabeln von AmazonBasics sehr zufrieden. Auch wenn es kein 1.4 HDMI ist, aber das ist eh erst für 3D interessant. nutzt man das nicht reicht 1.3b völlig.

Und naja, vernünftige RJ45 Kabel, kosten auch schon ein paar €. Haben durchaus auch nen meter Preis von 1 - 2 €.
 
@EvilMoe: 1.4? Keine Ahnung brauche ich wahrscheinlich nicht hab nen Standard 42 Zoll Full-HD. Und bei mir haben alle von Amazon funktioniert.
 
@EvilMoe: Es gibt keine HDMI1.4-Kabel. Es gobt zwei verschiedene Kabel. Ein gutes, und eins dass nichts kann. Das gute wird oft fehlerhaft als 1.3-Kabel bezeichnet, aber was anderes gibt's nciht. HDMI1.4-Kabel. Schwachsinn…
3D können alle der "besseren" KAtegorie, also auch die 1.3-Kabel…
 
@EvilMoe: lol es gab mal ne sendung die größten technik irrtümer und zwar bei gallileo haben hdmi kabel getestet 2-3€ bis hin zu 1000€ kabel in der länge von 5m es gab kein unterschied genauso wie die audio kabel wo die gold stecker genaus so gut abgeschnitten haben wie die ganz billigen
 
@PoZZiLLa: Also ich kann nur zum Gold was sagen: Gold leitet eigentlich sogar schlechter, als viele andere Materialien (ich glaube auch schlechter als Kupfer), ABER es korrodiert eben nicht. Und somit sind sie langfristig betrachtet besser, das ist ihr Vorteil. jfyi :)
 
@John Dorian: Es geht hier auch net um 1,5 Meterkabel, sondern um lange Kabel. Da ist HDMI extrem teuer.
 
@Lofote: Eben, für nen Beameranschluss braucht man schon leicht mal 7,5-10m. Und da vernünftige Kabel zu finden ist ein Glückspiel. Die Kosten solcher Kabel können sich leicht auf um die 100€ belaufen.
 
@Thunderbyte: habe bisher mit Kabel von clicktronic nur gute Erfahrungen gemacht - evtl. mal testen: http://moourl.com/ew5ta
 
@cosmi: Welcher xyz gibt denn 100 Euro für 10 Meter aus ? Ich habe hier eins das umgerechnet 17 Euro kostet und 10 Meter lang ist und eine Optimale Qualität hat. Wer meint das der Preiss die Qualität macht der ist nicht mehr ganz dicht .
 
@Menschenhasser: Ich!
 
@Menschenhasser: ich gebe keine 100 € aus. Nur kann ich soviel sagen, dass ich mit einem billig hama kabel (15m) signalstörungen hatte - mit dem clicktronic pendant (auch 15m) keine probleme.
 
@John Dorian: Achja? Cat5e - 50m für 10€ (Normaler Einzelhändler i. Internet). Was ist jetzt günstiger?
 
@NikiLaus2005: Naja ob das was taugt bezweifle ich, aber jedem das seine.

Wenn man bei beiden was gutes will muss man Geld investieren, so einfach ist das. Das Problem ist aber auch, dass HDMI gar nicht für weite strecken gedacht ist, somit sind lange Leitungen auch entsprechend teurer. Ist im grunde ähnlich wie bei USB.
 
@sebastian2: Mag sein, aber man kann es mit dem Preis auch übertreiben. Sauteuer bedeutet nicht immer automatisch gut. Und für 10 Meter Kabel 100 € (sofern es denn stimmt was Thunderbyte sagt, wovon ich mal ausgehe) sind einfach nur Abzocke. Qualität kostet, aber das rechtfertigt keine utopischen Preise. (Es sei denn das Kabel wäre weiß mit einem grauen Apfel drauf oO)
 
@cronoxiii: Gutes Kabel kostet auch Geld. 100€ für 10 Meter HDMI sind noch nicht mal das Teuerste bzw qualitativ Hochwertigste ( die Unterschiede sind massiv). Ich finds immer lustig - TV muss FullHD sein, BR Player neben dran und dann beim MM das HAMA Kabel für 15Euros gekauft. Das gleiche habe ich mit einem Kunden: kauft Switche mit Gbit Stacks und schliesst dann an die Stacks 100mbit Kabel aus kostengründen (die Glasfaserkabel kosten um die 400€ aber man merkt halt mit vielen Benutzern schnell ob man diese Kabel benutzt oder nicht ..). Und ich weiss jetzt schon -er kauft zweimal!
 
@cronoxiii:

Schön 1000-2000€ TV kaufen, dazu nen guten BR für 300€ evtl noch
nen AV-Receiver für 800 oder mehr. aber dann beim Kabel für 100€ knausern
irgendwas stimmt da ja wohl nicht wa :D

Zumal alles bis 5m kann man billig Kabel nehmen. Wenns nicht geht muss
man halt umtauschen. Wer sich nen Beamer kauft der nun weit aus teurer ist (jedenfalls nen richtiger Homecinema kein Präsentationbeamer.) plant man das Kabel, Halterung, Leinwand ja wohl mit ein.
http://www.hifi-regler.de/shop/in-akustik/inakustik_premium_hdmi-100002700-10_0m.php

~50€ für ein 10m finde ich in Ordnung
 
@cronoxiii: Naja, wenn man bedenkt das 10 m die grenze sind, kann man den Preis durchaus verstehen... Da muss dann erst Recht Wert auf Qualität etc gelegt werden.

Aber ehrlich, wer mehr als 3 m HDMI Kabel braucht, der sollte sich eventuell eh auf ne andere Technik konzentrieren.
 
@>ChaOs: Ich finde es auch immer lsutig das die Leute meinen das Sie durch ein teures HDMI Kabel ein besseres Bild erhalten. Humbuck...die teuren Kabel sind nur besser geschirmt und verhindern somit das man ein schlechteres Bild erhält.
Wenn man bei einem Billigkabel keine Störquellen in der Nähe hat oder das nicht an nen Stromkabel strapst, dann gibt es dort auch kein schlechtes Bild (ausser es ist natürlich garnicht geschirmt).
Aber ich begrüße das über Ethernetkabel auch sehr. Da kann man sich auch mal selber ein Kabel in der richtigen Länge crimpen ;-)
 
@hartex: Das Wichtigste an den HDMI-Kabeln ist der gute Kontakt der Stecker zum Gerät. Ob die Kabel ne ach so tolle x-Fach Abschirmung haben ist total egal, weil sowieso digital übertragen wird, Fehlerkorrektur etc inklusive.
 
@Kabelfetischisten: Ich habe nie behauptet dass ich teures equipment habe. Aber ich bin einfach der Meinung dass 100 Euro für ein bischen Plastik und Kupfer etwas zuviel sind - trotz der gestiegenen Rohstoffpreise. Das ist ein wenig wie mit den DVI auf VGA Adaptern beim Mediamarkt die man zeitweise für 75 Euro (ja, leider kein Witz) kaufen kann. Da kann einfach was ned stimmen. Ich weiß durchaus, dass gute Kabel mehr kosten als die Dinger aus der Wühlkiste beim Aldi, aber 100 Euro ist einfach zu teuer. Mag sein, dass ihr euch dran erfreut dass ihr jetzt so viel Geld noch zusätzlich ausgegeben habt, aber ich persönlich finde dass das in keinem Verhältniss steht, auch wenn man einen Teuren Plasma hat.
 
@>ChaOs: ... das grundsätzliche Preis-Problem ist in erster Linie die Konfektionsware, die sich die Industrie überaus großzügig bezahlen läßt! Wenn man Meterware und entsprechende Stecker benutzt, kann man teilweise ganz erheblich sparen ...
 
@EvilMoe: Ich warte drauf das meine Oma versucht den Monitor an die Netzwerkkarte zu stecken... sind ja auch rj45 :P
 
@EvilMoe: Was die 100 Watt Geschichte angeht, ist n normaler Ethernet Standard und nennt sich Power over Ethernet: http://de.wikipedia.org/wiki/Power_over_Ethernet (für 100 Watt allerdings eine abgewandelte Form)
 
Nun ja, wenn mir mittlerweile gestandene Meister und ehemalige Ausbilder der Radio- und Fernsehtechnik eingestehen, dass sie nur noch Bahnhof verstehen und ich die Kunden nicht davon abhalten kann, ihren niegelangelneuen 1.100 EUR teuren 40'' TFT / Flachbildschirm / Fernseher mit Schnickschnack den die Welt nicht braucht, mit Glasreiniger zu ruinieren (sie wissen es immer besser und besser ist teurer, also drehen sie mir nicht das billige Zeug an!)... .
 
können die nicht mal wenigstens ein paar jahre bei einem standart bleiben?
 
@xerex.exe: HDMI gibt es seit 2003, nun entwickeln einige Konzerne etwas neues, was nicht morgen eingeführt wird.

Sind 9 Jahre nicht schon mehr als "ein paar Jahre" ? ;).

Und naja, einführung bedeutet ja auch nicht, dass es dann flechendeckend in jedem gerät zur verfügung steht. Scart hat mein LCD z.B. immer noch...
 
@sebastian2: HDMI 1.4a ist noch keine 9 Jahre alt sondern dieses Jahr Spezifiziert worden. Die wohl am häufigsten Verwendete Revision wird wohl 1.3(a) sein diese ist 4 Jahre alt.
 
@ThreeM: Ist schon richtig...

Trotzdem gibt es HDMI nicht erst seit gestern und genauso wie bei HDMI wird auch HDBaseT erst seine Zeit brauchen. Und sicherlich auch erstmal zusätzlich dazukommen.
 
@sebastian2: 2003 bis 2010 - 9 Jahre?! :O Hab i was verpasst? o.O
Ne scherz, kann jedem mal passieren :)
 
@mfroot: Ja ich hatte meinen Text kurzfristig editiert.

Normalerweise braucht die einführung einer neuen Technik ja auch immer 1 - 2 Jahre, deswegen ging ich von 2012 aus. Kurz danach hatte ich dann in der News den unscheinbaren Satz "noch dieses Jahr" gelesen :(
 
@xerex.exe: Nein, so verdient man kein Geld.
 
@xerex.exe: ich hab bis jetzt noch nie HDMI gebraucht, meine PCs haben DVI und teilweiße auch HDMI... Aber da ich eh keinen Fernseh brauche hab ich mich noch nie damit beschäftigt.... Wer weiß vll. Bekomm ich den nächsten Standard mehr mit xD
 
@FlowPX2: Es geht hier auch nicht um PCs, sondern um LCT-TVs, Beamer, DVD/Bluray-Player etc. Insbesondere wenn irgendwo HD Content im Spiel ist, wird meist auf HDMI gesetzt. Ein Vorteil von HDMI gegenüber DVI ist das Mitführen von Audiosignalen im gleichen Kabel.
 
@Thunderbyte: ja das weiß ich... Wollte halt nur sagen das ich HDMI noch nie gebraucht habe... HD geht auf meinem Monitor auch mit meinem guten DVI Anschluss... Hab HDMI leider wirklich noch nie eingesetzt, obwohl es das so lange schon gibt und es gibt noch viele andere die HDMI noch nicht haben sondern noch Scart... Interessant das es schon so schnell wieder abgelöst werden soll. Naja ich bin immer offen für neue Technik...
 
@FlowPX2:
Guckst du ORIGINALE Blurays? Weil ich glaube da brauch man zwingend
HDMI, zwecks HDCP-Kopierschutz
 
@Freedom: nein, DVI gibs auch mit HDCP
 
@Freedom: HDCP kann man natürlich auch mit AnyDVD HD entwerten. War bei mir nötig weil es der olle TFT sonst nicht konnte.
 
@FlowPX2: Ich habe sowohl meinen Bildschirm als auch meinen Fernseher über HDMI mit dem PC verbunden. so spart man sich auch ein zusätzliches soundkabel, da dies bereits im HDMI integriert ist.
 
@xerex.exe: Oh man, StandarD! Schon gut das sie nicht beim Standar(t) bleiben.
 
Klingt gut, auch wenn sich jetzt wahrscheinlich viele erst einmal beschweren werden, dass es nun schon wieder etwas neues geben wird. Auf der einen Seite verständlich, auf der anderen Seite natürlich auch eine natürliche Folge des ständigen Fortschrittes :)
 
@kazesama: Ich finde die Idee an sich sehr gut. So wird vielleicht endlich VGA verdrängt. Ein Absoluter FAIL ist aber der RJ-45 stecker. Der passt jetzt schon nicht mehr in manche Laptops und muss über klappbare Zusatzports beigefügt werden. HDMI ist da deutlich schmaler. Was ist an DP so verkehrt?
 
Find ich gut.
 
"Das Netzwerkkabel liegt unterm Schreibtisch, steck rein dann können wir zocken". 100 Watt später: "Du mein Lappi brennt" - "stimmt ich wollte Dir noch sagen Du sollst nicht das HDBaseT kabel nehmen"
 
@wieselding: Welcher Switch bzw Router liefert 100W am Ausgang ? PS: Das sind die glecihen Kabel. HDBaseT ist die Technik und nicht der Leitungstyp ;) Trotzdem ein + für die lustige GEschichte :) Wäre sicher lustig^^
 
Mir wärs lieber wenn der lizenzfreie Display-Port weiterentwickelt werden würde, aber dort steht ja keine Lobby dahinter...
 
@XP SP4: Der kommt immer mehr und ich gehöre zu den Leuten, die sich drüber aufregen: Noch mehr Adapter und Kabeltypen im Schrank als IT-Mensch.
 
@Lofote: Stimmt, irgendwann ist einfach Schluß mit lustig, besonders wenn die Ausstattung gewachsen ist. Jetzt hab ich gerade eine 5770 mit HDMI-Beamer an DVI, DVI-TFT an HDMI und VGA-TFT an DP... da weiß man nicht ob man lachen oder weinen soll. ;)
 
Wozu spezifizieren die dann alle 6 Monate einen neuen HDMI Standard? Bzw erweitern diese? Gerade jetzt wo sie so ziemlich (hoffentlich) einen "fertigen" Standard haben kommt wieder was neues? Auch wenn ich es befürworte das nun auch Strom übertragen werden kann, sind 100w wieder eine nicht zu Ende gedachte Leistung. So gut wie jeder LCD LED Tv verbraucht bei ansprechender Bildeinstellung mehr als 80w. Nun kommen die 3D Displays die das wohl wieder Toppen werden. möchte man noch gleich seinen Receiver mit befeuern schleift man das Signal durch und von den 100w bleiben nur noch 20w über..... Oh mann, macht doch einmal was anständiges liebe Industrie.
 
@ThreeM: Weil ein langfristiger Standard weniger Geld bringt? Ist leider so :(...
 
@Lofote: Wird wieder zeit den Universal Adapter von IBM hervor zu kramen ;)
 
@ThreeM: wieso benutzen wir nicht einfach weiter scart... oder gehen zu fuß statt mit dem auto zu fahren...
 
@Conos: Ich habe absolut nichts gegen neue Technologien, wieso auch, aber dann bitte zuende gedacht.
 
@ThreeM: ganz meine Meinung. Mit 150 W oder 200 W hätte man schon merh anfangen können. Schließlich setzen sich neue Standards doch meist bei teurer Hardware durch und das sind bestimmt keine 17" Fitzelmonitore, die mit so "wenig" Strom auskommen.
 
Ich sehe jetzt schon die User, die Ihren TV dann an den Internet-Router anschliessen und sagen "geht nicht, ich seh kein Internet" :-)
 
Wahnsinns Idee!!!
Wäre echt top, wenn man dann die Geräte über eine offene Schnittstelle per Netzwerk ansteuern kann. Wir leben doch mit Infrarot in der Steinzeit verflucht nochmal! Warum ist da noch nie was passiert?? Hoffentlich ändert sich das damit. 100W sind meines erachtens ausreichend. Wer weiß, von wo das eingespeist wird. AV-Receiver? Spezieller "Switch"? Keine Ahnung... Ich denke aber, dass dann für jedes Gerät 100W zur Verfügung stehen wird und es durch eine Stern-Topologie realisiert wird. Sharp baut doch zzt schon 52"-Geräte, welche unter 100W benötigen. Und in der Hinsicht steht die entwicklung ja auch nicht still, sodass es bis zur Standardisierung und Einführung sicher einige mehr Geräte geben wird, die unter 100W benötigen.
 
@Krolli: Wenn die Sterntopologie verwenden ist der Sinn doch obsolet. Dann kann ich gkeich bei meiner Steckdosenleiste bleiben.
 
Ich frag mich nur wie sie 100 W über das über das Kabel jagen wollen.
Selbst bei einer Spannung von 48V wären es noch über 2A da würde die 0,6mm² Leitung glühen und die Westernstecker mit den kleinen Kontakten schmelzen. Vielleicht wird es für die Spannungsübertragung Stecker mit zusätzlichen Adern und Kontakte geben. Die Idee ist gut alles in ein kleines Kabel und Stecker stecken.
 
@Montag: Die Adern sind nicht 0,6mm². Sondern die haben einen Durchmesser von 0,6mm. Ohne ² ;) *Klugscheiß*. Bei Datenleitung wie bei CAT oder auch YSTY wird der Durchmesser angegeben nicht der Querschnitt. Frag mich jetzt aber nicht warum^^ CAT hat also 0,282mm². Nun sind es 4 Paare. Sind es denn 48V? Eigentluich dürften es nicht mehr als 25V sein (bei Wechselspannung)! Denn bei einer CAT Dose könnte man die Kontakte ja berühen. Ab 25V muss aber gegen direktes berühren geschützt werden. Bei Gleichspannung wäre es maximal 60V. Ausser es handelt sich dabei um neue Normen die noch erstellt werden müssen...lassen wir uns überraschen :)
 
Nachtrag: Wenn die schon dabei sind dann bitte die ganze Peripherie mit den gleichen Stecker ausrüsten. Festplatten, Tastatur, Maus, USB ect. so das man alle Geräte durchschleifen kann z.b Festplatte an Monitor anschliesen.
 
@Montag: kabel sind hochentwickelte und spezialisierte bauteile mittlerweile. man kann nicht einfach ein kabel für alles erstellen. die verbindung von hdd zu mb muss auf das protokoll angepasst werden um hohe leistung zu gewährleisten. bei usb oder firewire ist das genauso. es wurden die verschiedenen standards ja nicht aus spaß entwickelt, sondern weil sie für den einen verwendungszweck eben optimiert sind
 
Und was wird dann aus DisplayPort ? Halte ich sowieso für die bessere Weiterentwicklung von HDMI
 
@cH40z-Lord: ich finde beides blöd. keine sicherung des kabels vor zugbelastung. ein verschraubbarer stecker wie etwa dvi, nur halt kleiner wäre sinnvoll. ich finde ethernet aber auch nicht übel. meinetwegen können sie alles darüber leiten...
..
sat signal,
als ersatz für usb,
netzwerk,
bild-ton übertragung,

die kabel sind günstig, relativ robust, in ziemlich jeder haushaltsüblichen länge benutzbar und flexibel.
 
Was soll ich mit 100W... Plasma und Beamer brauchen ein bisschen mehr, von daher
EpicFail
 
@Freedom: Glaube auch nicht das daran gedacht wurde bzw nicht dafür sein sollte. Trotzdem, spart man dadurch viele Stromkabel. DVD Player Reciver, NAS, Netbook, Lappi etc benötigen dann alle kein Stromkabel mehr.
 
Einige IP-Telefonen können ihre Leistung aus dem Netzwerk beziehen.

Als Epicfail sehe ich das nicht an, nur weil einige aktuelle Gerätekategorien mehr Leistung beziehen.
 
@aclacl: jap! stimmt. können sie :) Ich arbeite Tag für Tag damit :)
 
@aclacl: Nun ist ja HDBaseT nicht gerade für Telefone gedacht.
 
@lawlomatic: Es ist aber auch nicht dafür gedacht, einen LCD zu versorgen ;).

Es geht unter anderem darum, dass es bei BEDARF Strom übertragen soll. Das könnte man durchaus mit einer speziellen STeckdosenleiste oder ähnliches verbinden.
 
von Heise.de (die die news schon vor einer Woche hatten):
Über die Verbindungsleitung sollen beispielsweise Fernseher auch gleich mit Strom versorgt werden können. Der genannte Wert von 100 Watt ruft bei einigen Experten jedoch Bedenken hervor. Bei Power over Ethernet ist aktuell bei 30 Watt Schluss.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles