YouTube in 4K 60 FPS: Neue Option bringt Hardware ins Schwitzen

YouTube hat eine neue Funktion freigeschaltet, die ganz klar unter dem Motto "Weil wir es können" entwickelt wurde. Ab sofort finden sich auf der Videoplattform Inhalte in Ultra HD, die mit 60 FPS Bildwiederholrate selbst gut gerüstete Systeme an ... mehr... Google, Logo, Youtube, Videoplattform Bildquelle: YouTube Google, Logo, Youtube, Videoplattform Google, Logo, Youtube, Videoplattform YouTube

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich bin froh das ich keine Herzattacke bekomme (wie manch einer hier) wen ich in 720p und 30fps ein video Sehe oder ein Spiel Spiele. den hype von 60 fps verstehe ich eh nicht. so lange die 30 fps stabil bleiben merkt man eh keinen Unterschied.
 
@cs1005: kommt sehr stark aufs Spiel an. Bei hektischen Spielen merkt man den Unterschied zwischen 30fps und 60fps sehr deutlich.
 
@cs1005: Ich finde schon, 60 fps wirken einfach irgendwie flüssiger. Alles darüber könnte ich glaub ich aber auch nicht mehr erkennen.
 
@cs1005: Ich konnte CS nur mit 99 FPS spielen. Alles darunter war ein graus.
 
@hhgs: lass dich dann mal bitte untersuchen :) da kann was nicht stimmen...
 
@cs1005: Ah ja, wenn das Spiel technisch so gemacht ist, dass es unter 99 FPS ruckelig wirken kann, hat man eine körperliche Behinderung? Respekt. Wäre aber auch zu einfach gewesen zu sagen, dass das Spiel nicht ganz sauber optimiert in der Hinsicht ist.
 
@Tester100: diese "Optimierung" geht nur durch das Verwaschen/blur bei Drehung zu bewerkstelligen. Das wäre keine Optimierung sondern eine massive Verschlechterung (üblich bei 30fps Spielen).
 
@hhgs: Joa wahrscheinlich auf nem 60hz Monitor der das eh nicht darstellen konnte...
 
@picasso22: mehr als 60hz ist ebenfalls unnötig.
 
@picasso22: Natürlich sieht man auf einem 60Hz Monitor bei 100fps noch unterschiede, bis 121fps sogar. Das wurde erst mit G-Sync und freesync besser, wo der Monitor syncron zur Grafikkarte abtastet...
 
@cs1005: Hab auch immer gesagt es gibt keinen Unterschied bis ich den Unterschied bei mir selbst gesehen habe. Es gibt ihn definitiv. Bei vielen Games mag es keine Rolle spielen aber bei anderen schon.
 
@picasso22: klar merke ich selber einen unterschied ziwschen 30 und 60 fps. aber die 30 fps mehr kann ich gut drauf verzichten weil es mich nicht stört. Ich Spiele ja Destiny mit 30 fps auf der Ps4, und es hat mich noch nie Gestört. 60 und drüber sind nice to have.
 
@cs1005: Jetzt mischt du aber Konsolen mit PC.
 
@cs1005: Nicht stören/es ist nutzbar ist was anderes als man merkt keinen unterschied. Man kann ein Spiel auch auf niedrigster Detailstufe auf niedrigster Auflösung spielen, ist völlig machbar. Nur ob man das will und obs spass macht, ist eine andere Sache.
 
@cs1005: 30FPS funktionieren auf Konsolen anders als am PC. Am PC sind 30FPS unschön.
 
@Smilleey: Unsinn. Das hat NULL mit der Plattform zu tun. auf konsole ist halt V-Sync grundsätzlich eingeschaltet. Beim PC hat man die Wahl.
 
@cs1005: Beispiel...BF3/4 FullHD auf 60 FPS gelocked und nach einer Weile auf 30 FPS gelocked, danach ohne Framelock...60 FPS gelocked waren sichtbar flüssiger als auf 30 FPS und unlock ging gar nicht, da Framespitzen und Framedrops sich unregelmäßig abwechselten...völlig unrundes Spielerlebnis. Von daher sollten 60 FPS schon stabil laufen.
 
@tommy1977: Ich habe ja nicht gesagt das ich bei 60 fps keinen Unterschied merke. Natürlich wird das Bidl mit mehr FPS Flüssiger. aber was bringt es wen das Menschliche auge nicht mehr als 24 fps sieht? ab 30 fps ruckelt nix mehr. die fps müssen nur Stabil sein. Bloodborne war für mich leider Unspielbar weil es zwar auf 30 ist aber nicht Stabil. da sind die 30 fps in Destiny und Farcry 4 ganz anders.
 
@cs1005: Verwechsel bitte nicht die Technik im Kino mit der zu Hause. Edit: Wieso nimmst du wahr, dass es mit 60 FPS flüssiger läuft, wenn ab 30 FPS kein Ruckeln mehr zu sehen ist? Irgendwie ein Widerspruch in sich, oder? Hier mal ein gutes Video dazu: https://www.youtube.com/watch?v=QksH65BmjK4

EDIT#2: Hier noch ein Artikel, der den Sachverhalt sehr gut erklärt: http://www.pcgameshardware.de/Spiele-Thema-239104/Specials/Wann-laufen-Spiele-fluessig-1034704/
 
@tommy1977: sieht für mich immer noch nach Nice to have aus. 60 fps wären höchstens bei sehr schnellen spielen wie CS sinnvoll. bei Rennspielen reichen 30 fps vollkommen aus. Ich habe aber gesehen das die 60 fps Weicher aussehen, 30 fps ruckeln aber definitiv nicht.
 
@cs1005: Entweder verstehe ich dich nicht oder du hast eine falsche Definition von Ruckeln. In meinen Augen ruckeln 30 FPS sehr deutlich...vor allem im direkten Vergleich mit 60 FPS.
 
@cs1005: Den Unterschied merkt man deutlich. Vergleicht man zB einen Kameraschwenk aus CoD mit GTA V merkt man schnell, dass es bei CoD viel "runder" wirkt. Es geht bei den 30-60 fps weniger ums "Sehen" und mehr ums Empfinden ;) Der Unterschied zwischen 1080p und 4k macht sich auch eher unterbewusst bemerkbar, indem man das Bild als natürlicher und realer empfindet! Dazu gabs mal eine tolle Doku einer Uni...weiß nur grad nicht mehr wie sie heißt, sonst hätt ichs gerne verlinkt.
 
@bigspid: naja aber so lange es das Spiel nur einmal mit 30 fps gibt muss man eh damit leben. Und wie Gesagt habe ich in Destiny Überhaupt keine Probleme mti 30 fps. und mir ist auch nie wirklich aufgefallen das COD schon seit black ops 1 mit 60 fps auf den konsolen lief.
 
@cs1005: Bei Destiny stört es mich auch nicht, allerdings bin ich nie im PvP unterwegs. ich sag auch nicht, dass es schlecht aussehn würde. Aber bei den CoDs merkt mans schon. Die Kameraschwenks gehen viel sauberer. Ich bin der Meinung, dass 30fps für die meisten Titel völlig ausreichen. Nur bei schnelleren Multiplayer-Spielen möchte ich lieber die 60fps, aber da interessiert die Grafik auch kaum...dafür hat man zu wenig Zeit die Details zu bewundern. Gleiches gilt für Rennspiele. Schonmal stehen geblieben, um die einzelnen Texturen anzusehn? So toll sieht das dann nicht mehr aus, aber muss es auch nicht. Die Geschwindigkeit relativert das alles dann wieder. Dafür ist aber gerade das Geschwindigkeitsgefühl entscheidend, daher lieber 60fps
 
@bigspid: naja ich bin kein Texturen und Grafik Junkie und bleibe nicht an jeder Tollen Grafik stehen um mir es genau an zu schauen. Ich möchte einfach nur Spielspaß haben, und so lange die Fps konstant auf 30 bleibt stört mich das auch nicht. ganz anders ist es bei Bloodborne und GTA 5 auf der Ps4 da Ruckelt es jeden Meter den ich mich bewege weil die fps teilweise sogar runter auf 20 geht. da lief gta 5 auf der ps3 sogar gefühlt besser.
 
@cs1005: Hui das geht garnicht...hab GTA V auf der Xbox One und da hats bisher auch n paar mal geruckelt, kommt aber sehr selten vor.
Bei manchen Spielen bin ich schon eine Grafikhure, da genieß ich auch immer wieder gern die Aussicht :) Aber die werden einmal durchgespielt und wandern danach in den Schrank oder auf ebay...
 
@bigspid: Crysis 3 auf PC war derzeit das einzige Spiel wo ich wirklich auf jede einzelne Textur geachtet habe :) boah das sah geil aus.
 
Also bei mir ruckelts. Liegt aber wohl eher daran, dass YT nicht mit dem Liefern nachkommt und der player ständig buffern muss. Top! -.-
 
hat man einmal eine gewisse zeit in wqhd oder 4k gearbeitet, dann mutet alles drunter wie die schlimmste krankheit an, die man haben kann. es sieht einfach gruselig schlecht aus - die unterschiede sind da.

es hängt natürlich vom persönlichen empfinden ab, und ist mehr oder weniger ausgesprägt von person zu person. ich persönlich bekomme von 1080p im desktopbetrieb das blanke kotzen ... das reicht schon lange nicht mehr!
 
@lazsniper2: Reiß dich mal zusammen, solche Gossensprache muss nicht sein. Wie alt bist du, 11 oder was?
 
@Gordon Stens: du definierst also flapsige ausdrücke wie "krankheit", "gruselig" und "zum kotzen" als gossensprache? interessant. wusste ich bisher auch noch nicht.
 
@lazsniper2: Wie lange arbeitest du schon mit höheren Auflösungen und was machst du damit?
Bisher hat sich für keinen in meinem Umfeld die Investition für einen entsprechenden TV oder Monitor rentiert.

edit: Woher kam das Minus? Ich meinte die Frage ernst...mich interessiert es wirklich, wer schon seit längerem die passende Gerätschaft hat. Der Preis muss sich ja für einen lohnen...kann mir da nur Bild/Video-Bearbeitung vorstellen.
 
@bigspid: ich nutze schon seit mitte 2012 nur noch WQHD, für alles. zuhause und im büro - also für arbeit und freizeit. seit geraumer zeit habe ich einen rennsimulator für project cars zuhause, der mit einem 4k schirm arbeitet (50 zoll) , weil ich die auflösung auch befeuern kann. auch an meinem macbook und mac nutze ich die retina (mbp) bzw 5k auflösung (mac) . es ist einfach wesentlich besser - für alle szenarien. das fängt bei der bildbearbeitung an, geht über große dokumente, layoutaufgaben, und hört beim zocken auf.

einzig beim tv habe ich noch keinen 4k , weil es eben noch keine 4k inhalte gibt (filme, serien, etc)
 
@lazsniper2: Das es besser ist glaube ich gerne. Nur die Verhältnismäßigkeit hinkt aktuell noch. Du als Technik-Enthusiast hast sicher deinen Spaß und Mehrwert dran, aber ich denke ein Großteil wird sich das aktuell schlicht nicht leisten können. Ích nutze zum Arbeiten (zuhause) und Spielen/Filme gucken etc. einen 1080p Beamer. Die 4k-Geräte sind noch unbezahlbar (>3k € für das schwächste Modell, gegen ~700€ für ein sehr gutes 1080p Modell). Auf etwa 3-3,5m Entfernung schau ich auf 100" und das Textbearbeiten (natürlich nur das nötigste, was eben im normalen Alltag mal so anfällt) geht problemlos von der Hand. Filme und Spiele sehen auch toll aus, wobei das meiste von einer Konsole gestartet wird. Die wenigen PC-Titel die ich spiele, rechtfertigen keinen 4k-Bildschirm, zumal es keine aktuellen Grafikblender gibt, die mich überzeugen könnten (und dafür nochmal etwa 2k investiert werden müssten, für einen potenten PC).

Was hat der 50" 4k Monitor(?) denn gekostet?
 
@bigspid: ist ein tv, der nur für den rennsim gedacht ist. habe ca. 1,6k hingelegt, +- ... ist es mir wert, da es ein hobby ist. hobbies sind immer kostspielig ;)

eigentlich alle spiele sehen (logischerweise!) in 4k besser aus, und das wird ja nicht weniger, sondern exponentiell steigen.

aber , ich sehe deinen standpunkt, es muss sich für den jeweiligen nutzer lohnen. und ein stück weit muss man early adopter sein, oder geek ;)
 
@lazsniper2: Ja klar...bei Hobbies ist das was anderes.
Sobald ein Großteil der Filme in 4k gedreht werden und entsprechende BluRays eine normale Preisspanne erreichen (5-15€ nach ein paar Monaten) lohnt sich für mich die Anschaffung! Und mit der nächsten Konsolengeneration sowieso^^
 
Fehlt eindeutig noch 2160p60 3D.
 
@Matti-Koopa: 3D ist tot
 
@Soupman2.0: wo du recht hast....
 
@Soupman2.0: Nicht ganz...manche halten sich verzweifelt dran fest...
 
@Soupman2.0: Im Bereich TV vielleicht. In anderen Bereichen wirds bald erst richtig interessant:
http://www.trendsderzukunft.de/hololens-3d-hologramm-brille-von-microsoft-kommt/2015/01/24/
 
Integriert sich natürlich ideal in moderne "drossel" Tarife.
 
@karstenschilder: Das ist der Witz, dessen Poente ich schon seit Jahren suche.
Immer größer und immer toller, alles läuft über das Internet, der Traffic wächst und wächst.
Netzausbau? Wozu? Lieber die Kunden zum sparen animieren, ECO ist doch voll im Trend ....
 
@Tomelino: Was ich eine Unverschämtheit finde ist die Radio-Werbung der Telekom....wenn die "moderne" Technik: DSL-Vectoring angepriesen wird....
 
Also bei mir läuft 4k nicht.. es hängt sich sofort auf.
Man kann mir doch nicht erzählen, dass das nur mit i7 und Titan läuft. Oo
 
@Aaron 86: Es fehlt halt der native hardwaredecoder. Das Rendering wird hier rein von der Software übernommen, das ist Höchstleistung.
 
@Aaron 86: u.a. Maxwell bietet dafür Hardware decoding, damit läufts dann auch bei entsprechendem Player, der es auch nutzt. Im Chrome kann man es aber vergessen. belastet nur die CPU, nicht die GPU.

Und was die Titan angeht... Wenn man sich so ne Karte kauft, sollte man auch bereit sein, alle 2-3 Jahre aufzurüsten - für den selben Betrag. Auf lange zeit viel Geld investieren lohnt sich meist nicht. Nicht weil die Leistung nicht reichen würde, sondern weil so wie hier Features fehlen. Die Titan hat weder nen Hardwaredecoder für H.265 noch beherrscht sie die Hardware Features von DX12(.1)

Und mittlerweile wurde sie von ner 300€ Grafikkarte überholt. So viel dazu ;)
 
Also so mega spitzen Hardware wie ne Titan braucht man nicht, aber es sollte schon halbwegs flotte Hardware da sein.
Es läuft bei mir flüssig mit nem Core I5 4690 CPU und ner R280 AMD Karte.
Allerdings mit 90 % CPU Auslastung (alle 4 Kerne) in Chrome.

Ausgeliefert wurde es von Youtube flüsig, selbst springen erzeugte nur Ladezeiten von 2-3 Sekunden. Eventuell ist das Peering bei einigen Leitungen das Problem. Mit KabelBW laufen bei mir Videos generell viel besser als vorher mit Alice / O2 ohne dass die Bandbreite des Anschlusses an sich das Problem war.
 
@pcfan: Ich hab nen i5 3570k (3,4 GHz, nicht übertaktet) und ne GTX680 - bei mir ruckelt's auch sehr derbe. Die Auslieferung von Youtube an sich bei mir auch top (wobei ich mit meiner 200 Mbit-Leitung sicherlich nicht deutsche Referenz bin).
 
@pcfan: auf einem i5 4670 mit radeon 7970 ruckelt es auch.
 
Wenn jemand ohne Chrome, aber mit Firefox den Spaß testen möchte: Unter about:config müssen media.mediasource.enabled und media.mediasource.webm.enabled auf true stehen.
Ist aber kein Vergnügen mit nem i3 M, iGPU und DSL 3k (oh Wunder^^)
 
i7 5820, gtx 980, läuft flüssig, allerdings brauch ich für ein 5minuten video 2h zum vorladen :D
 
Das Problem ist überhaupt nicht 2160p60! Das kann selbst weniger potente Hardware relativ problemlos ruckelfrei anzeigen. Das Problem ist schon wieder, dass Google halt unbedingt seinen eigenen Videocodec in den Markt drücken will.

Die Daten kommen in VP9 Encoding, was heutzutage quasi fast keine Grafik-Hardware direkt dekodieren kann. Also bleibt alles an der CPU hängen und die ist nun mal nicht für Videodecoding optimiert wie eine GPU.
Oder es funktioniert halt überhaupt nicht, da VP9 bei den Browsern bisher nur von Chrome offiziell unterstützt wird und für Firefox angekündigt ist bzw. sich mit experimentell freischalten lässt.
 
@der_ingo: naja HEVC (H.265) werden auch nicht viele decodieren können
 
@der_ingo: Kann ich bestätigen. Mein i5-2500k geht voll in die Knie, die Grafikkarte bleibt aber unverändert. (GTX 760) Bei 2 4k-Monitoren hat Sie ein Permanentes Grundrauschen von ~ 30% - Daran tut sich aber auch beim Video nichts.

(Aber hauptsache Computerbase hat festgestellt, dass man eine Nvidia GTX Titan dafür BRAUCHT. lol)

ps.: Big Buck Bunny gibt es ebenfalls in 2160p60.

http://bbb3d.renderfarming.net/

Zwar muss man dann ~ 600MB herunterladen, aber das läuft dann einwandfrei* im VLC und WMP. Es ist also wirklich chrome bzw. der Verwendete Codec.

*aber hart am Limit. etwa konstant 80% CPU und 60% GPU Auslastung
 
@dognose: danke für den Tipp, ich hatte immer noch ein gutes Testvideo gesucht, um das hier mal nachvollziehen zu können.

600 MB dürften eher harmlos sein. Ich nehme an, dass ein gleich langer Clip in VP9 auch nur wenig kleiner wäre.

Edit: gerade getestet: läuft vollkommen ruckelfrei auf einem alten Core i7 950 mit passiver AMD HD6670 im MPC-HC.
Also wie erwartet sind nur Google und der dämliche VP9 Codec das Problem, nicht die Auflösung an sich.
 
Das ist die Zukunft des Computing. Die Rechenpower wird stetig weiter steigen und all diese Dinge werden schon sehr bald Standard sein. Deshalb finde ich es ja auch so absurd dass MS bei seinem DESKTOP-System alles auf 2D schwarz-weiß umstellt. Aero frisst ja soooo viele Ressourcen. Omg.
 
liegt eindeutig nur an der Implementierung

auf meinem Macbook Pro Retina laufen 4k 60 Fps Videos problemlos im Vollbild mit Safari
mit der aktuelle Google Chrome Version ruckeln diese

Prozessor: Intel Core i5 4278U
Grafikkarte: Intel Iris Graphics 5100
 
Bei mir läuft es ohne Probleme, allerdings i7 4790K, eine MSI 980GTX, 16GB RAM und eine 50000er Leitung. Einmal hats kurz geruckelt bei Minute 1.25min rum. Hat aber nichts zu sagen, denn wenn ich manche Let's play Videos mit 1080 und 60FPS anschaue ruckeln die manchmal schon ziemlich heftig. Ich glaube auch nicht, dass wirklich ein i7 vonnöten ist.
 
Also bei mir läufts flüssig (i5 4670K, 16 GB RAM, GTX 780 Ti OC, 100 MBit Unity Media) in 4K mit 60 FPS.
 
Will mir wirklich einer erzählen, daß bei einem durchschnittlichen Internetanschluß (und damit meine ich ganz sicher nicht die oberen zehntausend mit ihren 100MBit aufwärts) der teilweise schon FullHD nicht ohne Aussetzer / Artefakte hinbekommt, dieses schwachsinnige 4k sauber laufen wird, wenn nur der Rechner schnell genug ist? Also bis zum 1. April sind's schon noch 'n paar Tage hin. <ymmd>

Vor allem passt dieser Witz gut zur Drosseldiskussion, weil ja die bösen Flatratekunden die armen Backbones sooo auslasten. Da macht es natürlich absolut Sinn, auf derart schwachsinnige Weise zusätzlichen Traffic zu erwzingen. <eg>
 
Ich habe Cyberfox 36.0.4 und ich kann die Videos abspielen. Zitat "Gleichzeitig wurde allerdings die Unterstützung für MSE + WebM standardmäßig deaktiviert.

Dadurch möchte man mehr Tester-Feedback für MSE + MP4 erhalten. Wer möchte, kann aber auch die Unterstützung
für MSE + WebM wieder aktivieren.

Zusätzlich zum about:config-Schalter media.mediasource.enabled wurden die beiden neuen Schalter media.mediasource.mp4.enabled sowie media.mediasource.webm.enabled eingeführt."

Bei mir war der webm schalter deaktiviert. Leider funktioniert der Player noch nicht so gut. Er Lastet nicht alle CPU Kerne aus, außerdem wird die GPU zwar belastet so das sie auf vollen Takt läuft, eine echte GPU Beschleunigung scheint aber nicht stattzufinden. Die alte HD6970 unterstützt dieses Videoformat sicher noch nicht. Daher braucht es nur eine kompatible Grafikkarte für diese Videos, die CPU ist dann nicht mehr so wichtig.
 
liegt wohl noch an schlechter / nicht optimierter umsetzung. 4k video dürfen mit einem core i5 und einer mainstream grafikkarte von vor 2 jahren keinerlei problem darstellen, wenn man von der hardwarebeschleunigung gebraucht macht.

scheint wohl hier noch alles in software decoded zu werden und auch das schlecht. ein wenig arbeit an der implementation und das kann kein problem sein. 50MBit Spitzenbandbreite sind auch in wirklichkeit kein Problem, die wird nur in extremfällen erreicht und kann durch intelligentes puffern abgefangen werden.
 
Hoffentlich haben die Drosselprovider schon genug ZEWA auf Lager - so oft wie die jetzt abspr******* dürften.
 
Der Scheiß macht mich wütend !
Über die Jahre hinweg hat Youtube die Video-Qualität immer weiter nach oben geschraubt, aber die Sound-Qualität vergleichsweise (!) nicht; und das, obwohl das Daten-Volumen und die Bandbreiten-Anforderungen in total abgedrehte Bereiche bei ersterem steigen, und in Bezug auf letzteres vergleichsweise überhaupt nicht.
Das Video-Qualität-Update führt dazu, dass ein High Quality-Upload eines 10-Minuten-Videos wahrscheinlich 200 GB groß ist wo zuvor in 1080p24fps-Qualität es nur 200 MB gewesen wäre - nagelt mich nicht auf die Werte fest, ich hab' nur über'n Daumen gepeilt - und das Resultat hat in beiden Fällen noch immer scheiß, verlustbehaftete Audio-Qualität und eine großartige Video-Qualität.
Stellt euch mal vor, anstatt auf 4k60fps hätte Youtube die Audio-Qualität geupdated, und zwar auf das verlustfreie, streambare FLAC-Audio-Format. Dann wäre dadurch die Audio-Qualität nicht nur besser geworden, sondern PERFEKT geworden, und das 1080p24fps-Video wäre nur von 200 MB auf ca. 260 MB angewachsen. Resultat: Ein Video mit besserer Rundum-Qualität, das nur ein Tausendstel des Datenvolumens der 4k60fps-Version hat.

Ihr seht also: Es ist nett, dass Youtube die technische Qualität der Inhalte dort über die Jahre hinweg verbessert, aber das ist nicht von objektiven, fachkundigen Kriterien angetrieben, sondern nur hype-angetrieben.

Und das ist auch der Grund, weshalb ich mit euch wette, dass wir 2020 mit der News-Überschrift "Youtube testet geschmeidiges 96fps Video-Streaming in ultra high-definition 8k Auflösung" konfrontiert werden, wohingegen die Audio-Qualität von High Quality-Uploads auf Youtube noch immer bei beschissener, verlustbehafteter mp3 oder irgend ein anderem Datei-Format ist, dass nicht ein verlustfreies Audio-Format wie FLAC ist.
 
@dungeonlight: Die Frage ist doch: Wieviele *hören* einen Unterschied und wieviele *sehen* einen Unterschied? Ich bin mir relativ sicher das bei geeignetem Equipment mehr Leute den unterschied zwischen 1080p24 und 4k60 sehen würden, als den Unterschied zwischen FLAC und 384kbit/s AAC-LC hören. Außerdem schätze ich das sich am Ende mehr Leute einen 4k-TV/Monitor kaufen als eine Hochwertige Audio-Anlage. Und auf 20-250€ PC-Boxen, ganz zu schweigen von TV-Lautsprechern hört man mich ziemlicher sicherheit keinen Unterschied zwischen MP3/AAC-LC auf hoher Bitrate und FLAC.
 
Läuft perfekt (5960X, 2xGTX980 sli)
Kommentar abgeben Netiquette beachten!

WinFuture auf YouTube

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles