Neuer High Definition Audio-Standard ist fertig

Hardware Vor kurzem hat Intel die Richtlinien für den neuen High Definition Audio-Standard freigegeben. Dieser soll den in die Jahre gekommenen AC'97 ablösen. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
AC97 ermöglichte auch die massenhfate Verwendung von minderqualitativen Chips sowie Vergeudung von Prozessorleistung durch gezielte Entfernung der eigentlich sehr weit entwickelten und zukunftssicheren Hardwarbeschleuning. Die neuen Späße wie 192 KHz (nur mal zur Erinnerung, bewusst wahrnehmen kann man nur etwa 20 KHz = 40 KHz Smaplingfrequenz und für Schallrichtungsbestimmung maximal 40 KHz = 80 KHz, was über nahezu keinen Lautsprecher überhaupt rauskommen kann.) 32-Bit Samplingtiefe sind genauso sinnlos, mit 16 Bit hat man bereits 96 dB PSNR, wpbei das menschliche Ohr im Maximalfall (Frequenz ~ 1 KHz) 80 dB unterscheiden kann, im typischen Durchschnitt nur etwa 45 dB.
 
Die 0.5% an CPU Leistung die da drauf geht ist doch sowas von scheiß egal, frühers war das ein Problem als die CPUs noch 100Mhz hatten. Wobei ich finde, dass AC97 eigentlich sehr gut war und sich etabliert hat. Hab sogar mal nen linuxtreiber für nen AC97 Cmedia Chip geschrieben war ne feine Sache wegen der guten Doku die es von Intel und CMedia gibt. Wo ich dir Recht geben muss ist, dass ich auch kaum glaube, dass ein normaler Mensch den Unterschied von alt zu neu unterscheiden kann :-)
 
Eher 5-10%. Bei Multichannel und vor allem EAX-Softwareemulation gerne mal 40%. Resampling in Softwareemulation ist auch nicht ganz billig...
 
Antwort auf den Kommentar von MDK. Rika, wieso Multichannel und Softwareemulation? Ein AC97 CMedia 9739 unterstützt beispielsweise nativ 5.1, da wird rein gar nix emuliert.
 
Ich meine Multichannel-Decoding. Softwareemulation bezog sich ja auf EAX und ist ein ein Krux, wenn's nicht in Hardware berechnet wird. Schon geil, 16 Kanäle = 40 % Systembelastung, während es die Audigy ohne ein Zucken problemlos in Hardware berechnet.
 
mecker mecker ich glaub die entwickler haben bestimmt mehr ahnung @rika 8[
 
Ahnung von was? Von Kundenwünschen, von vernünftigen Prinzipien oder von Technik? AC97&Konsorten waren vor allem auf wohldefinierte Interfaces, hohe Integration und geringe Preise ausgelegt, auf Kosten der Auslagerung von Funktionen der spezialisierten Hardware in Softwareemulation. Die Standardisierung der Interfaces ist als positiv zu Betrachten, das gezielte und eigentlich unnötige Vergeuden von Rechenleistung eher nicht. In dem Sinne gibt es ja auch gute Beispiele, z.B. die Audigy von Creative - AC97-Interface und 'ne gute Hardwarebeschleunigung, auch wenn immer noch einige Sachen fehlen, die früher problemlos in Hardware erledigt wurden. Die Mehrzahl aller AC97-Chips ist aber genau das, was zu erwarten war: Billig, dumm und mit schlechter Ausgabequalität. Letzteres war auch nie Bestandteil der Prüfung gegen die AC97-Norm ist auch dem angeblichen High-Defitinion Standard nicht vorgesehen.
 
@scootiewolff wenn man überhaupt keine ahnung hat wie du sollte man sich genau überlegen was man schreibt! @Rika du gehst zusehr ins detail!.. versuche bitte es den leuten deutlicher zu erklären. ich glaube kaum das alle deine fachausdrücke verstehen!.. aber du hast recht :) gr.tron
 
AC 97 war bestimmt net an Spieler gedacht, es ist doch nur eine Notlösung für den Heimanwender Sound zu genießen....
Und der neue Standard setzt das auch nur fort, sowas kann keine Soundkarte ersetzen.
 
192KHz und 32-Bit? was glaubt intel damit zu erreichen? es wird kein lautsprecher dieses singnal übertragen können. es ist sinnlos diese bandbreite zu fahren da es eigentlich nur für den studio betrieb gedacht ist und somit auch nur für produktionen angewendet wird um den dynamik bereich sicher zustellen das es nicht z.b. zu einem unschönen "clipping" effekt kommt. gr.tron
 
Ich würde sagen, AC'97 hat seinen Sinn erfüllt. Wenn man sich mal überlegt wofür er entwickelt wurde (damit der Heimanwender mal mehr hat als nur PC-Speaker piepen) konnte damals wohl keiner ahnen wie lange er noch existieren wird. Und ich denke er wurde auch nicht entwickelt damit ein 5.1-System o.ä. drauf läuft. Wobei es da ja auch schon weiterentwicklungen gab (z.B. der EMU10K1-Chip von Creative). Ich denke mal die Industrie hat sich gut daran getan einen neuen Standard zu finden, und sei es nur damit sie sich gegenseitig die eier schaukeln können :)
 
mit 192KHz und 32-Bit entsteht eine datenflut die kein rechner einfach so nebenbei berechnen kann. selbst im kino oder auf DVDs läuft die tonspur mit 48KHz und 16-Bit.. und der sound ist geil genug! fazit: der neue High Definition Audio-Standard ist fertig und kein mensch weiß und kann etwas damit anfangen :)
 
Selbst 24-Bit/96KHz wurde auch nur eingeführt, um die Audiobearbeitung unproblemtischer zu gestalten und das Schnittformat nativ auszugeben. Auch 48 KHz war nur eine reine Normierungssache. Ansonsten hat HDA schon einige nette Vorzüge: Die Meßmethoden zur automatischen Erkennung von Mikro, C-Mikro, Lautsprecher+dessen Stärke wurden verbessert, einige interne Blockade gelöst, das Einbinden von hardwarebeschleunigenden Chips etwas verreinfacht. Aber kein Grund, deswegen gleich irgendwelche großen Rummel zu machen.
 
@ Rika, cool bleiben! keiner macht hier einen rummel :)
 
Na doch, Intel rüht ganz schön die Werbetrommel.
 
Wenn der Track scheiss ist, bringt die beste tonqualität recht wenig.
Ausserdem liegt es nicht nur an der soundkarte sonder an verschieden faktoren die ausschlaggebend sind. z.B.: Boxen! wenn nutz die beste highend soundkarte wenn er noch omas boxen angesteckt hat??? also wieder ein ziehmlich kostenspieliger aufwand um aktuell zu bleiben. Peace!
 
OmG! Rika, du hast echt keine Ahnung...
 
Wie wär's mal mit konstruktiver Kritik, z.B. Nennung von bezweifelten Argumenten mit Begründung? Ansonsten verweise ich auf Pi's Law.
 
@Erazer & CO
Haltet einfach den Maul, wenn ihr nichts zu sagen habt! Hauptsache etwas gemotzt, geell??
 
Antwort auf den Kommentar von turboman :) cool bleibe *heh* warum regt ihr euch über solche menschen auf! aber mal zum thema zurück. wenn die entwicklung der pc weiter geht wie in den letzten 3 jahren dann kann ich es mir durchaus vorstellen das diese bandbreite standart wird *g* aber weiterhin würde ich mich fragen, wofür?... gr.tron
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen