AMD demonstriert ersten DirectX 11-Grafikprozessor

Grafikkarten Der Chiphersteller AMD hat auf der Computex-Messe seinen ersten Grafikprozessor mit Unterstützung von DirectX 11 demonstriert. Damit liegt das Unternehmen bei der Entwicklung offenbar vorn. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Schön und gut, bis DirectX 11 in spielen auftaucht wird es jedoch noch dauern: dafür klingt das DirectCompute vielversprechend
 
@Bioforge: Ja, da freuen sich bestimmt die Leute, die BOINC laufen haben. Bisher kann man da nur bei bestimmten Projekten nVidia CUDA benutzen, die ATI Karten langweilen sich bisher nur.
 
@Link: Es gibt 2 Projekte, die ATI unterstützen (Folding@Home und inoffiziell Milkyway@Home).
 
@TiKu: Uuuh... Zwei für den Privatanwender sehr nützliche und wichtige Programme ^^
 
@DennisMoore: Du Nase. Ich hab Link geantwortet und der schrieb von Distributed Computing. Außerdem ist Folding@Home meiner Meinung nach für den Privatanwender sehr wohl nützlich.
 
@DennisMoore: Keinen Plan, aber erstmal mosern... Zum Thema: Ich finds gut, dass AMD mal vorne weg ist. Immer nur Nvidia ist auf dauer doch etwas zu eintönig. Und wenn es (nur) dazu dient, ein paar mehr cobblestones zu ercrunchen. :)
 
Ich will keinen AMD ich will Intel!
Intel ist die Zukumnt
 
@oitzi1992: Und was macht diese subjektive Aussage so interessant, dass du sie öffentlich kundtun musst?
 
@oitzi1992: bei grafikchips??? du redest aber schon einen großen schwachsinn oder?
 
@oitzi1992: Ja genau, Intels Grafiklösungen sind einfach der hammer - schlechter gehts kaum noch! Wie sehr würde ich mir ein netbook mit ATi- oder NVIDIA-Grafik wünschen... Ja ich weiß, es gibt bereits den ION-Chipsatz mit 9400M NVIDIA-Grafik - nur leider viel zu spät für mich :(
 
@oitzi1992: @oitzi1992: Ja genau, Intels Grafiklösungen sind einfach der hammer - schlechter gehts kaum noch! Wie sehr würde ich mir ein netbook mit ATi- oder NVIDIA-Grafik wünschen... Ja ich weiß, es gibt bereits den ION-Chipsatz mit 9400M NVIDIA-Grafik - nur leider viel zu spät für mich :(
 
@oitzi1992: kommentare wie deiner sind hier immer gern gesehen. weiter so! -.- @all er redet natürlich vom larrabee
 
@DeeZiD: ich finde intel schon hammer kann ja jeder eine eigene Meihung haben oder?
 
@oitzi1992: du meinst Larabee? Naja ich weiß nicht ob es reicht xx leicht aufgepeppte Pentium Pro Kerne zusammenzuschustern um den Markt aufzumischen. Außerdem ist Intel jetzt schon Marktführer bei Grafikchips, ich will aufjedenfall kein Intel Monopol. Und da wäre da noch die Treiberunterstützung, die ist bei Intel nun wirklich unterste Schubladen. Ein Grafikprozessor/chip sollte länger als 2-3 Jahre supportet werden, siehe Geforce 6000 Serie..ist immernoch im Treibersupport. Oder ATIs Radeon 9500+, zwar nurnoch im Lagacy Support aber es gibt neue Treiber.
Intel hingegen hat Den GMA950 trotz Massenverwendung in Netbooks und co nicht mit neuen Treiber ausgestattet. Der letzte Treiber stammt aus Februar 2006.
Ich finds lustig wenn du dann die Intel jünger rumheulen das ihre Intel High End Graka nach 2 Jahren keine Treiber mehr bekommt :)
 
@oitzi1992: Du willst wohl kaum Intels GMA mit ATis 3200/3300IGP oder gar NVIDIAs 9400M-Chipsatzgrafikkarten vergleichen? Da hat Intel einfach keine Chance. Nichteinmal HD-Videobeschleunigung (H.264, VC1 usw...) wird unterstützt (auch wenn der Name GMA4500HD was anderes aussagen sollte...).
 
@oitzi1992: Dann erkläre uns bitte, warum Intel die Zukunft ist.
 
@oitzi1992: deine Meinung darfst du ja behalten, nur Argumente dafür gibst du uns keine. Die Anderen haben für dich das schon gemacht. Musst dir nur noch eins aussuchen.
 
@DeeZiD: Weil Intel ´besser in die Zukunft Entwickelt!
 
@oitzi1992: Präzisiere deine Aussage bitte.
 
@oitzi1992: Werde erwachsen!
 
@oitzi1992: Mehr Konkurenz = mehr Wettbewerb. Würde es AMD und Co nicht geben, dann würdest du deine Intel Chips nicht bezahlen können. Nicht immer so kleingeistig oberflächlich denken, unabhängig von dem, was man selbst mehr mag. :)
 
@oitzi1992: geil!... und ich wollte schon fips asmussen anmachen, damit ich was zu lachen habe... so habe ich zeit gespart... danke!...
 
@oitzi1992: Hast noch bissl Restalkohol von gestern oder ? geh lieber wieder ins Bett.
 
@oitzi1992: Genau, und dazu gehört auch, eine Meinung zu Deiner Meinung zu haben.
 
@DeeZiD: Der Intel X4500MHD aus der Centrino2 bzw. Montevina-Plattform ist absolute Spitze. Das Ding schluckt deutlich unter 10 Watt, und man kann sogar C&C Alarmstufe Rot 3 auf mittleren Einstellungen drauf spielen.
 
@DeeZiD: Ich musste jetzt meine geliebte Radeon HD3870 gegen eine Geforce 260 tauschen, weil ich seit geraumer Zeit Probleme mit FEAR habe. Alles andere läuft imo noch sehr gut und ich wollte so auf die 6'er Generation von ATI warten bzw. auf das, was Nvidia vö't. Mir ist der Hersteller eigentlich schnurz aber alle aktuellen high-end-Karten sind mir zu stromhungrig im idle und da die 4870 im Prinzip den gleichen Chip bzw. Treiber hat wollte ich das Risiko nicht eingehen. Blieb nur die 55 µm 260 übrig. Auf PhysX und damit noch stärker spasstende Pflanzen kann ich zZt. verzichten. Was gleich auffällt: Nvidia hat mit Standard-Einstellungen bei Spielen und Videos das schlechtere Bild. Den ATI-Support habe ich 3x mit meinem Problem konfrontiert aber denen scheint das Brust zu sein. Bei der 5870 interessieren mich also am meisten die Verbrauchswerte. Bin gespannt.
 
@Nero FX: Intel bringt doch oft neue Treiber, für die OpenSource Welt! Das letzte Release ist die Intel Treiberversion 2.7.0 vom 15.4.2009! Kannst aber auch aus dem git repositories noch frischeren Code auschecken wenn Dir eine Release nicht weit genug vorne ist. Der GMA 950 reicht auf Netbooks unter Linux locker für das KDE4 3D-Desktop und um Videos auf dem Netbookdisplay darzustellen. Zocken auf Netbooks ist halt so eine Sache, dafür sind die ja nicht gemacht.
 
@oitzi1992: Du bist 16. Du hast keine Ahnung vom Leben und bist ein Fanboy. Geh' mal lieber nach draußen, triff Freunde, such' dir ne Freundin und erfahre dein erstes Mal. Das sind sinnvollere Ziele, als hier im Forum zu spamen.
 
AMD muss irgentwann einmal umsteigen da wird innen nicht übrig bleieben!
 
@oitzi1992: worauf?
 
@oitzi1992: worauf umsteigen?
 
@DeeZiD: auf DirectX 11
 
@oitzi1992: narf, darum gehts ja in der meldung - zudem sind sie erster mit DX11... und kauf dir bitte mal ein Duden :-\
 
@oitzi1992: Holla die Waldfee...ist ja schlimm mit dir! Steig du lieber erstmal auf den Duden um und beachte S-P-O inklusive Interpunktierung...dann nimmt dich vielleicht auch mal jemand ernst.
 
@tommy1977: Tja, so gut kann sich heutzutage "unsere" 16-17jährige "Elite" ausdrücken. :-)
 
@oitzi1992: Weisst Du was? Langsam kriegt man den Eindruck, dass Du Dich altersmässig noch im einstelligen Bereich (oder sehr in der Nähe) bewegst. Ausserdem hätte ich eine Frage: Wie lernt man schreiben, ohne lesen zu können? Denn die News hast Du ja scheinbar überhaupt nicht verstanden.
 
@mr.return: Öhm, die (angeblich) Älteren hier sind in der Regel auch nicht immer besser. :-) Da könnte ich dir auf Anhieb so einige Namen nennen.
 
@oitzi1992: Umsteigen? Auf Intel? ^^
 
@tommy1977: Die Fibel ist für den Einstieg in den Duden recht praktisch. ^^ sry4flaming
 
@oitzi1992: -45 WinFuture Points *lachschlapplach*
 
@oitzi1992: OFFTOPIC: gratuliere. oitzi1992 ist der erste User den ich bei WF gesehn hab, der im Profil mehr winfuture - minus - punkte hat, als abgegebene Kommentare :-)
 
Einen DX 11 Grafikchip als Onboard-Lösung wäre doch nett. Hoffentlich behält AMD das Hybrid bei.
 
@Sehr-Gut: warum hoffentlich??
 
@oitzi1992: ganz einfach. weils intelligent und kostensparend ist
 
@80486: hmm sollte das hybrid nicht mal dazu dienen das die extra graka sich abschaltet und nur bei leistungsanfrage angeschalten wird?
 
@kirc: sag ich ja.. du hast 2 grakas.. eine frisst hausnummer 20 Watt (onboard) und bei beanspruchung hast du trotzdem deine "High-End" (mehr oder weniger, wie man will :-) Graka, die dann ihre (hausnummer)150 (Radeon 4870) Watt frisst (last).
Das positive daran, die 4870 frisst im Idle knappe 70Watt weniger aber trotzdem (150-70 = 80) 400% von der Onboard. was sich zum einen an der Stromrechnung bemerkbar macht, und bei Notebooks (muss ja nicht die 4870 sein) an der Akkuleistung widerspiegelt

Quelle:http://www.hartware.de/review_840_11.html
 
@80486: das war auch eine ernstgemeinte frage, also danke für die erklärung. ich hab das nicht mehr weiter verfolgt...meinem wissensstand nach sollte das doch schon bei 780g chipsätzen funktionieren... aber vieleicht erfahr ich in deiner quelle ja mehr. danke
Edit: oh werd ich nicht: Fehlercode: 404
 
@kirc: leerzeichen entfernen :-)
 
@80486: argh, mich die ganze zeit an den unterstrichen aufgehalten und das leerzeichen nicht gesehn...^^ Aber die DX11 ankündigung kannt ich schon. Gibts denn zum aktuellen zeitpunkt ein funktionierendes Setting mit amd board/graka in den man hybrid nutzen kann?
 
Video-Kodierung von der CPU auf einen Grafikchip verlagern ist doch nichts neues. AMD und Nvidia unterstützen DXVA. Bei ATi Karten seit der HD 3xxx Serie, wenn ich mich recht erinnere. Gut man benötigt eine DXVA kompatible Grafikkarte, einen geeigneten Software-Player und DXVA optimierte H.264 oder VC-1 Dateien. Das erlaubt mir das Abspielen von HD Inhalten auf meinem alten Pentium 4. Ist es durch DirectX 11 dann möglich, es auch ohne speziell kodiertes Filmmaterial für andere Videoformate zu nutzen?
 
@Koopatrooper: es geht nicht ums Dekodieren, sondern ums Encodieren.
 
@Koopatrooper:
Es geht nicht um das Decodieren sondern um das Encodieren von Videos.
 
Ah, dank an euch beide für die Information. Konnt ich den Artikel nicht entnehmen, da nur von Kodieren die Rede war. Warum es für eine Frage negative Bewertungen gibt, bleibt wohl ein Geheimnis der Forentrolle, hehe
 
@Koopatrooper: Du hast zwar etwas missverstanden, aber so abwegig ist Deine Frage nicht - die Minus hast Du m.E. nicht verdient. DX11 bietet mit compute shaders eine allgemeine Programmierschnittstelle an, mit der sich bestimmte Prozesse in Anwendungen parallelisieren lassen. Das heisst aber trotzdem, dass die Anwendung das auch nutzen, d.h. entsprechend programmiert werden muss - egal ob Video-De- oder Enkodierung. compute shaders machen das nur einfacher - und sind wieder so ein gottverdammter Versuch von M$, einen proprietären Standard durchzusetzen. Alternative ist OpenCL (NVidia hat der Khronos Group schon einen OpenCL-Compiler zur Validierung übergeben).
 
Ich sehe irgendwie keinen Sinn darin jetzt schon so ein Bohei um die neuen Grafikkarten zu machen. Ich denke die Kunden warten erstmal darauf was die Konkurrenz macht bevor sie sich für eine Karte entscheiden. Würde ich zumindest machen. Sicher, jetzt können sie sagen "Wir habens zuerst fertig gehabt", aber das interessiert irgendwie nicht, falls die neuen nVidia-Karten besser werden sollten. Das gilt dann insbesondere für die Computeshader-Leistung.
 
@DennisMoore: Aber es gibt viele Leute, die immer das Neuste, Beste und Schnellste haben wollen. Der Preis spielt dabei keine Rolle, hauptsache man brüstet sich mit seinem PC. Daher bin ich sicher, das AMD viele Abnehmer für seine Karten finden wird. Ich würde es wie du machen und erstmal abwarten, zumal wie bereits erwähnt Jahre vergehen werden, bis Spiele erscheinen, die DirectX 11 nutzen oder Anwendungen, die für diese GPU optimierte Encodierung von Videomaterial ausgelegt sind. Bis dahin sind die neuen Grafikkarten dann schon wieder Schnee von gestern. :)
Aber so lang sich potenzielle Käufer finden, kommt man mit solchen Anündigungen aus wirtschaftlicher Sicht schon weit.
 
@Koopatrooper: Naja, gerade DX11 wird sich wohl recht schnell bei Anwendungen durchsetzen, da man damit in rechenintensiven Aufgaben extrem viel Zeit herausholen kann. Gibt ja schon Tests mit CUDA, bei denen eine einfache Low-End-Grafikkarte Filme viel schneller encodieren als ein high-end-Prozessor. Mit DirectX11 kommt das dann auch allgemein, Grafikkartenherstellerübergreifend.
 
@DennisMoore: "Ich sehe irgendwie keinen Sinn darin jetzt schon ... Bohei um die neuen Grafikkarten zu machen. ... die Kunden warten erstmal darauf ... bevor sie sich für eine Karte entscheiden." Warum nicht? Wie du unter anderem hier http://winfuture.de/news,47490.html lesen kannst, ist der Gamer-Markt sehr potent und stabil. ___ P.S. Grafikpower "erkauft" man sich nie für die Zukunft. :-)
 
@3-R4Z0R: Grafikkartenherstellerübergreifend gibts das schon. Nennt sich OpenCL.
 
@DennisMoore: Diese Grafikkarten haben wesentlich bessere Unterstützung für Stream Computing (GPGPU). Damit werden sie für viele Anwendungen sehr interessant. Die aktuellen Grafikkarten leiden unter relativ schlechter/leistungsschwacher Unterstützung doppelt genauer Fliesskommaarithmetik, die für wiss. Anwendungen Voraussetzung ist, und sind in Stream Computing-Anwendungen und auch bei Wechsel Stream Computing <-> Rendering langsam. Da wird vieles optimiert werden. Bin schon sehr gespannt - bei ATI musste ich bisher z.B. sämtliche trig. und transzendente Funktionen selber in double programmieren, um die erforderliche Genauigkeit zu erreichen.
 
@TiKu: Gibt es noch nicht (jedenfalls wie mans nimmt - die Spec. ist seit ein paar Monaten fertig) ... aber bald. NVidia hat seinen OpenCL-Compiler schon zur Validierung an die Khronos Group (ist für die offenen Standards OpenGL, OpenCL u.a. verantwortlich) übergeben.
 
@Koopatrooper: Zu Deinen Minuspunkten: Getroffene Hunde bellen. Von mir ein Plus. :)
 
@Aspartam: Im Double-Precision-Bereich sind die ATI deutlich besser (schneller) als die NVIDIA. Jedoch hapert es bei ATI wie so oft an der Software. CAL ist längst nicht so komfortabel wie CUDA und mit OpenCL sieht es wie du schon schriebst ebenfalls mau aus.
 
@TiKu: Ich habe nicht den Eindruck, dass Du Dich mit Stream Computing und CUDA wirklich auskennst (ist nur ne Feststellung, nicht böse sein). Ich arbeite mit beiden. ATI-Hardware bietet keine eingebauten trigonometrischen und transzendenten Funktionen in double precision an - die musste ich alle selber schreiben. double wird mit zwei Fliesskomma-Registern emuliert, das allerdings recht schnell und genau. Die GT200-Chips unterstützen double precision nativ, aber nur mit 1/8 der Geschwindigkeit von single precision (ATI: 1/4). Dafür haben sie die ganzen trig. und transz. Funktionen in double eingebaut. ATI bietet ausserdem mit Brook+ eine stark abstrahierte Schnittstelle über CAL an, die ausserdem einfacher zu programmieren ist als CUDA (bei CUDA musst Du etwas mehr programmieren, um dasselbe zu erreichen wie bei ATIs Stream Computing API). Andererseits sind die CUDA-Tools ausgereifter und stabiler (Brook+ hat einige Einschränkungen und Bugs, um die man allerdings recht einfach herumkommt). Wenn ich könnte, würde ich Dir einen Link in unser firmeninternes Wiki geben, da könntest Du das alles detailliert ausgeführt lesen. :)
 
@Aspartam: Ich habe selbst noch nicht mit CAL oder CUDA gearbeitet, sondern stütze mich auf die Aussagen des Users Gipsel aus dem Planet 3DNow! Forum. Dieser User hat für das BOINC-Projekt Milkyway@home einen ATI-Client geschrieben. Er hat auch mit CUDA Erfahrung. Seinen Angaben zufolge hat NVIDIA Double Precision vollständig, ATI nicht ganz vollständig implementiert. Dafür (oder deswegen?) sind die ATI bei DP erheblich schneller. Jedoch ist CUDA ihm zufolge insgesamt komfortabler (bspw. fehlen wie du schon schriebst bei CAL einige DP-Funktionen) und ausgereifter, d. h. auf Softwareebene liegt NVIDIA vorn.
 
@TiKu: Erstens sage ich nichts anderes, zweitens muss ich nicht vom Hörensagen berichten. Meinem vorherigen Post sagt bzgl. ATI und DPFP alles, und ich habe dem nichts hinzuzufügen. Ich frage mich, ob Du etwas vom Programmieren verstehst, sonst würdest Du nicht mutmassen, dass ATI bei DPFP schneller ist weil es das nicht vollständig implementiert hat: Da musst Du entweder auf (ungenaue) SPFP ausweichen, oder die betr. Funktionen (z.B. sin, cos, tan, atan, exp, log) selber implementieren - und die sind dann garantiert nicht schneller als in Hardware (Mikrocode) implementierte Äquivalente auf Hardware, die DPFP wirklich performant unterstützt (was NVidia momentan m.E. nicht tut). Bitte versuche nicht, mir hier was zu erzählen. Ich habe "hands on experience" und mich hier schon wesentlich detaillierter geäußert als das, was Du von "Gipsel" hier weitergegeben hast.
 
@Aspartam: "Erstens sage ich nichts anderes" Wo ist dann dein Problem? Du wirfst mir Unwissenheit vor, aber stimmst mir zu. Muss ich das verstehen? "Ich frage mich, ob Du etwas vom Programmieren verstehst" Ja, das tue ich, glaub mir. Ich habe allerdings noch keine Erfahrung mit GPGPU-Programmierung. Das "oder deswegen?" hast du offensichtlich anders aufgefasst als es gemeint war. Gemeint war es im Sinne von "oder sollte ich besser schreiben 'deswegen'?" Aufgefasst hast du es als "oder vielleicht deswegen?"
 
@TiKu: Fang nicht an, hier Dinge zu verdrehen. Es gab einen ersten Post [1] von Dir, auf den ich geantwortet habe [2]. Auf diese Antwort hast Du wiederum geantwortet [3] und mich [2] dabei im Grunde bestätigt. In meiner erneuten Antwort [4] auf [3] habe ich das aufgezeigt und mich dabei auf [2] bezogen. Also habe ich nicht Dir zugestimmt, sondern umgekehrt Du mir. Ich denke es wäre besser, diese Diskussion jetzt zu beenden. Du scheinst die Sache etwas zu persönlich zu nehmen, und persönlich angefasst zu sein wenn man mal gesagt kriegt dass man sich irrt oder nicht genug weiss ist keine Grundlage für einen konstruktiven Dialog, in dessen Verlauf man auch mal bereit ist, Lücken zuzugeben und dazu zu lernen.
 
@Aspartam: Ich habe absolut kein Problem damit, dass du auf diesem Gebiet mehr weißt als ich. Das interpretierst du rein. Ich hab auch von Anfang an geschrieben, dass ich mit CAL und CUDA noch nicht gearbeitet habe. Dass ich nicht bereit wäre, Wissenslücken zuzugeben, entspringt deiner Phantasie.
 
@TiKu: Na, ganz von Anfang an hast Dus nicht geschrieben. :) Ich denke auch nicht, dass es mit OpenCL mau aussieht, wenn NVidia schon einen Compiler zur Validierung an die Khronos Group übergeben hat. ATI will ebenfalls Mitte des Jahres einen OpenCL-Compiler veröffentlichen und hat immerhin schon GPU-unterstützte Havok-Berechnungen komplett in OpenCL realisiert - die haben also zumindest schon einen Compiler-Prototypen der für sowas ausreicht, und das ist finde ich ein Wort. DX11 Compute Shaders wird es also für die breite Öffentlichkeit wohl erst später geben als OpenCL.
 
@DennisMoore: ... wohl wahr - und wenn man bedenkt, das selbst DX10 noch immer ein Schattendasein fristet, dürfte dieses Feature erst einmal nicht so wichtig sein. Dabei wäre es mir persönlich viel wichtiger, wenn AMD/ATI nicht mehr den Fehler begehen würde, sich im Treiberbereich einen Dreck um eine vernünftige HQ-Darstellung zu kümmern. So jedenfalls wird mich das Unternehmen nicht als Kunden gewinnen können, und ich muß, bis auf weiteres, ausschließlich auf Nvidia setzen ...
 
Es wird erst viele DX11 Spiele geben, wenn es eine neue Konsolengeneration gibt. Denn fast alle Multiplattform Spiele, sind in DX9 gehalten. Erst mit der nächsten Generation wird es einen wirklichen Grafiksprung geben. (PC exklusive Titel ausgenommen, aber das sind ja nicht viele)
 
@Megamen: [ironie] Stimmt, die paar Dutzend Shooter sind wirklich vernachlässigbar...nur um mal eines der vielen Genre zu nennen. [/ironie]
 
Wie ist DX11 überhaupt aufgebaut?? Gibts da evt. ne Chance das das auch unter XP funktioniert??
 
@legalxpuser: Halte ich für unwahrscheinlich. Bei DX10 wäre es gegangen, weil ein Key Feature (Virtualisierung des GPU-Addressraums im CPU-Adressraum) nicht eingebaut wurde, weil NVidia das nicht hinbekam, aber bei DX11 wird das wohl klappen, und das kann der XP-Kernel schlicht nicht.
 
@legalxpuser: Es wird Glück sein, wenn das auf Windows Vista läuft. Wahrscheinlich ist das Konzept nur für Win 7 gemacht worden.
 
@jediknight: ... wie kommst du darauf? DX11 soll doch abwärtskompatibel zu DX10 sein ...
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles