DirectX-11-Karten von AMD bald ab 100 Euro?

Grafikkarten Der Chiphersteller AMD will noch in diesem Jahr die DirectX-11-Grafikkarten mit dem Codename "Juniper" auf den Markt bringen. Das geht aus einer Präsentationsfolie hervor, die auf der asiatischen Webseite 'it168' veröffentlicht wurde. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Gewaltige nv Klatsche.
 
@MarZ: weil? wer sich ein bischen auskennt wartet eh bis beide Hersteller Karten am Start haben. *indieGlaskugleschau* der GT300 wird eh besser als die ATIs. Naja, bis zum Wochenende wissen wir mehr.

edit:
http://winfuture.de/news,50284.html
edit: Na, wer hat Recht behalten?!
@alle Minus-Kinder: pwnd
http://winfuture.de/news,50296.html
 
@c80: Woher nimmst du die Gewissheit das Nvidia eine bessere Grafikkartengeneration rausbringt? Die Gewissheit eines Nvidiafanatikers?

Die 5850 hat zur 4850 etwa 75% mehr Leistung und die 5870 zur 4870 noch ca 60%. Solche Leistungssprünge gabs bis heute bei einer neuen Grafikkartengeneration auch nicht allzuoft. Wenn sie es schaffen, dann müssen sie sich schon sehr anstrengen.
 
@c80: Wird die GT300 wieder ne aufgepeppte 8800er oder was steckt da wohl dahinter?
 
@monte: Mach die 88er GT mal nich so schlecht. Ich spiel damit Crysis alles hoch(außer AA und NUR 720p) =P
Na also ich lass mich überraschen was Nvidia da zusammenbaut, bin jedenfalls ein Nvidia-Fan geworden, weil die einfach solide Grafikkarten bauen =) Hab aber noch ne Radeon 9800 Pro irgendwo rumliegen ^^
 
Natürlich bringt NVidia eine bessere Karte raus ! Jetzt wo die Eckdaten feststehen müssen sie doch nur noch die Anzahl der Transistoren und Einheiten auf Ihrer Karte anpassen und ab gehts. Naja nicht so wirklich, gut Ding hat Weile und deshalb kommt die GT300 auch erst ziemlich spät. Wenn sie dann da sein wird, wird sie aber besser sein und was glaubt ihr - ja, ATI legt dann auch umgehend nach. So läuft es doch immer Mensch, glaubt ihr wirklich die ATI Karte wäre unschlagbar ? *kopfschüttel*
 
@Dario: Danke! Wenigstens einer, der Ahnung hat.
 
@Jareth: ich habe nie gesagt dass das gewiss ist. ich hab doch extra meine Glaskugel erwähnt. *hust*NDA*hust*
75% mehr Leistung ist übrigens nichts besonderes.
 
@monte: bei nVidia ist jede 2. Generation krass besser als die Vorherige. Die 8800(=9800) war krass im Vergleich zu 7800. Die GT280 war nur deutlich besser als die 8800(=9800) aber nicht krass. Die nächte Generation wird wieder krass besser.
 
@Viceinator: Wow Crysis.. ist ja richtig toll. Da war doch was mit "ment to be played..." *hust*. Ich wart ab, schau mich dann um was so vom p/l Verhältnis die Beste ist. Und ich garantiere dir es wird keine NVIDIA sein.
 
Und ich hab damals 600 Mark für eine Voodoo 2 ausgegeben ... SHIT :)
 
@Legastheniker: Dann hat man dich über den Tisch gezogen, die Voodoo2 kostete ca. 300 Mark bei Markteinführung.
 
@DrJaegermeister: Vlt hat er sich nur beim Preis verlesen, ganz nach seinem Namen (oder so ähnlich).
 
@DrJaegermeister: Die Erinnerung ist trübe, dann waren es doch nur 300 Mark, oder hatte ich zwei im SLI Betrieb? ... Nein :)
 
@Legastheniker: lol....ja das kenne ich auch noch...wollte damals unbedingt Formel1 97 spielen...das ging nicht ohne...
 
@Legastheniker: *scharf überleg* Voodoo2 und SLI. Ahhja. Genau. Natürlich.
 
@DrJaegermeister: Stimmt nicht! Ich hatte bei Markteinführung 550 DM bezahlt!
 
@tienchen: Ja, das hieß auch bei Voodoo2 SLI und hatte die gleiche Funktion! Bedeutet bei Voodoo: "Scan Line Interleave" und bei nVidia "Scalable Link Interface". Und jetzt überlege mal scharf weiter...
 
@tienchen: SLI wurde bei der Voodoo 2 eingeführt!
 
@Insane.J: Also doch! :) Nach meiner, zugegeben ja getrübten Erinnerung, war es nämlich auch viel mehr Kohle als die 300 Mark. Ich weiß z.B. noch, dass die Voodoo 1 damals kurz vor Einführung der Voodoo 2 knapp 300 Mark kostete.
 
@Insane.J: Und nVidia hat 3dfx aufgekauft und diese Abkürzung wiederbelebt. Dass im heutigen SLI noch einige Technologien von damals vorhanden sind, könnte ich mir gut vorstellen. Wenn sich 3dfx damals mit der Voodoo5 6000er nicht so übernommen hätte, würde es nVidia in der heutigen Form wahrscheinlich nicht geben.
 
@Legastheniker: vielleicht hast für die "hauptkarte" ja noch den ein oder anderen hunderte liegen lassen :)
 
@tommy1977: NVidias sli nutzt techniken von 3dfx (das verlautbarte nvidia schon bei einführung). Allerdings zu 3dfx selbst, die waren doch schon weit vor der voodoo 5 schon in arger schräglage und wurde gerade von den riva tnt (und dann auch den ersten geforce/radeon karten) in die schranken verwiesen...3dfx hats nicht innerhalb von wenigen wochen vergeigt sondern über jahre. Die voodoo banshee konnte der riva tnt nicht paroli bieten, voodoo 2 war eben nur ne zusatzkarte, die voodoo 3 bot dann gegenüber der tnt 2 garnichtsmehr was zum kauf verleiten konnte (weder technisch noch von der perfomance) und dann gab es auch noch lieferengpässe....nachdem die geforce 256 da war hatte 3dfx dann erstmal garnichtsmehr in der hand (nichtmal den 7000er radeons konnten sie wirklich was) und die dann (zu) spät eingeführten vsa-100 chips (voodoo 4/5) gegen die geforce 2 und radeon 8500er serie waren aus kundensicht ein witz (selbst die kyro ii hat für einen spottpreis die vsa 100 fast vorgeführt). Teuer, aufwändig, nicht perfomanter als die konkurrenten (technisch aber zugegebenermaßen einige interessante features)...und da war das geldpolster von 3dfx dann halt auch mal aufgebraucht, sie haben einfach nach ihrer pionierleistung zu lange zu uninteressante/schlechte produkte geliefert
 
Wenn die Entwicklung sich bei ATI weiterhin so stark zeigt, dann wird meine nächste Grafikkarte sicher wieder eine ATI sein. Für den Moment benutze ich allerdings noch meine NVidia 9600GTX - die muss bis zum alljährlichen Preissturz nächstes Jahr im Frühling noch reichen.
 
WOW echt gut, wenn die durch ihre hohe Leistung nicht noch viel mehr Strom fressen als die alten werd ich mir die warscheinlich nächstes Jahr holen. Aber lieber noch abwarten bis Nvidia ihre draußen hat und nach dem Weihnachtsgeschäft hoffe ich mal werden die noch etwas im Preis fallen.
 
@Der Auserwählte: Die Radeon 5XXX-Karten verbrauchen deutlich weniger Strom als die 4XXX-Karten.
 
@Aspartam: Ja ich hab mich auch gerde bisl belesen. Das ist natürlich sehr positiv. Die Frage ist nur wie schaffen die das? Die Fertigung ist doch immer noch 40 nm (oder waren es 45 nm) und dann 40% mehr steigerung müsste doch eigentlich wenigstens etwas mehr Strom ziehen.
 
@Aspartam: Das stimmt so nicht. Die 5xxx verbrauchen im IDLE weniger Strom, weil sie endlich einmal richtig die Energiesparmechanismen einsetzen, die eigentlich schon unter 4xxx arbeiten sollten. Unter Last allerdings verbraucht die 5870 mehr als die 4890 - natürlich bringt sie auch mehr Leistung, aber sie verbraucht halt mehr. Nachzulesen hier: http://bit.ly/zQDAj ( http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/26/$abschnitt_leistungsaufnahme )
 
"Offenbar will AMD seine günstige Position im DirectX-11-Bereich ausnutzen, um Nvidia einige Kunden wegzuschnappen" ... Könnte klappen. Aber ich finde wer clever ist wartet ab bis es ein Konkurrenzangebot gibt und kauft dann eins von beiden.
 
@DennisMoore: Vielleicht wartest du dann auch gleich noch bis ATI wieder nachlegt ?
 
@Dario: Nein. Beide sollen ihre Karten herzeigen und dann wird eine gekauft.
 
Sehr mutig wenn man bedenkt, daß sich kaum noch jemand einen Desktop-Rechner kauft.
 
@Alter Sack: ne... niemand. Ich weiss echt nicht was ich zu deinem Kommentar schreiben soll
 
@Alter Sack: Ja stimmt - Hier auf Arbeit arbeiten auch alle nur noch an Notebooks, jeder Gamer hat ein Notebook. Die Millionen Grakas und Desktop-CPUs die im Jahr verkauft werden sind auch nur zum Hinstellen gedacht.. Also wirklich. Der Markt ist noch Milliarden schwer und AMD will auch schon Anfang 2010 große Stückzahlen für Notebooks liefern.
Das man erstmal auf dem Desktop Erfharung sammelt, wo es auf 5 bis 10 Watt nicht ankommt ist logisch.
 
@Alter Sack: woher hast denn diese weisheit? klar in geiz- und blödmärkten trifft dies zu, weil da gibts auch keine gscheiten desktoprechner. aber ich arbeit im computerfachhandel und da schauts so aus das bei weiten weniger notebooks verkauft werden. schüler, studenten, geschäftsleute kaufen notebooks, zum arbeiten. solangs keine vernünftigen notebookkonzepte gibt wo man ähnlich wie bei den desktop-rechnern komponenten wechseln/aufrüsten kann, wird dies auch so bleiben
 
@Alter Sack: war der wirklich ernst gemeint? :)
 
@Alter Sack: Also seit dem ich ein Notebook hab, hat mein Desktop kaum noch was zu tun. Fast ein reiner Datenspeicher. Würd ich spielen wollen, tät ich das aber nicht auf dem Notebook.
 
@Dario: so gehts mir auch, notebook hat den pc verdrängt... aber zum zocken auf jeden fall n desktop, kann den Alter Sack da auch nich verstehn o0
 
Nvidias Probleme mit DX-11 Karten scheint doch ziemlich groß zu sein.
 
@m @ r C: Wie kommst du darauf? Erste Muster sind schon ausgeliefert worden.
 
@c80: na ich erinnere mich hier vor nicht allzu langer Zeit mal gelesen zu haben das Nvidia große Probleme mit den Test Chips hat - und nun wurden wie du sagst schon erste Muster ausgeliefert? Ich hoffe der evtl. Zeitdruck ging nicht auf Kosten der Fehlerbehebung
 
@m @ r C: nVidia hatte bei den ersten Mustern eine Ausbeute von ca 2%. Das stimmt. Weißt du ob das viel oder wenig ist? Hast du vergleichbare Zahlen von anderen Herstellern? Der GT300 wird noch diese Woche offiziell vorgestellt. Die technischen Daten sind beeindruckend. Leider darf noch keiner was schreiben wegen der NDAs.
 
@c80: Ja die Ausbeute soll "normalerweise" deutlich höher ausfallen, stand sogar in der News. Na is doch schön wenn du Hintergrundinfos hast, dann ist meine Frage ja beantwortet :) Trotzdem hoffe ich das nicht nur die technischen Daten beeindruckend sind.
 
@c80: Eine durchschnittliche Ausbeute von 20-30% wird bei diesen sehr frühen Samples (die ja dazu dienen, letzte Bugs zu finden und auszumerzen) eigentlich angepeilt - das wurde auch in den ein oder anderen News erwähnt...
 
@c80: Die durchschnittliche Ausbeute pro Wafer bewegt sich zwischen 70 und 80 %. Früher war solch eine hohe Ausbeute noch nicht möglich da die Chips im Verhältnis größer waren und dadurch die runde Fläche nicht ausgenutzt werden konnte.
Zudem ist es heute möglich, teilweise vollständige Prozessoren zu verbauen, da man fehlerhafte oder fehlende Teile deaktivieren kann (Phenom X3, etc.).
 
@Sniper[tb]: Es ging nicht um die durchschnittliche Endausbeute, sondern um die Ausbeute der ersten Samples - und da sind 70-80% deutlich zu hoch gegriffen...
 
@m @ r C: ist es nicht vielleicht auch vorstellbar, dass nVidia dieses Gerücht gestreut hat, damit ATI die ihre Karten rausbringt? Derjenige, welcher als letztes die Karten veröffentlicht ist im Vorteil, da er das Konkurrenzprodukt kennt und somit seine eigene Produktpalette darauf abstimmen kann. Glaub mir nVidia lässt sich das Weihnachtsgeschäft nicht entgehen.
 
@Sniper[tb]: genauso ist es auch bei GraKas. GTX285 = alles ok, GTX275 bisschen kaputt, GTX260 noch mehr kaputt. 2
 
Mal Hand hoch, wer denkt dass sich auf den Karten echte DirectX11-Spiele in erträglicher Auflösung und allen Details spielen lassen! PCO
 
@pco: Naja die Unterschiede zwischen Dx10 und Dx11 fallen diesmal nur sehr gering aus, im Vergleich zu Dx9-Dx10. Ich denke, die Performance wird auch bei Dx11-Titeln schon ziemlich gut sein. Aber wissen wissen wir es erst in ein paar Monaten.
 
@pco: Naja das was ich gelesen hab, tragen alleine DirektX 11 Spiele dazu bei bei DirektX 10 Karten die Performence etwas zu verbessern. Wenn man den ganzen News glaubt dann ist die Performence bei DirektX 11 bei etwas besserer Grafik besser als bei DirektX 10.
Zumal alle Spiele auf meiner 4870 Ati Karte ohne Ruckler auf höchster Auflösung laufen. Außer bei Crysis musst ich die Filter um ein zwei Stufen runterstellen. Und da die Spiele Entwicklung was die Grafikverbesserung angeht nicht mehr so schnell voranschreitet sonder das Hauptaugenmerk auf den Stile gelegt wird. Wirst du mit dieser Karte sofern die Daten stimmen ziemlich lange alle Spiele auf höchster auflösung spielen können. Man kann sagen, wenn neue Konsolen rauskommen wird die Grafik auch wieder merklich steigen. Und das passiert frühstens 2012.
 
Und wie sieht e mit den ersten, auf der Hauptplatine integrierten Chipsätzen aus, die DirectX 11 können? Werden die zeitgleich erscheinen, oder dauert es da für gewöhnlich länger? Und wenn ja, wie viel länger? Würde mich interessieren, da ich mir zu Weihnachten einen Wohnzimmer-Rechner zusammenschrauben möchte.
 
@Der_Heimwerkerkönig: AMD hat seine neue Chipsatzreihe AMD RD8x0 für nächstes Jahr angekündigt. Die entsprechenden IGP-Varianten sind aber nicht wirklich vor Mitte 2010 zu erwarten.
Zumal es da für Dx11 auch keinen Grund gibt. Oder hast du schonmal auf ner IGP Dx10(.1) genutzt? Ich nein und ich hab einige im Betrieb. Und du sagst ja schon Wohnzimmerrechner - und da hat AMD aktuell mit dem 785G inkl. UVD2 eigentlich das beste Angebot. Hardware Decoder für bis zu 2 FullHD-Filme gleichzeitig mit sehr geringer CPU-last und zudem ist die Leistungsaufnahme sehr gering.
 
@Der_Heimwerkerkönig: Und wozu brauchst du dann unbedingt DX11?
 
@tommy1977: Ich brauche es nicht unbedingt, aber wenn ich mir schon einen Rechner zusammenschraube, dann achte ich schon darauf, dass der nicht mit Hardware bestückt ist, die unmittelbar vor dem Ende steht. Es ist ja außerdem auch so, dass die DirectX-Karten bzw. Chipsätze, grundsätzlich eine deutlich höhere Leistung bringen als die Vorgängermodelle. Auch ein Grund für mich, das eventuell abzuwarten. Denn ein bisschen spielen, möchte ich am Wohnzimmer-Rechner schon auch können. Und nicht nur Spiele aus Großvaters Zeiten :-)
 
Also 100€ wäre ja wirklich ein top Preis für die saubere leistung! Vielleicht wird damit dann meine 4670 ausgetauscht, wenn die Karten auch wieder so schön stromsparend werden.

BTW: Weiß jemand wann mit der 5670 zu rechnen ist? Diese Karte würde mich dann nämlich noch fast mehr interessieren! - 60€ für eine Karte die etwas besser ist als eine 4890?! Hört sich doch super an.
 
Wie schaut es bei der 58xx'er Reihe mit AGP Karten aus? Hat jemand was dazu gehört?
 
@MisterX1980: gibts agp noch? o_O
 
@MisterX1980: Ehm meines Wissens nach ist die HD4650 die letzte und stärkste Karte mit AGP-Anbindung. Bei dieser Karte kommt es aber leider häufig zu Treiberproblemen. Außerdem kann ich mir kein Rest-System vorstellen, das eine AGP Anbindung verwendet und indem eine 58xx sinvoll wäre.
 
@MisterX1980: Ich denke, eine so starke Grafikkarte mit AGP ist einfach völlig unterfordert und würde den Kauf absolut nicht rechtfertig, weil der Arbeitsspeicher, die CPU, die Mainboardchips usw. schlichtweg viel zu langsam sind, dass die Grafikkarte ihr Potential auch nur ansatzweise ausspielen könnte.
 
@prisix: 4670 ist derzeit die schnellste. Wäre nur schön eine DirectX 11 Karte für AGP zu haben. Muss ja nicht super schnell sein. Vielleicht eine 5830 oder so.
 
@MisterX1980: AGP ist mittlerweile zu langsam von der Bandbreite her.
 
ATI HD 4890 ist schon recht gut. Mal sehen, wie es mit der HD 5890 aussieht?!
 
Lieber ne gute DirectX 10-Karte als ne DirectX 11-Krücke... Ach ja, korrekt müsste es heißen Direct3D 11-Karte... und als ob die Direct3D-Fähigkeiten was mit der Leistungsfähigkeit zu tun hätte...
 
@mibtng: Ehm die 5750 ist wahrscheinlich schon beser als die 48xx Modelle, dabei stromsparender, leiser, kleiner und noch performanter wegen dx11.

mfg prisix
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles