DX10.1-Chip: ATI will wieder zu Nvidia aufschließen

Hardware Beim Chiphersteller AMD und dessen Grafik-Tochter ATI kriselt es derzeit etwas. Das Unternehmen musste kürzlich erneut massive Verluste melden und im Markt für Grafikkarte verlor man zuletzt weiter Anteile an den Konkurrenten Nvidia. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
wow... 55 nm bei ner GPU... geht bestimmt ab^^... aber ist sicher zu teuer für die nomale bevölkerung...
 
@KarlKoch23: Sollte eigentlich nicht. Da die karte nur Technisch etwas überarbeitet ist. von der Performance sollte die karte trotzdem nicht ganz so fix sein. Jedenfalls nicht fixer als die hd2900xt 1gb ddr4. Ich denke mal so das top modell wird so 20-30 bucks mehr kosten als wie die derzeitigen. die 55nm sind aber natürlich für OC ganz gut.
 
@KarlKoch23:
durch die 55nm Fertigung werden aber auch die produktionskosten gesenkt und die Karten mit dem RV670 sollen etwa 200-250€ kosten
 
@KarlKoch23: die kosten werden gesenkt??? dachte immer das das aufwendiger sei, und darum mehr kosten würde... naja... man lernt nie aus..^^
 
@KarlKoch23: Liegt dann wohl daran das aus einem Wafer mehr GPU's entstehen.
 
@KarlKoch23: Naja mehr GPU´s je Waver heißt mehr Geld je Waver oder eben billiger verkaufen => mehr verkaufen => auch wieder mehr geld :) Aber da die preise ja schon indirekt Feststehen (180-250 Euro, je nachdem ob Pro oder XT) wird das wohl meine nächste Karte. Wenn die Karten R600 leistung haben bei den geplanten 85-110 Watt (statt 240W beim R600....) kann ich mir vorstellen warum die kunden die Karte lieben sollen :) Lassen sich sicher auch gut OCen bei dem Stromverbrauch und Temps. Die Leistung müsste trotz des 256Bit Speicherinterface ja nen Stück höer sein. Immerhin hat man dafür ja 1.2GHz GDDR4 Ram und den Chiptakt auf bis zu 825MHz angehoben....
 
Damit schließen sie aber nicht im Performance Bereich weiter zu Nvidia auf oder entnehme ich das der Meldung jetzt falsch? da lohnt sich die Neuauflage doch kaum!?
 
@Denmat: seh ich jenau so! für mich ist ati sowieso gestorben...einmal und NIE wieder....
 
@begg: Tjo anfang oktober brauchte ich eine neue grafikkarte. leider konnte nvidia mir nichts vergleichbares zur hd 2900pro bieten. traurig aber wahr :)
 
@Denmat:
klar lohnt es sich den der RV670 ist ja auch noch nicht das Topmodell. Also wird die neue Mittelklasse von ATi die Leistung des R600 haben, aber z.B. nicht mehr bei AA und AF so einbrechnen, DX10.1 unterstützt, weniger Strom benötigt und dann auch noch billiger produziert werden kann.
 
@Denmat: was mich halt verwundert, ist das leute hass auf ati schieben, nur weil ihre jetzige grafikkarte nicht mehr die leistungsstaerkste ist... ist ja nicht so das man auf der stirn stehen hat "ATI" besitzer !, was solls, wenn ati in dem segment wo ich einkauf bei gleicher leistung das gleiche kostet, warum sollte ich mir dann ne platte machen? wo nivida bissle die nase vorn hat, ist einfach der high end bereich und wer kauft das prozentual gesehen schon ( und im gegenschluss, warum sollte ich mir deswegen auch gedanken machen, hauptsache die karte fuer mich, die entspricht dem was ich will )
 
@Denmat: sehe ich auch so... hoffe aber doch, dass sie im High-End bereich wieder mit nVidia mithalten können werden
 
Es ist so das ATI(AMD) einen neue karte rausbringen, die sich HD2950 nennt und DX10.1 und PCIe2 fähig ist. Sie ist somit die erste Karte die dies unterstürtzt. Der Preis wird zwischen 200 bis 300 Euro liegen und die Leistung ist fast mit der Nvidia 8800 GTX zu vergleichen. Es wird einen 256 und 512 Ausgabe geben, die auch unterscheidliche Frequenzen haben. Aber wer da noch merh erfahren will der soll sich einfach durchgooglen. Gruß Black
 
@blackhole0: Öfter mal im Deutschunterricht gefehlt, richtig? Das tut ja weh beim Lesen.
 
@blackhole0: So schnell wie eine 8800GTX wird die RV670 (ob sie nun als 2950 oder 3800 kommt ist egal) allein des Designs wegen schon niemals sein, da R600 und R670 quasi die gleichen Chips sind, bis auf die Shader 4.1 Unterstützung und ein von 512bit auf 256bit kastriertes Speicherinterface! Und vom R600 gibt es auch keine Version, die mit einer GTX gleich ziehen könnte, weder vom Verbrauch, noch von der Leistung her und dank des halbierten Speicherbusses dürfte die R670 gute 10% bis 15% langsamer werden. Es sei denn... ja ... es sei denn... ATI hätte es endlich geschafft vernünftige Treiber zu programmieren, die das Potenzial der GPU wirklich umsetzen können.

Denn rein von den theoretischen Werten hätten die ATI-Karten schneller sein müssen, als die von NVidia. Aber Theorie und Praxis...

Ausserdem kommt ja noch die 8800GT. Noch weniger Verbrauch, niedriger Preis und eine Leistung sehr nahe der GTX, wenn man den asiatischen Betatestern glauben schenken darf.

Ich bin ja mal gespannt, mein Favorit für den kommenden Herbsteinkauf ist und bleibt ersteinmal NVidia.

 
@ Mitsch79: das größte Problem des R600 ist aber das er bei AA und AF starkt einbricht und dies soll mit dem RV670 auch behoben werden.
 
@bela b: Genau wie DU, oder Bela? Seit wann schreibt man "Lesen" groß? Geh wieder hinter deine Schreibmaschine und bring deinen Chef einen Kaffee, gerührt und nicht geschüttelt und lass leute hier schreiben wie Sie wollen. Ich hasse solche Leute echt!!
 
@Fonce: Das behebt man aber nicht, in dem man das Speicherinterface halbiert... und da er RV670 nur ein Redesign und Shrink vom R600 mit leichter Befehlsatzerweiterung sein soll, befürchte ich ganz einfach, dass diese Leistung durch mangelnde Bildqualität gewonnen wird. Ich stehe dem AMD/ATI-"Wir sind super"-Getöse sehr skeptisch gegenüber, weil vieles von dem was AMD/ATI so von sich geben klingt, als käme es aus dem Mund einer Person, die hilflos in die Ecke gedrängt da liegt und nur noch um sich schnappt. ODER, die ganze R600-Reihe war ein radikaler Schnellschuß um nicht sofort zu krepieren und der RV670 ist nun die GPU, die es eigentlich schon vor einem Jahr hätte geben sollen. In letzterem Fall wünsche ich den Jungs viel Glück, sie können's brauchen.
Konkurrenz belebt den Markt, wie man so schön sagt :) Wäre ja schön, wenn die Karten den Namen Radeon wieder mit zurecht tragen würden.
 
@Sedat: "beim Lesen" - ist ein substantiviertes Verb und wird schon immer groß geschrieben. "beim" = kurz für "bei dem", dem ist ein Artikel, die widerum stehen immer vor Substantiven, in diesem Fall "Lesen". Ist schon richtig was er schreibt. Was ich wiederum überhaupt nicht mag, wenn Leute 3. und 4. Fall nicht unterscheiden können. Es heißt "bring DEINEM Chef einen Kaffee". Die Art und Weise wie ein Mensch schreibt spiegelt seine soziale Herkunft, Bildungsgrad und seinen allgemeinen Intellekt wieder und hat direkten Einfluss darauf, wie ernst er innerhalb einer schriftlich geführten Diskussion genommen wird.
Das mal nur am Rande.
 
@Mitsch79: Dafür gibt es ein + von mir, du sprichst mir aus der Seele.
 
@Mitsch79: Bedeutet dies, dass Du die Meinung einer Person, welche nicht richtig schreiben, und sich nicht ganz so gewählt ausdrücken kann, nicht akzeptierst ?! - Das würde ja dann auch bedeuten, dass Du Dich auch von allen Leuten einwickeln lässt, die mit Rhetorik was auf dem Kasten haben.
 
@blackhole0: Ich frag mich nur was ATI noch machen will, wenn im November um die selbe Zeit wie das Crysis Release +/- ein paar Tage offiziell der G92-Chip bzw. die 9800GTX angekündigt wird, die von der Leistung her etwa das Doppelte einer 8800GTX bringen soll...
- 65nm process technology at TSMC.
- Over one billion transistors.
- Second Generation Unified Shader Architecture.
- Double precsion support (FP64).
- GPGPU native.
- Over one TeraFLOPS of shader processing power.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
- Fully Scalar design.
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
- DirectX 10.1 support.
- OpenGL 3.0 Support.
- eDRAM die for “FREE 4xAA”.
- Built in Audio Chip (HDMI).
- Built in tesselation unit (in the graphics core)
- Improved AA and AF quality levels

PS: Könnt ihr Rechtschreibfetischisten euch mal um etwas anderes kümmern als Replies auf Newsposts zu korrigieren? Nehmt euch vielleicht mal ein paar Deutscharbeiten oder Diplomarbeiten vor, da sind euch Leute sicher dankbarer. Die Welt verbessern werdet ihr mit dem korrigieren von Forenposts und dem gleichzeitigen Beleidigen deren Verfasser sicher nicht…
 
@D3xter: Es geht hier um den RV670 und das ist nicht die neue HighEnd GPU von ATi!!
 
@Sedat: Habt ihr in der Volksschule nicht gelernt, das beim ein "Zauberwort" ist. Die genauere Definition wurde ja schon geklärt. Aber generell gäbe ich dir Recht. Ich finde es auch nervig wenn die Rechtschreibung / Grammatik eines Users kritisiert wird, sofern diese nicht wirklich absolut katastrophal ist. Aber man sollte dann nicht selber den anderen berichtigen und evtl. demütigen wollen, wenn man dann sogar falsch liegt.
 
@Fonce: Das ist ja alles schön und gut aber ich seh im Moment überhaupt keine News oder Gerüchte über IRGENDwelche Highend-GPU's von ATI in den nächsten paar Monaten. Die haben noch nicht einmal die 8800GTX/Ultra in Performance geschlagen und die neue (welche doppelte Leistung verspricht) steht schon vor der Tür welche die anderen automatisch billiger werden lässt. Ich seh da ehrlich gesagt schwarz für ATI in naher Zukunft...
 
@Fonce: Nein du liegst da falsch. Das V aus dem Namen RV steht für Value. Wenn man den Gerüchten glauben schenken kann, wird eine Dual RV 670 Karte erscheinen. Das wird dan sicherlich die High-End Version sein ... aber der R700 soll ja auch schneller das Licht der Welt erblicken. Vielelicht ist es dann schon Ende 08 soweit. Aber insgesamt hören sich die Daten des RV 670 sehr gut an. Wenn die Performance mit AA/AF stimmt, die Preise bei 200- 250 € liegen, wird das eine gute Grafikkarte. Und mir ist dabei egal, ob eine mögliche GTX oder GT nun 10 - 15 % mehr Frames schafft, aber eine RV 670 trotzdem das Spiel ruckelfrei darstellt und ich finde die Nvidia Treiber schlechter als die von ATI/AMD. Aber was solls .. aktuelle PC Spiele sind sowieos alle für die Katz, hab meinen Desktop verkauft ud nutze ein älteres Notebook. Da möchte ich ein neues haben, vielleicht gibts dann auch einen RV 670 Ableger für Notebooks (55 nm Fertigung sollten ja schon für nierdigen Verbrauch sorgen, dazu dann 160 Steam-Prozessoren, 512 MB Ram mit 265 Bit und Taktraten um die 550 Mhz GPU und 800 MHZ GDDR4 wären doch völlog ausreichend *schwärm*).
 
@Mitch79+bela b & co: seit wann mißt man IQ eines Menschen durch Rechtschreibung? Und seit wann klassifiziert man ein Mensch durch Schreibfehler? Das machen nur solche Sekräterinen/Typistinen und Büroarbeiter wie Ihr. Wenn Inteligente Leute Rechtschreibung 100% beherschen würden, bräuchte man keine Sekräterinen. Man merkt eher euer sozialer Herkunft. Assis echt!
 
@Sedat:
F: seit wann mißt man IQ eines Menschen durch Rechtschreibung?
A: Schon immer. Alan Turings Definition ab wann eine Maschine als intelligent bezeichnet werden kann, lautete, sobald ein Mensch mit ihr kommunizieren kann, ohne zu erkennen, dass es eine Maschine ist.
Die Sprache und deren sinnvoller und korrekter Einsatz sind Grundlage für intelligentes Handeln.

F: Und seit wann klassifiziert man ein Mensch durch Schreibfehler?
A: Schon immer. Schonmal eine Bewerbung abgegeben? Bewerbungen, deren Aussehen, Aufbau und Ausdruck haben direkten Einfluß darauf, ob jemand einen Job/Ausbildung bekommt und somit auf den weiteren Erfolg des Probanden.

B:Das machen nur solche Sekräterinen/Typistinen und Büroarbeiter wie Ihr. Wenn Inteligente Leute Rechtschreibung 100% beherschen würden, bräuchte man keine Sekräterinen. Man merkt eher euer sozialer Herkunft. Assis echt!
A: Das ist, mit Verlaub gesagt, völliger Unsinn. Aber was mir und bela b am Herzen liegt und was wir mit unserer durchaus provokanten Art und Weise auf dieses rhetorische Armageddon aufmerksam zu machen bezwecken, ist, dass die Leute Anfangen nachzudenken bevor sie etwas sagen oder tippen. Und dein Post verdeutlicht diese Notwendigkeit ungemein. Ob es dir gefällt oder nicht.

@KamuiS:

F: Bedeutet dies, dass Du die Meinung einer Person, welche nicht richtig schreiben, und sich nicht ganz so gewählt ausdrücken kann, nicht akzeptierst ?! -
A: Nein, die Frage die sich viel eher stellt ist doch, ist diese Person überhaupt in der Lage ihre Meinung und Position so darzustellen, dass sie deutlich und ernstzunehmend wahrgenommen wird?

B: Das würde ja dann auch bedeuten, dass Du Dich auch von allen Leuten einwickeln lässt, die mit Rhetorik was auf dem Kasten haben.
A: Ich wüßte nicht woraus du das schließt, denn einwickeln lassen sich nur diejenigen, welche die rhetorischen Winkelzüge nicht durchschauen. Einmal der Beweis der Notwendigkeit der (deutschen) Sprache mächtig zu sein.

Überhaupt gibt es zu viele "Ey Alda"-Kiddies die eher die undeutlichen Dialekte Zugewanderter annehmen, als ihre eigene Sprache korrekt zu lernen. Und das trifft man mehr und mehr in Foren und Diskussionsgruppen, was ziemlich nervt.

 
@ herby53: Ich habe doch geschrieben das es sich bei dem RV670 NICHT um die neue HighEnd GPU von ATi handelt!!!! Dass das 'V' für "Value" steht weiss ich doch!!!
 
Hier mal die Daten //Chiptakt: ~800 MHz
//Shader-ALUs: volle 320
//Textureinheiten: tba, 16(?)
//Raster-Operatoren (ROP/RBE): tba, 16(?)
//Speicherinterface: 256 Bit
//Speichertyp: GDDR4
//Speichertakt: ~1.2 GHz
//Speicherbandbreite: 76,8 GiByte/s
//TDP: 135 Watt max.
-Chipgröße: ca. 193 mm² (14,47mm x 13,38 mm)
 
@ Fonce Thx, aber es ist ne Frau also lass sie xD Der Inhalt ist verständlich und da ich gerade auf der arbeit bin tippe ich das einfach nur runter und fertig, solange es jeder versteht ist es mir doch latte...
 
@blackhole0: ist schon ok, lahsss di schlauhmaier...(( : sorry,muss bearbeiten...di muss natürlich mit "h" geschrieben werden.
 
@blackhole0: Apropos Latte, das sollte ich doch wissen, wenn ich eine Frau wäre, meinst du nicht?
 
BTW sind heute die neuen Linux Treiber erschienen von ATi. Neu ist unter anderem die Nutzung von AIGLX sowie einige Bugfixes und Performancesteigerungen.
 
Wiejetzt? Bin ich gezwungen ein neues Bord zu holen mit PCI-E 2.0

Oder kann ich auch die Karte verwenden mit meinem PCI-E x16?
 
@Stefan1207: Nein, brauchst du nicht, solange die Karten auch weiterhin mit zusätzlichen Spannungsanschlüssen versehen sind, was zumindest bei NVidia der Fall sein wird. :)
 
wenn jetzt dann die treiber öfters kommen und nicht so hacken dann wärs geil dann könnt ich mir überlegen ATI noch ne chance zu geben.
 
Je öfter ich hier diese Rechtschreibfutzis lese, desto kindischer erscheinen mir die Kommentare hier.
Ist schon schwer, sich bloß ans Thema zu halten. Und solange man die Information in einem Satz verstehen kann, kann man auch reagieren, oder? Leute, Ihr versteht einfach nicht, dass es arm ist, sich über Rechtschreibfehler aufzuregen. Über den Inhalt eines Kommentars kann man sich aber natürlich auslassen...
 
Für mich ist es egal, was nun 1nsek. schneller ist!
Ich bin ATI FAN und lasse mich nicht stören an diversen Kommazahlen!
Wichtig ist, daß man seine Spiele genießen kann und das diese nicht ruckeln!
 
Kleine Strukturen und mit DX10.1 eine doch deutlich überarbeitete Architektur... und das Teil soll nichtmal offiziell schneller sein als ältere Karten? Warum nicht?
 
Vielleicht sollte ATI einfach mal brauchbare Treiber machen... Das CC abschaffen und das gute alte CP wieder einführen und dann evtl. noch n paar Daten zu Mobility offenlegen und dann wäre das langsam was, na evtl. wirds ja was glaub aber nich wirklich dran...
 
zeit lassen und tee schlürfen. denn gut ding will weile haben. haben sie die beiden segmente ATI/AMD erst einmal unter eine haube gebracht - sprich - GPU und CPU als sich gegenseitig direkt und verlustfrei antreibende einheit zusammengeschweißt (was ja das endziel ist) - ja dann...........schätze ich mal, wird NVIDIA ziemlich belämmert aus der wäsche gucken........und nicht nur die..........
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte