Radeon 4800 vs. GeForce GTX 200: Der Juni wird heiß

Grafikkarten Der Wettstreit unter den beiden großen Grafikchiphersteller AMD/ATI und Nvidia wird voraussichtlich im Juni in eine neue Runde gehen. Nach Angaben des taiwanischen Branchendienstes DigiTimes wollen die Konkurrenten dann ihre neuen ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Auf die GTX 200 bin ich ja mal sehr gespannt... die wird ja schon lange as über graka gehandelt... mal schauen
 
@netslyce: vielleicht läuft dann auch endlich mal crysis flüssig
 
kommt mir vor, als ob beide jedes jahr mindestens 2 grafikkartenserien rausbringen wollen... ,-)... mal warten was die ersten benches sagen...
 
Die News ist im Grunde schon wieder überholt. Seit Heute (oder war es doch schon gestern) gibt es die Information, dass die 4850 im Preisbereich von 189 bis 219 US-Dollar liegt, während die 4870 maximal 250,- US-Dollar kosten soll. Als Starttermin wird der 18. Juni erwähnt, während neue Quellen davon ausgehen, dass die HD 4000-Serie auf den 16. Juni vorgezogen wird. Der 18. Juni wird dabei auch im Bezug auf Nvidia genannt, weshalb man sich bei AMD/ATi wohl dazu entschieden hat, den Termin auf den 16. Juni vorzuziehen.
 
soll mir recht sein, ich kaufe grundsätzlich eh immer die vorvorletzte generation, bin mit meiner geforce 6600GT einigermasen zufrieden und werde ende des jahres auf eine (dann sehr sehr günstige) schnelle geforce 8 setzen
 
@hardcore: die dann nicht mehr schnell ist :)
jedenfalls im vergleich mit dann aktuellen karten
 
@Xecutioner: aber hardcore wohl immernoch ausreicht und vom P/L Verhältnis sicher 10x besser sein wird als die neue G200.
 
@KlausM: ... wahrscheinlich nicht ganz! Denn angesichts der momentanen Preissituation, wird es für Nvidia wohl schwer werden, jemals wieder einen solchen Reibach zu machen wie mit den alten 8800er (G80) Grafikkarten ...
 
mich würde mal mehr interessieren wer sowas braucht?
Die Aktuellen nvgf 9800er Serien mit X2 z.B. Hallo? Wo braucht man die?
Sogar im CAD Bereich sind diese Karten einfach mal Overpowered.
 
@TeamTaken: für den professionellen cad-bereich gibts andere karten: nvidia=quadro, ati=firegl... radeon und geforce sind eigentlich fürs spielen gedacht...
 
@klein-m: ja eben und wozu bzw. welches spiel braucht solch eine graka anforderung? Keines! Dennoch gibt es immer wieder leider solche menschen die meinen sie müssen das haben damit crysis, farcry what ever mit 200 fps läuft. Das ist Hirnverbrannt.
 
@TeamTaken: Du hast recht, bis auf Crysis gibt es im Moment kein Spiel, was nicht mit aktuellen Karten zurecht kommt. Aber glücklicherweise geht die Spielentwicklung ja weiter und zum Jahresende wird es wieder einige Neuerscheinungen geben, bei denen du mit diesen Grafikkarten dann vielleicht doch was anfangen könntest. Naja, wenn du nicht in hohen Auflösungen und Qualitätsfeatures spielen möchtest, dann vielleicht nicht, aber es gibt eben Spieler, die darauf Wert legen und die kaufen sich die Karten und die brauchen diese Karten dann auch, bzw. werden sie brauchen. Das hat dann auch mal gar nichts mit "Hirnverbrannt" zu tun. Man sollte da einfach mal akzeptieren, dass es Leute gibt die darauf Wert legen. Sei doch froh, so kommen wenigstens neue Karten auf den Markt und die Entwicklung läuft weiter.
 
@TeamTaken: man kauft doch keine grafikkarte, damit sie nur im moment ausgelastet ist... oder darf man nicht in die zukunft denken... was ich mit meinem anderen post sagen wollte, ist, dass die gf9800gx2 bei richtig heftigen cad-renderings mächtig in die knie geht...
 
@TeamTaken: Wenn man in 1680x1050 oder einer höheren Auflösung spielt und alle Details sehen möchte, sind solche High-Tech-Karten sehr wohl angebracht! Denke rund 100 Euro für solch eine super Karte ist sehr angemessen!
 
@TeamTaken: Wie solls denn dann deiner Meinung nach ablaufen? Wenn es so gelaufen wär wie du es hier momentan darstellst, würden wir heute noch mit ner Geforce 2 rumgammeln. Die entwicklung muss einfach weitergehen. Vor 2 Jahren hab ich mir meine GeForce 6600GT gekauft, die damals mit noch so gut wie jedem Spiel zurecht kam, heutzutage kann mans vergessen mit der einigermaßen aktuelle Spiele in guter Auslösung zu spielen. Ich finds jedenfalls gut, denn wenn nuee Serien rauskommen werden die alten billiger und somit auch für gelegenheitsspieler erschwinglich :)
 
@TeamTaken: Ich denke mal es geht den menschen, die sich eine 9800 GTX kaufen darum, erstmal was solides zu haben, das sie sobald nicht ersetzen müssen. Denn Spiele, die eine solche Leistung benötigen, wie sie heutige Dual-GPU-Systeme bieten, wird es schneller geben, als du denkst. (PS: im CAD-Bereich wird Quadro und FireGL eingesetzt. Nicht GeForce und Radeon)
 
@ knoxyz: "Denke rund 100 Euro für solch eine super Karte ist sehr angemessen!"
Ist das jetzt Wunschdenken von dir, weil du dir mehr nicht leisten kannst oder wie ist das zu verstehen? Die Realität spiegelt das nicht wider.
 
@Helmhold: Ich habe mir letzten Monat die 9600GT für 101 Euro gekauft und kann mit der ALLES bei der oben genannten Auflösung /Details spielen. Also für mich ist das sehr wohl Realität!
 
@knoxyz: Ich habe eine 8800 GTX und die ruckelt ganz schön bei Crysis Very High @ 1680*1050, 8AA. Und so und nicht anders will ich nunmal spielen, wozu habe ich mir schließlich einen 22" Bildschirm gekauft? Da ist nix mit 100€ 9600 GT. Du kannst sicher sein, dass jede GraKa-Variante inklusive Quad-SLI und Crossfire X seine Daseinsberechtigung hat. Schau dir die Realität selbst an: http://tinyurl.com/5nhhoz
 
@Tinko: Vergleich mal deinen Link mit diesen: http://tinyurl.com/5hvnaz Beim genaueren hingucken wirst du sehen, dass etwas nicht stimmt... Und deshalb vertraue ich fast keinen Benchmark und erst recht keinen synthetischen! Davon abgesehen, stellt sich die Frage, ob in Crysis überhaupt ein Unterschied zwischen High und Very High Details ohne Standbild auszumachen ist... Ich jedenfalls, lasse mich nicht so leicht Marketing verarschen und bilde mir meine eigene Meinung.
 
@knoxyz: Wenn du den Text beim Benchmark gelesen hättest, wüsstest du, wie der Unterschied zustandekommt. Zitat (vom Test mit den schwächeren Karten): "Als Benchmark verwenden wir in Crysis die integrierte GPU-Timedemo, die man mittels einer Batch-Datei ausführen kann." Und beim Test mit den starken Grafikkarten: "Als Benchmark verwenden wir nicht den integrierten Benchmark, sondern setzen auf eine eigens erstellte Timedemo in dem grafiklastigen Level „Ice“." Extra ein grafiklastigeres Level. Und bei beiden siehst du, dass schon bei 1024x768 auf Very High mit Kantenglättung und Texturfilterung ohne Quad SLI nix zu machen ist (bei Ego-Shootern ist es wichtig, dass die Frames per Second weit über die 30 gehen. "für Shooter müssen am besten konstant über 60fps oder 70 Fps her. Liegt man unter diesen Werten, ist das Spiel nur noch eingeschränkt spielbar, die Bewegungen der Spielfigur sind sehr zäh und verlangsamt, das Zielen per Fadenkreuz wird schwammig und schlecht kontrollierbar."). Es gibt auch durchaus Leute, die sich ein 30"-Monitor leisten... Klar, wer ein 19 Zoll Monitor besitzt ist blöd, wenn er deutlich mehr als 100€ ausgibt und wer ein 22"er besitzt kann mit 100€ für die GraKa auch noch klarkommen, wenn er auf diverse Qualitätssteigerungen verzichtet (und 16xAA ist sichtbar). Und glaub nicht, dass ich keine Benchmarks vergleiche, selbst durchführe und lange überlege, ich kann auch kein Geld drucken.
 
schöner Zweikampf im Grafikkartensektor.

Mir solls auch Recht sein, somit bekommt man vorige Karten relativ schnell günstiger.
 
nvidia bringt erst vor knap 1 monat die schnellen 9800er raus und nun schon in knap 1-2 monaten die neuen 10er ? ... sprich die 9er reihe waren/sind reste von 8er reihe die sie noch teurer verkaufen wollten ? :>
 
@omenshad: Was für eine 10er-Serie? Die Namensgebung wird sich bei NV ändern. Steht doch in der News. Zudem sind ist die 9er-Serie auch nicht wirklich teurer als die 8er-Serie. Gut, die 9800GX2 fällt da ein wenig aus dem Rahmen, ist aber auch eine Dual-Grafikkarte, die im Preis auch schon gut gefallen ist. Ich weis also gar nicht, was du hast. Oder sollte das mal wieder ein Flame-Versuch sein, der irgendeinen Grafikkartenhersteller in den Dreck zieht? So sieht es nämlich aus, speziell mit dem "tollen" Smily am Ende deines Posts.
 
@Gegenspieler: nein das soll kein versuch sein ein grafikkartenhersteller in den dreck zu ziehen ! aber fakt is das die 9er reihe mehr oder weniger 8er sind mit höhren takt und sowas hat nvidia sehr sehr sehr lange nicht mehr gemacht ! und "nicht wirklich teurer..." naja auch wen sie nur ein klein wenig teurer sind ist es schon zu viel
 
@omenshad: Dann solltest du deine Aussage aber weniger provokant und reißerisch formulieren. Du überspitzt das ganze nämlich und das mit voller Absicht. Fakt ist nämlich auch, dass der G92 zwar ein aufgebohrter G80 ist, der aber eine geringere Leistungsaufnahme hat und kühler bleibt. Das dies nun 20,- Euro mehr kostet mag für dich schon zu viel sein, hat aber nichts damit zu tun, dass man damit den alten G80, bzw. die alte 8er-Serie noch teuer/teurer verkaufen wollte.
 
@Gegenspieler: die 8800gts 512 hat doch auch einen g92 ? und kühler sind die nicht wirklich
 
@omenshad: Da hast du dir eine Rausgesucht, die wirklich nicht viel kühler ist. Schau dir dann aber z.B. mal die 9800GTX an. Der Rest meiner vorherigen Aussage bleibt damit aber erhalten. Deine Art und Weise war einfach reißerisch und absichtlich übertrieben!
 
@Gegenspieler: Klötenschmerzen? Oder wieso regst du dich hier so künstlich auf? Schnösel wie dich, braucht die Welt nicht.
 
@PC-Hooligan: Name ist Programm wie? Du verstehst es anscheinend nicht, aber ich stelle nur überzogene Ausssagen richtig. Und das sogar mit Argumenten, die man jederzeit im Netz nachvollziehen kann. Ach....was reagier ich überhaupt auf deine selten dämliche Aussage....Du hast nicht mal ansatzweise versucht meine Argumentation mit Gegenargumenten zu widerlegen und da auf so einer Grundlage eine Diskussion nicht funktioniert, brauchst du uns hier nicht weiter auf den Kecks gehen. Adios Muchacho. Vaya a casa.
 
@omenshad: Ich hab eine 9800er in meinem Rechner! Top Teil, allerdings ist sie von ATI :)
 
@Gegenspieler: Ich weiß nicht ob es für deine Krankheit irgendein Heilmittel gibt. ich hoffe es aber für dich. Wenn man deine ganzen sinnlosen und selbstverherrlichenden Kommentare liest, denkt man nur noch was für ein lächerlicher DAU du bist. Adios :)
 
@pc-hooligan: Grundsätzlich habe ich ja keine Vorurteile gegen Menschen, stecke sie also nicht direkt in irgendeine Schublade, wobei ich bei dir, nach deinem letzten Kommentar, eine Ausnahme machen werde. Sinnlos sind meine Kommentare sicher nicht. Man muss sie nur verstehen. Ich würde mich daher gerne weiter mit dir auf einer intellektuellen Ebene duellieren, doch offensichtlich bist du unbewaffnet.
 
@Gegenspieler: Das meine ich gerade..sowas arrogantes wie dich habe ich schon lange nicht mehr hier gesehen. Du verlangst, dass man mit dir sachlich und intellektuell redet wobei du weder sachlich, noch intellektuell wirkst. ganz im Gegenteil. Ich Antworte nur auf deine Ebene..dein nicht vorhandenes Niveau. PUNKT.
 
@pc-hooligan: Ach ja? Wenn du meine Beiträge ließt, merkst du, dass ich im ersten Antwortpost auf die Aussage von Omenshad neutral geantwortet habe. Ich habe ihn im Bezug auf die Namensgebung seitens NVidia hingewiesen und geschrieben, dass seine Aussage so nicht wirklich korrekt ist. Weiterhin habe ich gefragt, ob sein Post nur wieder einen Hersteller in den Dreck ziehen soll, was aufgrund des Smilies und der Art und Weise wie es geschrieben wurde so rüberkommt. Es wurde mit Absicht provokant und reißerisch formuliert. Bis du dazu gestoßen bist, habe ich niemanden beleidigt. Damit bist ganz allein du angefangen und daraufhin habe ich genau so zurückgerufen, wie es in den Wald hineingeschallt hat. Ich habe hier schon mehrfach geschrieben, dass mit mir eine normale Diskussion durchaus möglich ist und das zeigt sich auch in meinen Beiträgen, doch wenn dann jemand kommt, mir "Klötenschmerzen" vorwirft, mich als Schnösel beschimpft, etc. darf er sich nicht wundern, wenn ich ihm auf gleicher Ebene entgegenkomme. Wie gesagt, bis du dich hier eingemischt hast, habe ich nicht ansatzweise eine solche Wortwahl und Ausdrucksweise an den Tag gelegt, wie du. PUNKT! Also entweder trägst du nun was zum Thema bei und wir können ordentlich diskutieren oder du lässt es sein. Dann möchte ich dich aber auch darum bitten, mich nicht mehr unberechtig so blöd von der Seite anzumachen.
 
@omenshad: Also die 9x generation ist schon Kühler... Meine 9600GT hat 40°C im Idle und 55°C unter Vollast(passiv Gekühlt). Zocken kann ich z.B. Gothic3 @1920x1200 mit höchsten Details flüssig. Und bei FullHD Videos hab ich unter 1% CPU auslastung. Bei 120€ kaufpreis würde ich die karte also nicht als schlecht oder teuer betiteln.
 
jetzt kommt dann schon GDDR5 wow ich hab in meiner grad GDDR3 xD
 
@urbanskater: Du hast doch sicher nen Edding zuhause, oder? :-)
 
ich wollte mir ende des monats einen neuen pc kaufen, der auch zum spielen auf nem 24" dienen soll: soll ich mir lieber ers eine günstige 50-100€ kaufen und warten bis die neue serie draußen ist. (MB hat Keinen integrierten grafikchip den ich nutzen könnte)
 
@glumada: Naja, für Kaufberatungen ist das hier der falsche Platz. Ich würds aber so in etwa machen. Ich würde mir eine Mainstream-Karte besorgen, mit der ich ein klein wenig Spielen kann und dann später eine große Karte kaufen. Die kleine würd ich dann sogar behalten. Dann hat man noch immer als Ersatz eine zu Hause liegen.
 
kauf dir doch auf ebay ne pci-graka für 5€ und warte auf die neuen Karten!
 
@HNM: Soll das jetzt ein Monolog sein oder warum eiert dein Post hier einsam in der Gegend herum?
 
@Helmhold: Gibt paar Leute mit der gemeinen Blauen-Pfeil-Allergie. Nicht anstecken lassen! Peace.
 
@HNM: Das ist ein "Outsider"-Kommentar :P So wie auf dem Schulhof, wenn von aussen einer was in eine Runde einwirft :) p.s. nicht böse gemeint
 
@Bösa Bär: was aber scheinbar ansteckend ist, ist das "Peace" am Ende des Komments ... schleicht sich von hinten an und tippt sich dann heimlich an den Komment :P
 
@MenschMeier: Ja, ne Vorsichtsmaßnahme. Viele reagieren schnell Aggro, blos weil man seinen Komment abgibt. Peace....äh mist scho wieda.
 
Ob Assassins Creed sein DX10.1 wieder zurückbekommt? :-)
 
@Carandur: Sobald die peinlichen nvidia karten auch endlich mal dx 10.1 unterschtützen sicher :) ...aber solange das nur ati kann, wird das nvidia nicht erlauben.
 
Die 4000 Serie wird vom Preis günstig und bestimmt gut.
 
Evt wären die Angaben bzgl Stromverbrauch ganz nützlich. Was bringt mir eine 150€ Karte, die mir im Jahr 200€ Strom aus dem Portemonaie zieht?
 
@peer_g: Wow einer der das checkt ^^, nicht schlecht. Eine stromverbrauchtest wäre sehr interessant zwischen den beiden karten, wobei ich schon jetzt sagen kann, dass ati gewinnt, da die karten bis zum jetztigen stand alle deutlich besser stromsparen wie die nvis UND ich bezweifle, dass nvidia bei diese karte denkt "hmm, vllt sollten wir nicht nur auf die fps achten, sondern auch andere features einbauen". Ist aber lustig, wenn sich nvidia käufer freuen "ja also meine karte war vllt etwas teuerer, aber dafür habe ich ein paar fps mehr..." - genau und 300€ mehr stromkosten jährlich, hat sich gelohnt kleiner :) *hust*
 
@peer_g + revo: was? 200-300€ mehr? könnt ihr den scheiss auch mal mathematisch belegen oder ist das nur irgend ein laber-troll-shit? meine gf8800gt verbrauch unter VOLLLAST 102w. das macht wenn ich 24h "harcore gamen" würde 2.4kw. was wiederum im jahr 876kw werden.. eine kw/h kostet im schnitt 15c... demzufolge werden das ca. 130€, wenn die grafikkarte unter VOLLAST 24/7 ein jahr lang laufen lassen würde... demzufolge müsste euch ati im jahr also unheimlich geld schenken, damit die differenz von 300€ auftreten kann... man man man... ihr seid schon ein amüsantes duo... (oder speisst eure super-wunder-ati-karte 100w ins stromnetz, wenn ihr zockt?)
 
@klein-m: peer_g sprach von keiner Kostendifferenz und revo- von keiner speziellen Karte. Reagierst Du in Deinem Fanboywahn nur auf Stichworte (zB wie ein Hund, der auf Kommando bellt), oder schaltest Du gelegentlich auch mal Dein Hirn ein? ,-)
 
@ twinky: ach fanboygequatsche? wenn irgendwer irgendwelche behauptungen bezüglich zahlen und verglaiche aufstellt, sollte er schon den rechenweg aufzeigen oder beweise darlegen (aber das bracuht man bei dir ja nciht) zitat revo: "genau und 300€ mehr stromkosten jährlich, hat sich gelohnt kleiner :)"... und nicht einfach irgend eine fantasiezahl in den raum werfen... ich habe lediglich den müll von 200E-stromrechnung im jahr widerlegt (ob nun differenz oder summe) (1 jahr eine 8800gt unter VOLLLAST laufen lassen reicht noch nicht mal, um 200E strom zu bezahlen - und das war nur ein bsp. - wer lässt das schon?)... und eine vergleichbare radeon 3870 braucht auch nicht weniger strom unter volllast... meinetwegen sind sie im idlemodus sparsamer, aber die paar euro im jahr... tsss... man kann sich auch an billigeren dingen aufgeilen... und nun auf zum thema: wer sich eine grafikkarte im oberen segment kauft, dem sollte auch bewusst sein, dass sie ein wenig mehr aus dem netz zieht...
 
@peer_g: Also mein kompletter Rechner braucht unter Vollast mit 24" Monitor + Boxen 220W und 165 im Idle. Das wären wenn man 20c für eine kWh bezahlt bei 180W durchschnittsverbrauchverbrauch und der Rechner 365/8 (Tage/Std) an ist 105€. Meiner meinung nach ist dies nicht viel. Hab ne 9600GT drinne, nen Intel E8400 und 2 HDDs.
 
Na ja ATI ist für mich mit dem RV670 schon die 1. Wahl...und der R770XT(über 3870X2) soll ja auch super werden, wenn er dann noch so schön stromsparend ist wie der 670 dann wirds sicher eine HD4870 werden...
 
Jo wird spannend...also nicht ganz. In sachen weniger stromverbrauch, cpu entlastung, hd wiedergabe, decodierung hat ati gewonnen. Jetzt hoffe ich mal, dass die auch gut im fps bereich abschneiden.
 
Habe immer noch meine "Asus Nvidia Geforce 8500 GT TOP" drinne, und werde auch keine andere kaufen. Bin doch kein Geldscheißer! xD
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles