ATI X800 Spezifikationen und X800Pro vs. 6800U

Hardware Die Kollegen von 3Dcenter haben einen kompletten Artikel zu den kommenden ATi R420 & R423 Spezifikationen geschrieben. Dabei wurden alle Gerüchte mit aufgenommen. Folgende Angaben sind ziemlich sicher bzw. richtig: mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Erster!!! Na da bin ich aber mal gespannt, ob die X800pro wirklich schneller ist als die 6800U. Da stellen sich für mich aber noch ein paar fragen? Wieviele stromanschlüsse brauchen dann die neuen RadeonZ?
Und wie teuer wird sie? 500€? 600€? Oder mehr?
 
teurer als nividia wird ati sicher net sein...normalerweise deutlich billiger.
 
wer's glaub...
 
499 $ = ca. 440 EUR soll kosten, wieso kostet 549 EUR???????????? GEMEIN!
 
Antwort auf den Kommentar von Comet2000Deaf

Weil nunmal noch Steuern und Zoll drauf kommt, deswegen ist der Preis höher.
 
ach ja? Ich wußte doch, aber 109 EUR für Zoll & Steuer IST VIEL! Nicht normal. >:-
 
Antwort auf den Kommentar von Comet2000Deaf
US-Preise sind immer ohne Steuern. Bei uns kommen auch noch Steuern sowie Zoll drauf. Somit nähern sich die Endverbraucherpresie
aneinander an. Kommt noch hinzu wieviel die Leute bereit sind zu zahlen. Offenbar geht man davon aus, dass es bei uns vielen es Wert ist, unter den ersten zu sein...

C.W.
 
@terakill

wiso wers glaubt??

ATi war bis jetzt immer günstiger und besser... wiso sollte das jetzt anders sein?
 
ich bin überzeugter nvidianer. und meine g4 TI 4200 hat mir schon immer sehr gute dienste geleistet. ich würde mir ja auch die 6800U sofort kaufen aber ich finde es einfach unter aller sau das man dafür min. nen netzteil mit 3 kabelsträngen und 480 watt braucht. zumal ich mir vor drei monaten erst eins von levicom geholt hab und ich mir sicher war das es ausreicht. na toll :-(
 
Naja ich bin auch Nvidia Fan, aber mal ehrlich die FX Serie war doch ein Reinfall. Auch wenn man die Bildqualität der neuen 6800er mit ner Radeon 9800 XT vergleicht merkt man das Nvidia da noch einiges verbessern muss.
 
ATI wäre uach total blöd wenn sie ihre karte teurer rausbringen, den imho hat nVidia immer noch das bessere image!
 
Und ich finde es scheiß, das ATI mit weglassen, des Shaders 3.0 den Käufer in spätestens 2 Jahren dazu zwingt eine neue Karte zu kaufen.
 
son quatsch.. wann meinste denn das man nen 3.0er shader BRAUCHT???? mir isne karte tausendmal lieber die bei den nächsten spielen schnell und bildqualimässig hoch ist, als ne karte die funktionen hat die ich nie nutze, weil bis man die nutzen muss es noch ein langer weg ist!! oder gibt es schun games mit shader 3.0 ...ich glaube nicht.... und ich glaube auch nicht das es so schnell welche geben wird....
 
ALso ich frage mich wie eine X800 SE im vergleich zu einer 9800Pro/XT aussehen wird ?
Vor allem hoffe ich aber, das die ganzen alten Karten schnell billiger werden, damit auch normalsterbliche sich mal ne 9800XT leisten können.
Hat Farcry,Doom3,HL2 nicht bereit Shader 2.0 oder irre ich mich da ?
Falls ja dann glaube ich schon das nächstes jahr Spiele mit Shader 3.0 erscheinen werden.
 
Au weia. Ps 2.0 gegen 3.0. Sollte die Ati die Nvidia wirklich schlagen geht hier (und im ganzen Netz natürlich) das Geheule rum das die Leistungen nicht vergleichbar sind wegen ps3.0 und die Nvidia-freaxx meinen das ihre neuen 500 Euro Karten dann in 2 Jahren wenn Ps3.0 in den ersten Spielen vorkommt (ps2.0 wird ja derzeit noch praktisch kaum benutzt) besser wären etc ... dabei kann man ja jetzt noch nicht sagen in wie weit in 2 Jahren die kommenden Karten überhaupt noch mithalten können (Dx10 lässt grüssen).
Schade das beide Hersteller da nicht auf einer Linie sind wegen der Vergleichbarkeit, aber ich verstehe Nvidia echt nicht mehr warum die wiedermal auf ein Feature setzen (ps3.0) das noch überhaupt nicht aktuell ist und das auch total unsicher ist (denn toll wenn die Karte ps3.0 beherrscht dann aber an Dx10 scheitert ...). Wir als Verbraucher sind dann wiedermal die Idioten die sich von Nvidia anhören können "irgendwann ist eure Karte mal echt Top ... vieleicht zumindest, nur zur Zeit ... ist sie leider nicht so gut" ... Ich wär früher echt extrem zufriedener Nvidianer ... Aber meiner Meinung nach fahren die ihre Firma was Grafikkarten betrifft voll in den Sand.
 
Ich denke, wir sollten erst einmal warten bis die Karten auf dem Markt sind und die Testberichte dazu erscheinen. Dann wissen wir welche besser ist.
 
und die Chipsätze sind wirklich extrem gut im Vergleich zu denen, die es vorher für AMD-Prozessoren gab (mal abgesehen vom allerersten AMD-Chipsatz... weiss nicht mehr genau, welcher das war :) - sehr traurig eigentlich! Ich habe selber 'ne FX drin bei mir und bin eigentlich zufrieden... ich achte da aber auch nicht auf perfekte Bildqualität! Schon schade, daß so bestimmt einige Leistung verschenkt wird... und über 200 Mio. Transistoren in einer GPU ist dann doch ein bisschen viel fürs Netzteil. MfG
 
Da fehlt aber noch was interessantes: Wie hoch ist die Stromaufnahme, dann die damit verbundene Abwärme und Lautstärke (danke Nvidia-1 Fön reicht) und wird sie noch als AGP-Modell gebaut oder schon als PCI-Express??? Toll, Pixelshader 3.0, und wenn er unterstützt wird, sooo in 2 Jahren, dann ist die Karte eh zu langsam für das entsprechende Spiel - Supi!! Dann lieber altbewährtes schneller machen - Siehe ATI.
 
manche hier scheinen noch nicht aus der pupertät zu sein, zumindest das denkvermögen ist noch nicht sehr ausgereift bei einigen hier, nicht nur die rechtschreibung oder grammatikbildung etc. auch die argumente oder ihre fantasien...
1. wird die ati karte wie bisher auch billiger sein als ein vergleichbares modell von nvidia und 2. wenn shader 3.0 erst in 2 jahre vonnöten ist (da gibts schon mind. 3 nachfolgemodelle) dann brauchen wir das auch noch nicht, manche hier denken echt sie hätten mehr plan als ein hersteller der geld und arbeiter investiert in marktforschung und entwicklung etc..... naja leute: wartet einfach bis die karten da sind und freut euch das es ati mal wieder nvidia zeigen wird (und immernoch zeigt)
 
Hmm, mit Rechtschreibung und Grammatik stehst du leider auch auf Kriegsfuß !
Vom Ausdruck fange ich erst gar nicht an zu reden !

Na ja, wer im Glashaus sitzt......... ! :-)
 
und wenn manche denken ihre stromanschlüsse würden nicht ausreichen, schonmal drüber nachgedacht euch ein 1zu2 adapter zu kaufen für 2,90 euro? und ich will hier keine antworten sehn ein netzteil mit 350 watt wäre nicht emhr ausreichend, ein gutes levicom netzteil mit 350-400 watt langt für min 8 angeschlossene geräte (oder 8 stecker zu versorgen) also pisst euch net ins hemd und sucht net immer irgendwelche nachteile aus gerüchten sondern waret erstmal ab denkt dran morgen habt ihr schule, lernt schön hausaufgaben und geht nach sandmann ins bett ps der war schon
 
ok Jungs, in sachen Leistung war Ati immer ein wenig vorne, was die Benchmarks angeht, aber in sachen Bildqualität war immer nvidia vorne, und das wird sicher so bleiben, es sei denn die Leute von nvidia Schrauben sie mit Treibern hoch! Also ich habe meine FX 5900 Ultra auf höchste Bildqualität gesetzt, und habe immer ruckelfreie und nicht unter 74fps laufende Benchmarks! Mir ist die Qualität wichtig, und da ist nvidia ganz klar vorne! Vielleicht sogar auch bald was die Leistung angeht, wer weiß! :D *nvidia Freak*!!
 
Antwort auf den Kommentar von Jogibär]Nvidia hat ne bessere Bildqualitaet als ATi...Jo aber sicher doch wenn ein blinder vorm Monitor sitzt.Ich hatte ne FX5900 und ich weiss von was ich rede.Die Betonung liegt auf hatte.Habe jetzt eine Radeon 9800Pro mit 256 MB speicher und da ruckelt nix mehr.Net mal FarCry bei 1280x1024x32 und vollen Details.Nur zur Info bei Mafia hatte ich mit der Nvidia und 8x Ani ein schlechteres Bild als bei Ati und von 16 fach will ich erst garnicht reden da das Teil das garnicht konnte.....Jungs kauft euch Nvidia die wollen auch leben.Aber von meiner kohle sicher net.AMEN
 
lol nvidia in bildleistung roofl is klar ich glaub deine matrix ist net ganz feinabgestimmt
 
Hallo Stromhunger, ich habe Futter für dich http://www.listan.de/index.php?siteid=356 ^^ Moment mal, Trinkgeld EUR 84,90 bitte... O_o :-P
 
Also 350 Watt sind definitiv zu wenig für ne 6800er

Die frisst schon allein über 100 Watt kommt noch ein P4 dazu sind wir schon bei 250 Watt, da belibt nicht mehr viel Reserve.
 
@Grobi
Du hast ein Detail bei der Spezifikation der Nvidia Karte vergessen:

Laut hersteller müssen 2 kabelstränge sein, da geht nen Y-Adapter net!
 
@Jogibär

Du solltest Einstellung von Qualität nicht mit tatsächlicher Qualität verwechseln...

Klar, 8x Irgendwas Filtern ist höher als 4x, aber unbedingt besser muss es nicht sein!
Meine Meine Nvidia ist meiner Meinung nach am besten mit max. 2x-Filtern bedient, darüber hinaus wird es nur schlechter...
(Und ganz ohne spezielle Filter ist es besser als alles auf MAX)

Bei meiner ATI ist es tatsächlich so (finde ich jedenfalls), desto höher desto besser...

Dank Shuttle barebone kann ich ja beides direkt vergleichen :)

Würd daher sagen:
Nvidia ist ein Zahlenoverkill
ATI macht aber mehr raus...

Klarer Sieg für ATI jedenfalls Prä-6800/X800, da fehlt ja noch der eine oder andere Vergleich :)
 
@Grobi: Nvidia selber empfiehlt nen 480 Watt Netzteil -> Also ist das kein Gerücht. Und deine Kommentare bezüglich Grammatik etc sind wirklich nen Witz...es kann halt ned jeder ne Perfekte RS haben. Und viele Leute haben nur Fehler in ihren Texten weil sie zu schnell tippen...so etwas solltest du mal in deine sehr schlauen Aussagen mit einbeziehen :o
@Jogi: Bildquali auf Nvidia Karten soll besser sein als auf ATI Karten? Der war gut *g*
 
Naja , es gab ja am Anfang viele Leutz die gleich meinten : " Die NV40 wird die beste Grafikkarte sein und ATI kann nichts gegenhalten "
Naja ich sagte nur , dass man abwarten sollte , denn ATI guck doch nicht nur doof zu , sondern verbesser sich ständig ...naja das zum Thema NV40 .D Ich glaube dieses Jahr wird es sehr knapp zwischen NV40 und ATI ?! ...Let the show begin
 
pfff,grafikartenwahn....unsinn. anstatt ein bisschen auf die umweltschiene zu setzen bringen die immer größere stromfresser raus.
da dreht man sich doch im kreis. ok leistung braucht halt energie,aber der weg den die großen hier einschlagen ist nicht ok. da können die karten noch so megasuperschnell sein. vielleicht sollte mehr an der software gearbeitet werden um die ganzen ressourcen besser nutzen zu können...was weiß ich. da ich meinen strom selber bezahle fallen die ganzen dinger flach. was für zockerfreaks,aber für 1-2mal unreal 2004 in der woche reicht mein toshiba p10 locker aus :)
und der braucht ERHEBLICH weniger strom aus der dose :o)
 
Hallöchen, ehe es jetzt hier zuviel zank zwischen der Ati und der Nvidia Fraktion gibt: bin gerne bereit beide Topmodelle demnächst zu testen, wenn ihr mir fleißig spendet, um die Versuchsobjekte und eventuell notwendiges Zubehör einzukaufen. :-)))
Sagt also bescheid, ob ich ein Spendenkonto einrichten soll... :-))) hrhrhr
Gruß, Fusselbär
 
Nvidia hat ein gutes Image...Ei das ich net lache.Das sind die Benchmark Treiberoptimierer vom Dienst.Wenn ich ueber die Geforce 6800 nen Bericht lese und da werden die Standard Benchprogramme benutzt,gebe ich nen scheiss drauf.Aba halo wie bloed sind den einige oder soll ich besser sagen wie einfaeltig?Die haben ja schon wieder so einen beschiessenen Shader,das die Bildqualitaet unter Dx 9 zum kotzen ist und dazu sind sie bei Far Cry net mal viel schneller als eine Radeon 9800XT.Allso jungs kauft euch den scheiss und werdet gluecklich mit.Ich hatte auch mal so ein Teil und habe mich gewundert das alles geruckelt hat.Na jetzt weiss ich warum.Der Treiber machts zumindest in den Benchmarks.Ich meinerseits werde auf die Radeon X800XT warten und die blaesst die schei.. Nvidia mal wieder von der Platte.Da koennt ihr einen drauf lassen.Aber ich will ja die Nvidia juenger net von ihrem galuben abbringen.Loooooooooool
 
hallo erstmal, für mich ist es interessant zu sehen,wie die beiden Grafikgiganten erst bei der neuen PC-Schnittstelle (PCI-Express) sich schlagen werden .Für mich als Endverbraucher wäre die wohl die beste Lösung wenn man beide Bussysteme (AGP und PCI-E)auf einer Grafikarte unterbringen würde. Wenn das nicht funktioniert kauft man ja wieder eine neue Grafikarte. Die idee gab es damals auch schon bei den EISA-Bus.Ob Ati oder NVidia da eine passende Antwort bereithalten wird sich zeigen.Ich finde von der Leistung tun die beiden Grafikarten sich nichts,aber trotzdem denke ich das bei ATI der Support besser ist,weil es immer schnell neue Treiber gibt wo einiges gefixt wurde.
Ist sowieso alles Geldschneiderei finde ich,wer wirklich nur Zockt sollte sich eine Konsole holen da brauch man nicht fummeln das was Läuft und vor allen dingen keine neuen Hardwaresachen kaufen um immer die neuste Grafik zu nutzen.
 
Noch hat ATI nichts geliefert! Ich höre nur Vorschußlorbeern für etwas, was noch nicht getestet wurde und erst recht nicht seine Leistung geliefert hat! NV hat vorgelegt und jetzt ist es an ATI zu kontern!
 
LoL genau noch hat ati nix am start abwarten ! Zum anderen heulen hier alle über den ps 3.0 versteh garnicht warum . . . wer sich die nv40 videos mal reingezogen hat wird schnell sehen das der ps 3.0 bzw der nv40 verborgene features wie z.b. das glätten von schatten also soeine art fsaa für schatten mit sich bringt, also ich finde sone features schon cool und freu mich auch drauf denn so schön far cry aussieht die schatten sind teilweise schön asig. Ausserdem gibt es massig spielehersteller die eng mit nvidia zuammen arbeiten und somit natürlich auch den ps 3.0 unterstützen werden . . . EA ist z.B. einer !
Naja meine meinung ps 3.0 is ne feine sache und sehr exclusive und es wird 100% einige games noch dieses jahr geben die den unterstützen also für mich keine frage das ich die karte brauche !
 
Ist schon etwas von den Preisen bekannt, denn das finde ich spielt die wesentliche Rolle. Auch wenn ATI oder nVidia zwar bissel schneller wird, aber dafuer 200 muecken , wie normalleweise kosten soll, greift man natuerlich zu Konkurenz^^
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles