Zahlreiche Details zu ATIs erster DirectX10-Grafikkarte

Hardware Nvidia vertreibt mit der GeForce 8800 Serie bereits seit einigen Wochen die ersten Grafikkarten, die in der Lage sind, auf Microsofts neue Grafikplattform DirectX10 zuzugreifen. ATI will erst im Frühjahr mit einem eigenen Produkt nachziehen, dem ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
naja, warten wir mal auf seriöse seiten und berichte und dann schauen wir mal..
 
@3clipse: Kann ja bestimmt nicht mehr lange dauern^^ Da der Level505 Server offensichtlich down ist und auch nichts mehr im Google-WebCache ist hier mal eine andere Quelle: http://tinyurl.com/ukhgy
 
Juhuuu ich wurde doch wirklich mal erwähnt :)
Ich werde auf jeden Fall auf den r600 warten.
 
Wetten das gleich wieder das Geflame los geht mit ATI vs. Nvidia.

Naja weder die eine noch die andere Karte kann ich mir leisten, insofern ist es mit der Zeit auch egal was besser ist, weniger Strom verbrauchtoder gar leiser ist etc. Bemerkenswert sind aber die Daten, wobei ich leider keine Vergleichsdaten zur Nvidia Karte habe. Und ausserdem habe ich auch noch ein AGP Systel am laufen und kann die Karten noch nicht verbauen :)
Gruß ich
 
Tolle GraKa, aber 230W Leistungsaufnahme? Das ist doch der totale Wahnsinn. In zeiten wo energie so teuer ist sollte man doch auf den Leistungsverbrauch schauen. Wir leben ja nicht alle in den USA wo der Strom fast nix kostet und man absolut Verschwenderich damit umgeht.
 
@bigoesi: Genau! Von allen Zahlen die da genannt werden ist dass die, die mich am meisten beeindruckt (negativ). Vielen dürfte dass aber egal sein weil Mamma und Papa den Strom zahlen.
 
@bigoesi: Mit nem Crossfire Verbund kann man ein eigens Netzteil für die Grafikkarten anschaffen :D
 
im crossfire verbund wird die ati wohl alles abräumen....nvidia wird dann mit einer 8900gtx kommen und auf eine neue runde :D
 
Nett , aber "up to 1GB" Ram ??? Wofür ?
Klar, höhere Textur auflösungne etc..... ABER :
Ich halte es für übertrieben das neue Games immer mit neuer Hardware gefüttert werden müßen. Programmieren sollten wieder lernen richtig zu Programmieren , dann klapts auch mit etwas ältet Hardware :)

btt : 20% schneller ? Sehr Gut
230 W ? Brauche ich jetzt ein eigenen Netzteil für die Graka wenn ich Highendspiele zocken will ? Das nimmt ja Dimensionen an was den Stromverbauch angeht -.-
 
Wenn die Karte so abgeht ist das echt cool... (mir egal wer schneller ist.. nvidia oder ati, da ich beides habe...)
Aber 230 Watt sind abartig :)
 
einfach nur lol ^^ , stellt euch mal vor crossfire mit dem r600 und wir haben nur 2gb ram für die grakas! die grakas haben mehr arbeitsspeicher als von manchen normal pcs...give me
 
aua,... mehr kann ich net dazu sagen. was ein monster an power :)
 
230W Leistungsaufnahme ist echt heftig, da braucht man ja bald ein Kraftwerk als Netzteil um noch zu Rande zu kommen, da wird es selbt mit einem 400er Netzteil schon langsam eng.
Hiess es nicht mal, die GPU sollen wieder zu den CPUs wandern? Alles auf einem Multiprozessor oder so? Wieviel Leistung soll der dann aufnehmen? 500W oder mehr? Leistung ist ja schön und gut, aber es sollte doch irgendwo noch im Rahmen bleiben.
 
und wenn sie in allen bereichen um 20% vorne liegen würde , in meine rechner kommt nie wieder ne ati karte . die miesen treiber , der nicht vorhandene linuxsupport und die unverschämten preise sind ein absoluter no go .
 
was für die Freaks im Lande! Ich grüß euch :D
 
Mir kommt es so vor, als würden sich die GPU Hersteller eher weniger um Stromsparfunktionen kümmern...
 
Seit ich mir zuletzt die 6600 GT geleistet haben, will ich bei dem Aufrüstwahn nicht mehr mitmachen...laut ner Umfrage haben ja nur ca. 30-40 % der Gamer noch einen Pc der ein Spiel in den maximalen Details darstellen kann ohne dass die Kiste sich ständig aufhängt. Die Spielehersteller sollten auch mal lieber auf mehr Spielinhalte als ständig neue Grafikmonsterspielchen wert legen. Das ganze geht immer mehr in Richtung "fast food".
 
@allium sativum:

das kenne ich. nach meiner 6800gt, i.V.m. A64 3200+ und 1,5 gb ram, hab ich mit dem aufrüsten vor knapp zwei jahren aufgehört.... das geld ist mir zu schade. darüberhinaus komme ich mit meinem system noch bestens über die runden.... bis jetzt :)
 
@allium sativum: So geht es mir auch gerade... Meine 6600GT reicht mir auch noch (sogar bei Dark Messiah & Oblivion : muss ja nicht alles auf High laufen da es auch so Spass macht und wenn man die Upgradekosten auf die Spiele umrechnet sind diese doch extrem teuer). Vielleicht wird es statt einer neuen GraKa doch eine XBOX360 oder PS3 denn wenn man die PC-HW-Updgradekosten rechnet sind die XBOX-Games überhaupt nicht teurer als ein PC-Game...
 
@allium sativum: Ich hab nen AthlonXP 3000+, 1024MB DDR-RAM, GeForce 6800 mit 128 MB RAM und das reicht mit immer noch - bei FEAR hab ich fast maximale Details (alles auf MAX, Texturen auf mittel und nur keine Softshadows und volumetric Light), sonst siehts sehr gut aus und läuft flüssig! FarCry und DooM laufen sowieso flüssig! Das einzige Game, das meinen Rechner richtig in die Knie zwingt, ist Splinter Cell 4: Double Agent - das frisst richtig Leistung!!! Aber alles andere kann ich auf MAX zocken!!!
 
was lese ich da mit "DX10.1"? Ist dann die NV8800 nicht mehr dafür ausgelegt? Die haben noch net mal DX10 richtig fertig und hardwaretechnisch wird schon 10.1 umgesetzt? goil....
 
@zivilist: da steht doch deutlich "draft" dahinter. direkt hinter der faulen ausrede mit dem 'vermeiden der übersetzungsfehler', was übersetzt wohl soviel heißen soll wie 'ich kann kein englisch und copy&paste einfach wieder'...
 
gut das man für cs 1.6 keine "Highend" grakas braucht...
 
Lustigerweise ist "Level505" offline. Tolle Quelle :)
 
erstmal abwarten mit dem directx10 gefusel... ich bin mir sicher, dass es irgendwann optimierte treiber geben wird, die viele dx10 features auch auf "alte" dx9 karten zaubern können.
 
@timohepolis: und das denkst du weil...? Soetwas wäre nur emulationsmäßig möglich. D.h. der Prozessor macht dann die Arbeit für die er nicht ausgelegt ist, ein Prozessor der das schaffen würde kostet 5x soviel, wie eine dx10 graka :) Zu deutsch, sehr utopische Vorstellung. Seitens der Spielehersteller, zumindest der, die sich nicht bestechen lassen (also nicht Ubisoft) sollte weiterhin Abwärtskompatibilität erwartet werden können
 
der link zur quelle geht nicht
 
Bin ich der einzige der die "230W" sieht? Soviel zieht mein gesamter Rechner! Anstatt solche Heizkraftwerke zu entwickeln, sollte man sich vielleicht mal Gedanken darüber machen, wie man die Abwärme in den Griff bekommt. Nicht durch sinnlose Kühlkonzepte, sondern durch die Verminderung von Abwärme bei gleichbleibender Leistung.
 
"http://72.14.221.104/search?q=cache:y6ybd4yoFCYJ:level505.com/2006/12/30/the-full-ati-r600-test/1/+http://level505.com&hl=de&gl=de&ct=clnk&cd=1" die seite ausm googlecache =)
 
@Dschuls: thx =)
 
vor allem wurden die 230W aus dem Zusammenhang gerissen. Bei euren "Kollegen" von planet3dnow.de sind die 230W nur ein "Siegel", dass sie eine Spezifikation davon einhalten, aber nicht zwingend die 230w ziehen. Ich weiß ja nicht, was stimmt und was nicht, wundert mich nur,warum ihr den Text in der letzten Zeile "abgeschnitten" habt?
 
Unterstützt das Ding nun DX10.1 soweit, dass WDDM2.1 damit "geht"?
 
"230W TDP PCI-SIG compliant"
Würde hier nicht so einen hype machen, ist ja alles nicht bestätigt. Und wenn, dann ist es ja nur ein Vorabtestmuster.
 
also 230W geht doch noch ^^.... ne 8800GTX zieht unter last etwas über 300W
 
@Chill: Jetzt mal im Ernst. Ihr solltet euch alle mal aufn Trimmrad setzen um mal nen Eindruck davon zu kriegen was !!!300W!!! eigentlich sind. Ich glaub dann gäb's so gut wie keine Gamer mehr, oder nur noch Spiele für Onboardgrafik (mit vielleicht 20W unter Volllast).
Mein Laptop zieht mit 2,13GHz und X700 Mobility Radeon unter Volllast (GraKa und CPU) mal gerade 50W. (Gemessen)
 
@whiteman: is mir auch klar das nen laptop nich so viel strom saugt, zumal ne mobility radeon überhaupt nicht zu vergleichen ist mit desktop grakas, weder von der leistung noch vom strombedarf.... am besten befragst du mal google über die leistungsaufnahme der neuen Nvidia Karten.
 
ATi Grafikkarten - jetzt neu - mit Lavamaker. Einfach etwas Gestein auf die GPU geben , den beigelegten Ablauftunnel montieren und ihr PC wird zum Etna. Remember ... it´s not a Bug ... it´s a Feature ... (mal abgesehen davon das ich das für nen Hoax halte)
 
@e-foolution: Kann es sein das du den Etna mit dem Väsuv verwechselts ?
 
Und hier gibt es schon erste Benchmarks:

http://www.computerbase.de/forum/showpost.php?p=2446246&postcount=143
 
von mir aus kann die karte auch 600w haben haupsache die power stimmt habn eh kaftwerk zuhaus von da her........
 
@boskops: Hast du eine Strom Flatrate? Darf ich bei dir einziehen?
 
@mellowyellow: er wird solarzellen aufm dach haben und denkt wahrscheinlich, dass die zellen seinen strombedarf für den pc decken.. vor allem im winter
 
gut das dadurch "alte" grafikkarten günstiger werden :)
 
Also die 230 Watt machen dann auch alles andere unglaubwürdig würde ich sagen. Ein solcher Stromverbrauch kann nicht auf den Markt kommen. Also mal abwarten bis die ersten glaubwürdigen Fakten kommen.
 
@.omega.: Hey, schonmal angeguckt was der G80 aka Geforce 8800GTX von Nvidia benötigt :D MfG CYA iNsuRRecTiON
 
Sollte der Stromverbrauch bei den neuen ATIs & NVIDIAs wirklich derart hoch sein dann werde ich den PC-Games den Rücken kehren und mir eine Konsole zulegen. Dieser Upgradewahn will ich langsam nicht mehr mitmachen. Für den Preis einer GraKa eine komplettes System das sich von der Grafik überhaupt nicht zu verstecken braucht. Mein System reicht dann noch ewig für die Videobearbeitung und für Internet & Office sowieso.
 
230 Watt für eine Grafikkarte, holy moly! Bald brauchen wir ein eigenes Kraftwerk wenn das so weitergeht... Da ist die Stromsparfunktion moderner CPUs auch fürn den A...
 
In 10Jahren werden wir über solche News nur noch lachen können.Also muss man über so was nicht lange nachdenken!!!!!!
 
Man Man was regt ihr euch denn so auf,die PS 3 frisst ca.380 Watt unter Volllast da wirken die 230 Watt des R600 lächerlich.

http://www.gamezone.de/news_detail.asp?nid=47120
 
@ger-xyviper: Ja, nur wie du schon sagst, die gesamte PS3 frisst ca. 380 Watt (schließt Cell-Prozessor, Laufwerk, Speicher, blabla mitein). Hier gehts jedoch um die Grafikkarte allein wo CPU, Festplatten, Laufwerke usw. noch nicht dabei sind.
230W is schon ein bissl heftig. Wieviel davon in Wärme aufgeht möcht ich nicht wissen :)
 
@ger-xyviper: Bei der PS3 sind ja auch noch alle anderen Komponenten mit drin (Grafik, Ram, CPU, HDD, Mainboard, Blue-Ray Laufwerk, Lüfter).
Das ist aber nur die Grafikkarte, wenn man da noch die anderen Komponenten drauf rechnest ist man bestimmt bei mehr als 700W.
 
Hey Leute ihr regt euch auf wegen diese 230 Watt, falls ihr es noch nicht kappiert habt, die 230 Watt Verlustleistung muss nicht unbedingt ausgeschöpft werden, die besagt nur, das die Karte bezüglich PCI-e 2.0 die 230 Watt ausschöpfen kann, sprich sie ist dafür ausgelegt, aber es wird nirgend wo geschrieben, das die tatsächliche Verlustleistung der Karte 230 Watt beträgt, wer lesen kann ist klar im vorteil gruss psycho
 
Bei der Leistungsaufnahme ist man mit einer G80 Karte noch wesentlich besser drann.
 
Na toll, und miene 8800GTS gehört dann zum Alteisen...
Bis jetzt läuft alles flüssig mit 16xAA und 16xAF und SS-TSAA aber wie sieht das dann mit Crysis aus?
Muss ich für maximale Details dann wohl ohne Filter spielen... aber ist mir egal ob mit Filter oder ohne hauptsache es läuft auf max. Details!!
Wenn man so News liest, könnte man meinen man hat wieder den letzten Scheis im Rechner, auch wenns noch richtig gut ist^^
Wenn die ATI Draußen ist wird nVidia meiner meinunge nach mit DDR4 nachziehen.
Die 8900 GTX wird dann wohl auch auf 1GB aufgestockt und neue Rekorde aufstellen... bei Preis^^
 
Wenn es nach der Hardwareindustrie ginge, dann müssten wir alle sofort immer in den Laden rennen und kaufen, sobald es was neues gibt.
ich sag da nur "Leckt mich sonst wo"
Hab seit ende 2004 ne ATI X800Pro drin. Und erst jetzt, also 2 Jahre später kommen Spiele raus die es schaffen diese Karte in die Knie zu zwingen.
Kurz um, ich war nie so blöd und werde es auch in Zukunft nicht sein und mir solch Mist immer direkt kaufen.
Auch werde ich noch lange nicht auf PCI-E umsteigen...wozu??? Hab bis jetzt kein Spiel was diese Leistung benötigt.
Ich werde bei Gelegenheit mal auf die NVidia 7800 mit dem 7900er Chip umsteigen, da diese auch noch für AGP ist, und dann reicht mir das erst mal wieder weitere 2 Jahre...minimum.
Den ganzen Hype um Win Vista, DX10, PCI-E etc. der lässt mich jedenfalls ziemlich kalt.
Aber solange andere ihr Geld dafür ausgeben...bitte, ist ja nicht meines ^^

 
da magst du wohl recht haben aber trotzdem ist es für viele immer wieder fastzinierend zu sehen was grafisch inzwischen alles möglich ist. der hang geht nun mal zum "realistischen" auch wenn das nicht immer positiv zu sehen ist. und in ein paar jahren werden die karten die heute und hier als der hammer gepriese werden irgendwo auf dem wühltisch als sonderposten landen. so ist nun mal die wirtschaft und das wird sich wohl auch nie ändern. aber wer spaß dran hat und das geld dazu hat dem sei es gegönnt.
mfg N.B.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles