AMD Radeon HD 4890: Erste Bilder und Benchmarks

Grafikkarten Im Internet sind jetzt die ersten Bilder und Benchmarks von AMDs kommender Grafikkarte aufgetaucht. Darauf kann man auch erkennen, dass der offizielle Name "Radeon HD 4890" lauten wird. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"Darauf kann man auch erkennen, dass der offizielle Name "Radeon HD 4890" lauten wird." Das steht schon seit dem 14.03.09 in der aktuellen c't. Und am 06.04.09 wird AMD die offiziell vorstellen.
 
@satyris: Ja, also ist die Aussage das sie so heißen wird doch richtig? Und für die, die es noch nicht wissen können aus auch daran erkennen.
 
@Driv3r: Richtig ist sie, aber nicht gerade aktuell. Dann kann man auch mit der "News" gleich bis April warten, wenn es offiziell ist.
 
@satyris: Ja auch das kann man - denn selbst wenn es offiziell ist, weiß es nicht jeder WF-Leser. und- gerade weil es ja noch nicht "offiziell" ist wie du sagst, kommt es doch auf ein paar Tage eh nicht an. Je eher du es weißt, je länger musst du warten xD.
 
Wieviel Watt verbraucht so eine 160 Watt-Karte im Surf-/Officebetrieb?
 
@modelcaster: Noch relativ viel, da ATi bei der 4800er-Serie immer noch keinen gescheiten 2D-Betriebsmodus drin hat (soll mal mit irgendeinem Treiber kommen).
 
@H4ndy: möchte da mal PowerPlay 2.0 on den Raum werfen, das immernoch nicht implementiert ist... was hilft: Die Karte manuell runtertakten
 
@H4ndy: Also wenn ich mich richtig erinnere hatte ich die ediskusion mit demStromverbrauch vor 3 Monaten als ich mir meien 4870er Karte gekauft habe mit nem Kollegen der auf Nvidia schwört. Als wir dann nachgeschaut haben war er ganz baff das seine dreckige Nvidia Karte viel mehr im office bereich zieht als ne vergleichbare ATi Karte.. Müsste jetzt aber nachlesen um Konkrete angaben zu machen.....
 
@rush: "dreckige Nvidia Karte" ... riecht das noch wer? Hier stinkt's nach ATi Fanboy.
 
@MadDogX: nene, das verstehst du bestimmt falsch. Die ist sicherlich nur dreckig. Ein Lappen sollte da helfen. :-)
 
@MadDogX: Post Proll ?
 
@MadDogX: das gibts leider noch nicht, daher nutzlos
 
@H4ndy: was ist ein gescheiter 2D Modus? Meine 4850 taktet in 2D (Desktop) auf 500/750, default (3D) sind es 665/993
 
@rush: Das sollte deinem Kollegen helfen :-)
http://tinyurl.com/dzofnt
 
@JasonLA: ja genau, deswegen nehmen ja auch ato karten weniger strom. weil pp2.0 noch nicht drin ist. man habt ihr ne ahnung. ...... unglaublich solche aussagen.
 
@Dexter31: Bei Nvidias 200er Serie gibt es einen gescheiten 2D-Modus: 300/100 und im 3D-Modus (Full-Load) 600/1100 (zieht bei mir dann 200 Watt weniger aus der Steckdose).
 
@shawn777: 200 Watt weniger aus der steckdose, ohwei was hast du für ein monster gerät. meiner nimmt 182 watt in unter volllast.
 
@H4ndy: nur dummes rumgequatsche, meine 4850 taktet im 2d auf 160/250, also das powerplay geht. das waren die ersten treiber die das noch nich konnten, aber die zeiten sind längst vorbei. wer hier immernoch so rumtrollt, hat einfach null ahnung sry is aber so.
 
@sorduk: Na gut... ich weiß jetzt nicht was du unter Volllast verstehst und was du für einen Rechner hast, aber wenn ich CPU und GPU bis zum Anschlag auslaste, dann komm ich auf 580 Watt (i7 920+GTX280). Im normalen Spielebetrieb (Far Cry, Empire Total War...) zieht mein Rechner dann ca. 280 Watt aus der Steckdose (was ich ok finde).
 
@shawn777: Ein AMD Phenom 9850, Ram verbraucht auch 8GB, eine 9800GTX, 2 Platten und ein Netzteil mit 600Watt und guter Energie Effizienz aber der nimmt laut dem Zähler hier deutlich weniger als dein System. 280Watt ist nicht wenig das sind 98 Watt unterschied. aber ich glaub das machts auch nicht mehr fett meine Karte taktet sich ja im 2D modus nicht runter und Verbraucht ein haufen Strom.

Gruß schönes Wochenende
 
jetzt müssten die Jungs von ATI nur noch CUDA zum Laufen kriegen, dann wärs was.
 
@HeyHey: CUDA? ATI hat längst CAL/Stream und will zukünftig auf OpenCL setzen.
 
@TiKu: Was bringt das, wenn es keiner nutzt? Sprich wenn Spielehersteller, oder andere Software Hersteller CUDA nutzen, statt ...
 
@HeyHey: Es geht hier nicht ums zum Laufen bringen. Das ist schon mal eine rechtliche Sache, da CUDA eine NVIDIA-PROPRITÄRE(von NVIDA entwickelt und nur für die eigenen Produkte genutzt)-Technik ist.
 
@TobiTobsen: Jepp. Gerade jetzt wo Sony und Nintendo auch die Physx-Technologie verwenden können. Das ist zumindest im Falle Sony schonmal ein Argument wenn es um Spieleentwicklung für PS3 und PC geht.
 
Also 16000 Punkte beim 3D Mark 06 ist ja nun wirklich keine Kunst. Das schaff ich mit meinem Phenom II und ner 4870er auch so (ohne OC)!
 
@Impact™: Es wurde aber nur ein lahmer Core i7 verwendet :-)
 
@Impact&$153:: komisch.. GTX 260 + Q9550 und 3dmark mit 19800 pinkten (mit etwas OC.. jedoch ist der q9550 der vorgänger vom I7 und sollte gegen diesen keine meter haben, trotz der höheren taktung) (http://www.sysprofile.de/id83849)
 
man wirds eh noch sehen, wie sich die Karte beim zocken schlägt
lahmer I7, naja wie mans nimmt^^

naja, bis PhysX auf Open CL läuft dauerts wohl noch ne Weile
Auf CAL/Stream werden dies wohl nie wirklich machen.
 
Nur mal so zum info die GTX 280 frisst 238Watt und im idle 2D Modus weniger als die hälfte.
 
Unterstützt Windows 7 auch den Hybrid-Modus von Grafikkarte und Grafik-Onboard-Chip ? - Oder was für eine Möglichkeiten gibt es, den Stromverbrauch solcher Karten bei Office- und Internetanwendungen zu verringern ? - Womöglich dann doch zwei PCs, - einen zum Spielen, und einen für's Arbeiten.
 
@Elvenking: Deswegen machen sich ja auch die "sparsamen" NetTops und Netbooks(R) so gut.
 
Was ist eine "Radein" ?^^ Zeile 11 letztes Wort.
 
@DarkRhinon: Jo, ist schon alles komisch hier. Guck mal hier, das verstehe ich auch nicht: http://winfuture.de/news-hinweis.html?45973
 
was wollen eigentlich alle mit ner grafikkarte? mein mann hat ne 8800gtx mit dem core i7 und alles geht wie das warme messer durch die butter seit dem neuen proz...
 
@Miss_ChiChi_Wang: Stimmt, 8800gtx ist ja auch Ente süß-sauer. :-)
 
@Miss_ChiChi_Wang: ja, mit dem prozzi kauf, hat er dein haushaltsgeld reduziert und die stromrechnung noch nicht bezahlt
 
@Rotbackenpfeifer:
du hast meinen film früher gesehen? :D
 
@Miss_ChiChi_Wang: Was wollen alle mit einer CPU? Mein Q9300 mit den "alten" HD4870 Crossfire OC @ 790, 975 Mhz Karten geht der wie das warme Messer durch die Butter seit der neuen GPU...hä? Ja genau, deine Aussage ist Müll...Games sind Heutzutage GPU limitiert...
 
@Miss_ChiChi_Wang: Weil man für Spiele eine Grafikkarte braucht. Wenn dein Mann z.B. Videoschnitt betreibt und ein Multicore-optimiertes Programm verwendet, dann gehts mit einem corei7 ab, allerdings lauft Crysis und Co. auf einer 4850 mit Phenom besser als auf einem corei7 mit 8800gtx(mit der Karte reisst man heute übrigens nicht mehr viel).
 
Das ist ja Hammermäßig!
Noch mehr SPEED für Grafikkarte, wow!!!
 
mir wär lieber gewesen das sie modelle mit der aktuellen leistung welche ja nun wirklich schon top ist, mit viel weniger stromverbrauch herstellen.
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte