Leistung satt: AMD Radeon HD 4850 X2 & 4870 X2

Grafikkarten AMDs Grafiksparte ATI hat heute die neuen Ultra-High-End Grafikkarten HD Radeon 4850 X2 und HD Radeon 4870 X2 offiziell vorgestellt. Die mit jeweils zwei Grafikprozessoren ausgestatteten Karten kosten 399 bzw. 599 US-Dollar. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Scheinen ja Höllengeräte zu sein. Aber weniger Stromverbrauch wär auch net schlecht. Beim Stromsparen möcht ich mal einen vergleich sehen
 
@superkroll: ...wie es scheint musst Du Dir selbst die Hände schmutzig machen: http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/ Bei der HD4870 sind immerhin 40W im Idle-Modus mehr drin... wenn das kein Grund zur Aktion ist...
 
@superkroll: Die GTX280 Verbraucht bei Volllast 230Watt (meine ich gelesen zu haben, leider keine Quelle), wenn dann eine 2Kern Grafikkarte von ATI 270Watt misst ist das noch Vergleichbar, ich will nicht wissen wieviel die GeForce GTX280 X2 (oder wie sie auch heissen mag) frisst.
 
@superkroll: wobei man dann bei einen kaufpreis von 600 usd eventuell schon in dem preisbereich ist, wo einem der stromverbrauch egal ist...
 
Wer möchte, dass die Stromsparkfunktion richtig funktioniert lese im Forum nach: http://www.winfuture-forum.de/index.php?showtopic=147726&st=15&p=1205468&$entry1205468 - ich hab dort ein Tutorial für die HD4850 geschrieben.
 
@Hamlet: Schön haste das gemacht. Allerdings hast Du die Informationen woanders her. Also nicht mit fremden Federn schmücken :) Und ich hab mir übrigens ein eigenes Bios gebastelt. hat 5 Minuten gedauert und ist immer aktiv. Ohne Editierung von irgendwelchen Config-Dateien :-). Kann man auch nachlesen.
 
@Hamlet: Äh, was? Was wirfste mir als nächstes vor - dass ich zum Formulieren meiner Gedanken Buchstaben und Wörter verwende, die auch schon andere vor mir verwendet haben? Ich hab meine Informationen von etlichen Seiten zusammengetragen und darauf, sowie auf eigenen Experimenten basierend ein eigenes Tutorial geschrieben. Ich wüsste nicht, weshalb ich auf meine Leistung nicht stolz sein sollte...
 
Test auf Computerbase: tinyurl.com/5bejlw
 
@Zebrahead: Vom Wolfgang Andermahr verfasst... da kann man genausogut raten welche Karte die schnellere ist.
 
@omega: Locker bleiben. Ich finde, man kann sehr schön rauslesen, wie sich die HD4850 über 1280x1024 mit AA und AF vor die 9800GTX schiebt. Grundsätzliche Tendenz: Je höher die Auflösung und je besser die Qualität, desto klarer wird der Sieg der HD4850.
 
@Hamlet: Ich bezweifle auch nicht den Aufbau des Artikels, sondern den Gehalt der Wahrheit im Inhalt.
 
@.omega: Zweifler gibt es immer. Frag doch mal jemanden aus Deinem Freundes oder Bekanntenkreis, der eine der neuen ATI-Karten hat. Meine normale 4850 von Sapphire hat jedenfalls ein enormes Leistungspotential. Und übrigens auch mit einem 350 Watt Netzteil. Gut das die Meinung verbreitet ist, man brauche gigantische Netzteile für die neuen Karten. Klingt zwar gut, ist aber völlig falsch. Allerdings macht sich auch keiner die Mühe so etwas zu testen, würde den Herstellern von Netzteilen auch nicht gefallen. Ich habe jedenfalls im 24 Stunden Dauertest ein altes 350 Watt Netzteil mit einem auf 2.8 GHZ übertakteten X2 3800+ und einer auf 680 /1100 übertakteten 4850 gequält und zwar mit QMC@Home + Folding@HOME-GPU-Client. Ergebnis: keinerlei Auffälligkeiten :) Das gesammte !System hat insgesammt 270 Watt unter Volllast gezogen, laut Stromverbauchsmessgerät.
 
"Die Grafikkarten verfügen allerdings über Stromspartechnologie"... welche bei den 4870ern immernoch nicht funktioniert... kann man nur manuell runtertakten, aber bringt auch nicht sooo viel
 
@JasonLA: Bei der 480 X2 funktioniert Powerplay wunderbar :) Einfach den Test auf CB lesen.
 
@Plasma81: Jetzt echt??? Warum schaffts ATI dann nicht das PP auf den single-Karten zu aktivieren? Ich hab 2x 4870 im Idle fressen die Strom ohne Ende... mein Netzteil wird sooo laut
 
@JasonLA: Liegt wohl mitunter auch am finalen Treiber.
 
@JasonLA: Menschen wie dich soll mal einer verstehen. Du kaufst die 2 4870er (ca 380-400 Euro) und heulst dann wegen Strom rum? oO So was sollte man sich vor dem Kauf überlegen.Stromsparfunktion hin oder her...
 
@JasonLA: Man kann sich ein eigenes Bios basteln. Dauert 5 Minuten und schon ist alles in Ordnung. Google hilft. meine 4850 Karte läuft: Idle: 160/500 (0.98Vcore) Middle: 500/750 Max: 680 /1000Maximale Temperatur: 75°C im Idle bis 55°C runter(wegen weniger Vcore) EDIT: Was die Lüftersteuerung angeht: in meinem Gedämten Gehäuse: Undhörbar bis sehr leises, nicht nerviges rauschen unter Vollast. Aber nur wenn man Abends alles still macht. im Normalen Alltagsbetrieb oder Spielebetrieb : unhörbar!
 
hmm, grade zwei 4870 gekauft... fehlkauf ? schnell auf ebay loswerden ?
 
@maatn: Die X2 ist dank ihrer 1024MB Speicher etwas schneller als die 4870. Also du kannst deine 2 behalten oder eben egegen eine X2 tauschen....Wie du willst.
 
Immer das gekünzelte gejammer um den Stromverbrauch !!! dann kauft euch die Karten doch nicht, Ende. Ich habe eine HD 4850 und bin sehr zufrieden.
 
Ich frage mich wo die 4870 mit 1024MB bleiben, auf die warte ich schon dauernd.
 
Ich glaub ich spinn...230 bzw. 270 w unter Vollast pro Karte *haha*...und im Idle-MOdus oder im 2d Betrieb brauchen die Dinger auch noch soviel Strom wie mein Kühlschrank...nö danke, da muß meine 8500 GT einfach reichen *g*...
 
@allium sativum: Ne HD4870 x2 soll wohl auch einen anderen Markt ansprechen als den der GeForce 8500GT, und 'nen Opel Corsa 1.2 ECO braucht auch weniger Benzin als ein Ferrari F430.
 
@allium sativum:

Genau.

Kein Vergleich mit ner 8500er :-)

Hier noch mal ne kurze Info! http://tinyurl.com/5csl4x

Achja ich finde es gut das AMD /Ati endlich mal einen knaller gegen NVIDIA konntert!

Das Monster NIVIDA GTX 280 ist riesig verbraucht noch mehr Strom, und hat die geringere Leistung.!

 
"Durch die Kombination zweier Grafikchips auf einer Platine kann AMD laut erster Benchmarkergebnisse Nvidias [...] GeForce GTX280 teilweise weit hinter sich lassen." Dass die Zweikern Karten von ATI oft mit Nvidias ein Kern Karten verglichen werden, ist mir ein Rätsel. Schließlich ist ATIs 4870 X2 eigentlich ein Crossfireverbund aus zwei 4870 mit dem einzigen Vorteil, dass ein (oder auch zwei) Slots gespart werden. Somit müsste die 4870 X2 gegen GTX 260 im SLI-Verbund antreten. Damit werden dann auch Karten mit den gleichen "Problemchen" verglichen (fehlende Unterstützung von Spielen und anderes, was spezielle SLI/Crossfire betrifft).
 
@dbzfan: Bist du auch beleidigt wenn dein freund dich fertig macht, wenn er sagt "Haha meine Dual Core CPU ist schneller als deine Singel Core"? Ich persönlich finde ja, wenn nVidia angibt dass die GTX280 das spitzenmodell ist, dass auch ATi berechtig ist, deren spitzenmodell mit nVidias zu vergleichen. Aber ansich fände ich es ambesten, wenn die Produkte nach Preisklasse vergelichen. So sieht man, für welches Geld man wo mehr Leistung bekommt.
 
Blöde Frage: Kann ich die X2 (ist ja Crossfire) auch auf einem NVidia Chipsatz (680i) laufen lassen?
 
@humpix: Wenn du nur eine Graka reingibst funktionierts glaub ich, wird ja über PCIe angeschlossen. Wenn du 2 oder mehr über Crossfire / CrossFire X haben willst, muss das Mainboard das unterstützen.
 
mit über 60db lautstärke ist es keine überlegung wert... vorrausgesetzt man hat keine wasserkühlung im gehäuse... also lieber die 4870... hat man immernoch genug leistung!
 
Ich würde mir nie so ne Ost block Schrot Karte kaufen.
 
@albertZX: Besser la solche Karte mit alter Technik, die NV baut.
 
@albertZX: geographie ist nicht so deine stärke? (p.s.: wir leben in deutschland: da gibt es zusammengestzte substantive [dingwörter])
 
"AMD gibt die maximale Leistungsaufnahme mit 230 (4850 X2) bzw. 270 (4870 X2) Watt an. "

Die haben wohl einen an der Waffel? 80€ und mehr an Strom im Monat:-((
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.