AMD wollte eigentlich Nvidia kaufen und nicht ATI

Der CPU-Hersteller Advanced Micro Devices (AMD) wollte vor seinem Kauf des Grafikchipspezialisten ATI Technologies ursprünglich dessen Konkurrenten Nvidia aufkaufen. Dies berichtet das US-Wirtschaftsmagazin 'Forbes'. mehr... Logo, Nvidia, Amd, Chiphersteller Logo, Nvidia, Amd, Chiphersteller Logo, Nvidia, Amd, Chiphersteller

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Umso mehr ein Grund AMD/ATI mehr zu unterstützen. Gehen die mal Pleite dann bleiben nur Intel (CPUs) und Nvidia (Grakas) übrig. Horror Preise und ein Zeitlupentempo bei der Neuentwicklung wäre die Folge.
 
@movieking: Ich entscheide mich für das Produkt mit dem besten Preis-/Leistungverhältnis, der Hersteller ist da zweitrangig.
 
@Okkupant: Und wenn AMD pleite geht, glaubst du dann, dass du Ignorant bei Intel das beste Preis/Leistungsverhältnis bekommst! Traurig, so eine ignorante Denkweise ...
 
@Beobachter247: Was hat dich denn zu so einem Kommentar geritten? Soll er jetzt nur da kaufen wo die Firma die Umsätze mehr braucht?! Das was er schrieb ist nämlich nicht verkehrt.
 
@Okkupant: Das stimmt, aber das könnte dann aber unter keinen Umständen Intel sein, was CPU's angeht. Denn da zahlt man einfach mehr. Grafikkarten finde ich ATI und NVIDIA vom Preis-/Leistungsverhältnis her nämlich ziemlich ähnlich.
 
@Si13nt: Selbst der alte 2600k ist schneller als der aktuelle FX-8150, mit OC sogar sehr deutlich, also liegt Intel bei P/L vorne. Außerdem braucht der Intel weniger Strom, wirkt sich also auch positiv auf das P/L aus.
 
@Shelly: Es geht hier um Grafik und da ist Nvidia deutlich schlechter.
 
@jediknight: Es geht um Intel und Nvidia, schau mal in O1: "Gehen die mal Pleite dann bleiben nur Intel (CPUs) und Nvidia (Grakas) übrig." Und die ALTE 580 ist z.B. in BF3 @max in FHD ca. 5% schneller, das ist alles andere als deutlich. Wobei dieser Vergleich nicht fair ist, denn die 7970 ist schon die neue Generation und sollte mit Kepler verglichen werden.
 
@jediknight: Muahaha! DEUTLICH schneller?! Was hast du denn geraucht? *g* Im Ernst: schau dir doch einfach mal Benchmarks an bevor du hier solche Unwahrheiten verbreitest.
 
@Shelly: Der FX-8150 hat mit OC auch nicht weniger Power und ist sogar 60,-€ billiger. Fakt ist das der sogar noch mehr Potenzial beim OC hat. Das auch ohne Wasserkühlung.
 
@Si13nt: Ja, echt? Die alten 2600Ks schaffen eigentlich alle die 5GHz und mehr bei Luft, die 2700Ks schaffen meist über 5,5GHz. Da Intel bei gleichem Takt schon schneller als der Bulli ist müsste man den Bulli also noch weiter übertakten -> vergiss es.
 
@Si13nt: Natürlich hat er weniger Power, aber er kostet kein 60 Euro weniger: FX-8150 = 225 Euro; 2600K = 260 Euro; 260-225=35. Zum OC-Potential: was denkst du denn wie hoch man einen durchschnittlichen FX-8150 takten kann?
 
@Shelly: Jetzt lehnst du dich zu weit aus dem Fenster, denn mehr als 4,5GHz sind nicht drin ohne Wasserkühlung. Außer man gibt sich mit schädlichen Temps zufrieden.
 
@Muh: Bei meinem Händler bekomme ich den FX-8150 für keine 200,-€. Den 2600K habe ich eben im Netz nachgeschaut, derzeitige Preise nett mehr im Kopf gehabt. Naja und der FX-8150 lässt sich mit mitgelieferter Standardkühlung schon auf 4,2GHz takten ohne das die Temps sich groß verändern. Ich denke mit einem etwas besseren Kühler wird das schon weiter gehen wo die Temps immer noch verdammt gut sind.
 
@Si13nt: Eigentlich lehne ich mich nicht aus dem Fenster, im Gegenteil ich hab selbst 'nen 2600K und hab mehrere Tage OC-Versuche durchgeführt um zum einen festzustellen wie hoch er geht (5,3 läuft primestable) und zum anderen wann ich die das für mich beste Verhältnis Verbrauch/Leistung hab (4,5; hab ich seit nem Jahr meist 24/7 am laufen).
 
@Si13nt: Bei meinem Händler hab ich den 2600K vor nem Jahr für 206 Euro bekommen. Hab aber eben trotzdem bei beiden CPUs die aktuellen Preise recherchiert: Geizhals findet den 8150 für 225, billiger.de für 236. Ist der Preis bei deinem Händler mit oder ohne Umsatzsteuer?
 
@Shelly: Naja aber du willst ja jetzt nicht behaupten das bei 5,3 GHz deine Temps noch im grünen Bereich waren. Ich mein das wird sicher nur im Leerlauf zu treffen. Aber als Lügner will ich dich nicht hinstellen, habe dies bezüglich keine eigenen Erfahrungen gemacht und Vorurteile will ich auch nicht haben! ^^
 
@Si13nt: 4,2 ist nicht viel, mein alter E8400 lief über ein Jahr rund um die Uhr mit 4,5 und selbst mit 4,7 konnte ich noch problemlos 3D-Mark laufen lassen.
 
@Muh: Alles schon mit drin. Naja gut es ist auch eine Frechheit irgendwo. Der 2600K mag vlt noch gut sein, aber hat schon ein wenig was auf dem Buckel. Aber so ist das bei Intel eben, die neuen CPU's bekommt man ja teilweise erst ab 500,-€... Da kosten die älteren auch noch einiges...
 
@Si13nt: Im Leerlauf taktet er nur mit 1,6 mit Prime konnte ich allerdings bei 5,3 teilweise bis ca 75°C erreichen. Das war allerdings im März, wäre im Sommer wohl höher gewesen. Wenn du ne LuKü richtig aufbaust, dann sind damit Ergebnisse möglich, die jede Komplett-WaKa alt aussehen lässt. Ich hab nen BigTower (Alu) mit insgesamt 8x12cm + 1x8cm Lüfter verbaut.
 
@Shelly: Ja aber ich sag mal du unterschätzen den FX aber dennoch ein wenig, denn wenn du den bei dir drinnen hättest. Da könntest du sicherlich auch viel mehr herausholen als du dir momentan vorstellen kannst. Das er besser ist kann weder du noch ich sagen, da dir bspw die eignen Erfahrungen mit den Bulldozern fehlen und durch Berichte lesen wird man auch nicht schlau. Ich habe zudem auch keine direkten Erfahrungen, nur Bekannte die den nutzen. Ich finde der wird einfach unterschätzt. Benchmarks teilweise nicht aussagekräftig.
 
@Si13nt: Hast du nen Link zu dem Händler? Der 2600K war vor einem Jahr neu und noch dazu der schnellste Intel-Prozessor für normale Heimanwender und wie schon geschrieben: ich hab 206 Euro bezahlt, allerdings ohne *g* Der 2600K ist übrigens noch der zweitschnellste in diesem Segment und der 2700K hat nur 100MHz mehr... (+30Euro)
 
@Si13nt: Naja, wenn in eigentlich jedem Benchmark der 2600K mit niedrigerem Takt als der FX-8150 bei Spielen mehr fps hat und z.B. im Cinebench schneller rechnet (ich nutze Cinema4D, von daher ist dieser Bench für mich extrem aussagekräftig!), dann benötigt man mMn keine Erfahrung mit dem Bulli. Dass Intel mit ihrer Fertigungstechnologie AMD mehrere Jahre voraus ist, das ist ja bekannt. Warum sollte der Bulli also deutlich höher zu takten sein als der i7? Zumal die enschlägigen Benches ja auch das Gegenteil beweisen.
 
@Shelly: Die Bulldozer von AMD sind von der Bauweise an die aus dem Seversegment bekannten CPU's anglehnt und kommen deshalb noch zur Zeit im Desktopsegment (1.Generation) mit "Kinderkrankheiten" daher. Die selbe Problematik gab es auch bei den Phenom, wo die PhenomII dann durch nur kleine Anpassungen deutlich schneller wurden. Deshalb würde ich zur Zeit noch zu den PhenomII x6, greifen wenn es doch AMD sein sollte. Obwohl Intel mit dem 2500k einen ziemlichen Hammer im Preissegment unter 200€ hat, wo übrigens auch alle PhenomII günstig zu bekommen sind. Bei der Grafik, kann ich jedem "Gamer" zur Zeit im Preissegment bis 150 Euro die HD6850 wärmstens empfehlen. Leistung liegt deutlich über der der günstigeren 550Ti und fast bei der der 50€ teureren 560Ti von Nvidia. Bei Games ist man mit der HD6850 noch 1 Jahr mind. dick dabei auf hohen Grafikeinstellungen.
 
@MMc: Warum die Bullis so schlecht sind ist mir schon klar, es ändert jedoch nichts daran, dass Intel zu Zeit das bessere P/L bietet. Und einem "Gamer" würde ich unter keinen Umständen ein GraKa für 150 Euro empfehlen, die billigen Karten sind höchstens für Kinder oder Gelegenheitsspieler geeignet. Am besten kauft man die zweitschnellste Nvidia-Karte und taktet diese dann entsprechend. Meine billige GTX570 (ca. 300 Euro) rennt z.Zt. mit 915 Mhz und schlägt somit eine 570 oder 7970 ohne OC in fast allem.
 
@Muh: Mein Händler ist privat und liefert nicht überall. Ist eben ein kleiner Laden an der Ecke kann man sagen. Aber ein kleiner laden der sehr beliebt ist und gute und billige Kontakte hat. ;)
 
@Shelly: Das eine obere Mittelklasse Graka gegen die Vertreter aus dem Highend Segment keine Chance hat ist mir bewusst. Jedoch ist es, aufgrund der Schnelllebigkeit des Hardwaremarktes, eine klügere Entscheidung in kürzeren Zyklen "gute" Hardware zu günstigen Konditionen zu erwerben, als "Power" auf Vorrat zum "teuren" Preis kaufen zu wollen. Das was als 30-50% mehr Leistung auf dem Papier steht, wirkt sich effektiv beim Spielen garnicht aus, da der unterschied zwischen 60 oder 100fps garnicht fühlbar ist, weil beides für das menschliche Auge flüssig läuft. Und wenn die Spiele dann die volle Leistung der Graka fordern dann sind bei 30fps, 30% mehr Leistung nur noch 9fps mehr. Mal ehrlich gesagt bei 39fps im neuesten Shooter würde dann jeder "Gamer" wieder zu einer neuen Graka greifen, und dann eine neue Highend Graka würde ein ziemliches Loch in den Geldbeutel sprengen.
 
@MMc: Die 570 ist doch obere Mittelklasse, oder wie siehst du das? 580 = high end, 570 = obere Mittelklasse, 560ti =mittlere Mittelklasse 560 = untere Mittelklasse alles darunter -> nicht für ernsthaftes Gaming geeignet. Dass du den Unterschied zwischen 60 und 100 fps nicht merkst liegt übrigens daran, dass dein Moni nur 60 Hz hat, oder? Min 60 fps sind also das was eine GraKa leisten muss, wenn sie das nicht schafft dreht man die Settings runter und wenns dann scheiße aussieht kauft man neu (außer man hat das Geld nicht). Ne 570 hat definitiv keine 30-50% Reserve, das wären dann ja ca 80-90 fps
 
@Shelly: Ja der Begriff der Mittelklasse, wie ich an deinen Zahlenspielen bereits bemerkt habe, definierst du diesen Begriff über die Leistung. Wohingegen ich am Preissegment entscheide welche Klasse eine Graka ist. So reden wir aneinander vorbei, wenn du von der Leistungsklasse sprichst, während ich von der Preiklasse spreche. Wo ich hin argumentieren wollte war eigentlich, dass "gute" Leistung (nicht die Beste) nicht "teuer" sein muss, da die Lebenszyklen im Hardwaremarkt so kurz sind, dass eine Neuanschaffung absehbar ist. Mfg MMc
 
@MMc: Ah, Missverständnis, ok. Ich finde es falsch ein Produkt wegen des Preises zu kaufen, wenn es dann nicht die benötigte Leistung bietet aber wir zwei haben auch sehr unterschiedliche Vorstellungen von "dick dabei auf hohen Grafikeinstellungen". Macht ja nix. Gute n8
 
@Shelly: Die 7970 zersägt doch eine GTX580 im Schlaf, was sagst du da eigentlich? http://www.eteknix.com/news/hd-7970-vs-gtx-580-performance-comparison/
 
@bluefisch200: Du beziehst dich auf eine Grafik die von AMD vor dem Launch veröffentlicht wurde: " the graph below has been obtained from the AMD HD 7970 reviewers guide". Deine Quelle sagt sogar sehr deutlich, wie AMD mit den Zahlen schummelt: "But there is particular thing worth noting here is that the testing was done at the 2560 by 1600 resolution which is where Nvidia’s performance tends to drop off more than AMD’s does. Consequently any particular gaps between AMD and Nvidia seem narrowed at this resolution. Not to mention the fact AMD often tends to overstate its figures.". Schau dir mal seriöse Test in normaler Auflösung (1920x1080 4xAA/16xAF) an: http://tinyurl.com/7svgrjs
 
@Shelly: Immer noch 16%, bei 30% weniger Idle und 10% weniger Load...
 
@bluefisch200: 16% mehr ist lächerlich, dafür, dass du die aktuelle AMD mit der alten Nvidia vergleichst. Warum sollte man für 16% die GraKa wechseln? Zumal die aktuellen Nvidias für >99% der User ausreichend sind und die AMDs weniger Features bieten. Die neuen Nvidias werden wohl wie immer so 50% schneller sein oder mehr. Die nächste Aufrüstwelle kommt mit Ivy Bridge, bis dahin ist wohl Kepler ebenfalls verfügbar. Das Schlimme an der ganzen Sache finde ich übrigens, dass AMD mit dem Bulli so tief in die Sch... gegriffen hat; wäre der nicht so lächerlich schlecht hätten wir schon die Ivys und AMD hätte mehr von den 7000ern verkaufen können.
 
@Okkupant: Und ich entscheide mich für das Produkt mit der besten Qualität, Stabilität - auch bei den Treibern, Langlebigkeit und mögliche Unkompliziertheit. Danach kommt erst der Preis.
 
@Zero-11: so spricht ein apple user ^^ lach mich wech :()
 
@Okkupant: Bei gleichem/ähnlichem Preisleistungsverhältnis wähle ich jedoch den finanziell "unterlegeneren" aus Prinzip. Bei Grakas schenken sich Nvidia/ATI seit Jahren nicht mehr viel (Zumindest bei der Mittelklasse). Mal ist ATI schneller bei Game X, dann Nvidia bei Game Y bei einer Generation. Daher wähle ich seit langem ATI. Bei CPUs für PCs und (High/Mid) Notebooks führt aber in der Tat kein vernünftiger Weg an Intel vorbei. Dafür habe ich meiner Freundin beim Netbook den mickrigen Intel Atom ausgeredet und ihr nen AMD aufgequasselt...schneller, ähnliche Akkulaufzeit, und die eingebaute Grafik schlägt den Intel-Mist (GMA *würg) um längen. Wollte aber eigentlich keinen Fanboy-War lostreten sondern nur ausdrücken das es schade wäre wenn einer von denen ins Gras beist (Egal ob AMD/ATI oder Nvidia...Intel wird ja wohl eher nicht den Löffel abgeben ;) ).
 
@movieking: Naja, AMD/ATI kann man im HighEnd Bereich eigentlich schon seit einigen Jahren knicken. Mit der 79er haben sie es zur Abwechslung mal wieder geschafft, etwas Ebenbürtiges auf die Reihe zu bekommen. Aber selbst im Preisleistungs-Verhältnis schaffen es Intel als auch nVidia quasi immer, zumindest als ebenbürtig dazustehen. Allerdings hat nVidia meist die deutlich besseren Treiber als ATi (vor allem unter Linux), auch muss man nicht dieses schändliche Stück Software namens CCC installieren. Mein letztes ATi Produkt war die 9800er Pro. Zwar ist weder Intel noch nVidia sonderlich innovativ, allerdings weiß man bei denen eigentlich immer was man hat. Zumindest nach Willamette und Geforce FX. Was bringt ein Architektur-Overhaul, wenn er erst beim Kunden reift? Und das war bei AMD/ATi in den letzten Jahren leider zu oft der Fall.
 
@movieking: Es wäre egal, wer übrig bleibt. Es würde aufs gleiche hinaus laufen. AMD muss einfach mehr Gas geben, wenn Sie dran bleiben wollen. Deren Produkte sind net ohne, aber halt noch net Top.
Aber Sie machen den anderen das Leben wenigstens net leicht, und fördern so auch die weiterentwicklungen auf beiden Seiten.
 
@movieking: Ja aber eigtl. wäre es dann schlauer gewesen, wenn die Übernahme von ATI durch AMD verhindert worden wäre. Dann hätte eine Pleite von AMD oder ATI nicht ganz so große Auswirkungen gehabt, wie wenn jetzt AMD pleite gehen würde, weil nun gleich zwei Sparten, CPUs und Grafikkarten, betroffen wären. Jedenfalls sollte dieses Kalkül die Kaufentscheidung nicht beeinflussen, das wär eine noch größere Marktverzerrung. Es kann keiner verlangen, dass man sich das schlechtere Angebot raussucht, nur weil es ansonsten sein könnte das irgendwann mal die Preise anziehen. Wenn AMD nichts bahnbrechendes mehr hinbekommt, tut mir das zwar Leid, aber das reicht nunmal nicht aus als Grund, ihre Produkte zu kaufen.
 
@movieking: Da hast Du durchaus recht, trotzdem kaufe ich keine Produkte die für mich persönlich unpassend sind. Mehr Wettbewerb in diesem Segment wäre aber definitiv wünschenswert!
 
@movieking: frage mich warum du minus bekommst recht haste doch. ausserdem ist ati in graka bereich schon länger führend was p/l angeht, gut das die nicht nvidia gekauft haben^^
 
@movieking: recht haste. Dann können sie die Preise bestimmen wie sie wollen... aber von Hardware Entwicklung haste net soviel Ahnung weil AMD/ATI seit 2 Jahren da auf der Stelle laufen.

@neuernkickz... das Preis/leistung verhältnis ergibt sich nicht aus nem benchmark... je nachdem wie und was du damit machst solltest du dir eine AMD/Nvidia kaufen. Weil forsche mal nach wer die meisten Graka Benchmarks finanziert da kommt sehr oft AMD bei raus und die gewinnen immer.... sehr mysteriös ^^
 
@movieking: Dumme Idee, warum denn mehr bezahlen für ein minderwertiges Produkt welches unter vielen Inkompatibilitäten leidet?! Selbst die alten Sandybridges schlagen alle AMDs locker und Ivy steht vor der Tür, bei den GraKas werden die Kepplers bald die aktuellen AMDs locker schlagen und selbst die aktuelle 7970 ist nur minimal schneller als die alte 580.
 
@movieking: früher habe ich auf AMD CPU + NVIDIA Grafik gesetzt. Aber seit dem zusammenschluss und nicht zuletzt durch die hohe effizienz und das sehr gute P/L Verhältnis UND noch zusätzlich die Guten Werte beim Bitcoin minen, setze ich nun auf AMD + ATI - finde, dass die preislich einfach der hammer sind und die Leistung ist ebenfalls sehr sehr zufriedenstellend. ich brauche keinen i7 mit seinen 1mrd features. mir reicht mein PhenomII 955 nun fast schon seit 2 jahren. ausserdem zocke ich auch noch skyrim/mw3,
/bf3 mit meinen 2GB DDRII und einer 5850 auf höchster auflösung. werde amd/ati auch weiterhin unterstützen. hoffe, dass die noch lange durchhalten :)
 
@movieking: ATI war und ist Mist, das ändert sich auch nicht wenn AMD draufsteht. Trotz meiner Sympathie gegenüber AMD werd ich mir keine ATI Produkte (mehr) kaufen. Schade NVIDIA und AMD wären eine super-killer-combo gewesen...
 
@incu_at: Schön dass du es auch ausführlich begründest. ATI ist entweder genausoschnell wie die vergleichbare Nvidia Karte oder schneller. Leistungsaufnahme/Stromverbrauch ist bei ATI weniger. Also was ist dein Problem ? Schlechte Erfahrungen gehabt ? Das einzigste was ich noch bei ATI etwas vermisse ist die breitere Unterstützung von Steam (Das Cuda Gegenstück) bei den wichtigen Programmen (Photoshop, Videobearbeitung ect.).
 
@movieking: "... und ein Zeitlupentempo bei der Neuentwicklung wäre die Folge"

Es wäre absolut wünschenswert wenn die entwicklung der hardware mal stehen bleiben würde damit die software entwickler mal wieder den arsch hoch bekommen. von optimierter software kann doch heute keine rede mehr sein, die fette cpu etc. kaschiert´s ja schön.
dann würde sich auch mal wieder die spreu vom weizen trennen in der unterbezahlten entwickler ecke.
für so manche demo aus c64 zeiten braucht man selbst heute eine cpu im Ghz bereich. da läuft also mächtig was schief.
 
Sowas ist mir auch schon mal passiert. Anstatt Kirschmarmelade habe ich Erdbeer im Einkaufswagen gehabt.
 
@VivaColonia: Vertan, vertan, sprach der Hahn als er von der Ente kam.
 
@Ariat: DAS ist mir zum Glück noch nicht passiert.
 
@VivaColonia: Erbeere schmeckt allerdings deutlich besser!
 
Also ist ATIAMD jetzt weniger Wert als ATI vor 6 Jahren alleine?!
 
@Zombiez: Es sollte nicht vergessen werden, dass die Fertigungsstätten von AMD als GlobalFoundries ausgelagert wurden.
 
Der Artikel lässt vermuten, ATI wäre nach der Übernahme weniger erfolgreich gewesen und hätte keine innovativen Produkte hervorgebracht die sich gut verkauften. Nvidia hatte in einigen Phasen absolut nichts zu bieten.
 
@Nigg: Dennoch wäre es ein spannendes "Was-wäre-wenn-Szenario" für ein Star Trek Holodeck oder eine Zeitreise. :-)
 
ARM und S3 sind die Zukunft :P
 
@fudda: Im welchem Bereich?^^
Selbst bei den Tablets bin ich mir da nicht so sicher, da der x86 von Intel sehr viele Vorteile bietet, vor allem wenn Windows 8 erscheint.
 
bin mir sicher AMD bekommt noch im laufe der nächsten jahre die kurve, die neuen Grakas sind ja nicht schlecht, nur die proziss, ja der bulldozer war nix.
 
@Jareth79: "nicht schlecht"?!? die sind nur wenige Prozent schneller als die alten Nvidias und die neuen stehen vor der Tür. Ist genau wie damals bei der 5000er Serie - als die 480 rauskam sah AMD alt aus (Verbrauch interessiert Gamer eh nicht), wird wieder so sein.
 
@Shelly: Ihr denkt immer alle im Highend Segment, dabei Reichen die oberen Mittelklasse Grakas locker aus zum Spielen für ca.2 Jahre und dann kommt ne neue "günstige Graka". Die Entwicklung bei der Hardware ist zu schnell um Leistung für 500-600Euro auf Vorrat zu Kaufen. Und bei den oberen Mittelklasse Grakas hat Nvidia mit seiner Preispolitik zur Zeit nichts atraktives im Angebot, was die HD6850 in das Aus befördern könnte. Aber mal Gucken was da kommt Morgen könnte alles schon wieder ganz anders sein^^
 
@MMc: Ich kaufe immer nur obere Mittelklasse. Hab zur Zeit ne 570 (dank OC schneller als ne 580). Ich käme nie auf die Idee eine Grafikkarte zu kaufen, die zwei Jahre hält. Ne billige für ca 350 Euro reicht oft für ein Jahr bevor sie in aktuellen Games die 60 fps nicht mehr schaffen, dann kauf ich was Neues. Höchstens eine Dual-GPU-GraKa könnte man vielleicht zwei Jahre ohne einschränkungen nutzen.
 
@Shelly: Wir scheinen beide eine andere Auffassung davon zu haben, was "günstig" und was "Mittelklasse" ist. Weshlab wir wohl nicht auf einen gemeinsamen Konsens kommen werden.
 
@Shelly: Wo ist den der Leistungsvorsprung von dem du erzählst? Eine GTX580 ist mit AA ungefähr genauso schnell wie eine 6970 und ~30% langsamer als die 7970. Es rumort auch das eine 670Ti in etwa so schnell ist wie eine GTX580. Siehe Computerbase Test. Aber die Hersteller interessiert kaum noch die Leistung in Spielen sondern die Leistung als GPGPU, denn damit lässt sich mehr Geld verdienen, und da zielt auch die Entwicklung der Karten hin.
 
@knuprecht: Hier siehst du, dass die 580 nur unmerklich langsamer ist als die 7970: http://www.pcgameshardware.de/screenshots/original/2011/12/Radeon-HD-7970-BF3-1920.png
und hier siehst du, dass die 580 schneller ist als die 6970: http://www.pcgameshardware.de/screenshots/original/2011/10/Battlefield3-Final-GPUs-1920-4xMSAA-FXAA-v2.png //edit: und hier siehst du, dass die neue Nvidia MITTELKLASSE das AMD HIGHEND-Modell schlägt: http://www.pcgameshardware.de/aid,867588/Nvidia-Kepler-Geforce-600-Der-grosse-Geruechteartikel-Neu-Kepler-ab-Maerz-als-GTX-670-Ti/Grafikkarte/News/
 
@Shelly: Das ist aber nur ein einziges Spiel und das sagt gar nix aus! Und wenn wir alle möglichen Spiele zusammenzählen und kein Cherrypicking betreiben sehen wir folgendes! http://tinyurl.com/7svgrjs Und zu den GTX6xx Benches, da kann man nur sagen das die wohl einer Glasskugel entsprungen sind, oder hat PCGH die schon selber getestet?
 
@knuprecht: Ok, dann ohne Cherrypicking: in dem von dir verlinkten Bench ist die 580 nur 12% langsamer bei normalen Einstellungen (1920x1080 4xAA/16xAF), die 7970 ist allerdings NEU und die 580 ALT. Also hat es AMD geschafft eine Karte rauszubringen, die unmerklich schneller ist als die Vorgängergeneration von Nvidia. Schade! Und DU warst es, der mit Gerüchten angefangen hat...
 
@Shelly: Die fetten Umsätze werden nicht im High End Segment gemacht, da geht es nur um Prestige.. AMD kann oft im mittleren Bereich durch Preis-/Leistung punkten.. Und man bedenke bei einer gleichteuren CPU kommt man mit AMD trotzdem günstiger weg, da man beim Board noch einige Euro einsparen kann.. Im High End Segment kommt man allerdings im Moment nicht an Intel vorbei.. Bei den Grakas sehe ich AMD seit geraumer Zeit (HD4000 Serie) vorne, allerdings in Anbetracht des kompletten Portfolios und nicht nur der High End Karten.. Aber mal generell, spart euch doch dieses Schwarzweiß Denken oder Fanboy Gehabe und kauft euch das was am besten zu euren Anforderungen und Budget passt, egal was da für ein Aufkleber drauf ist..
 
@GlockMane: Als Konsument interessiert es mich herzlich wenig, wo der Hersteller seine größten Umsätze macht, ich will einfach nur dass meine CPU schnell rechnet (hauptsächlich beim Rendern oder bei der Videobearbeitung) und dass ich die Spiele in maximaler Quali zocken kann, somit fällt AMD für mich komplett raus, da nur Nvidia PhysX bietet. (mir ist klar, dass es nur wenige Spiele mit PhysX gibt aber die sehen dafür umso geiler aus). Die HD4000 war nicht schlecht, aber die GTX200 war eigentlich bei allem mindestens gleichwertig + eben PhysX und CUDA was ich beides nutze. Mit der Kombination Intel + Nvidia bekommt man eben die bestmögliche Leistung. Geld ist da vollkommen nebensächlich, es geht ja schließlich um ein Hobby und nicht um Arbeit wo man wirtschaftlich denken muss.
 
@Shelly: Du gehörst aber zu einer sehr kleinen Zielgruppe und die wird halt im CPU Bereich momentan von Intel besser bedient.. Was ich damit sagen wollte, dass es nicht unbedingt wichtig für AMD ist im High End Segment mit Intel mithalten zu können, da die meisten Umsätze in den niederen Gefilden gemacht werden wo AMD durchaus konkurenzfähig bzw. sogar besser aufgestellt ist.. Auf den Marketinggag PhysiX kann ich mit gutem gewissen verzichten.. Im Grafikbereich ist AMD im mittleren und unteren Segment auch oft die bessere Wahl, wobei nVidia noch eine bessere Bildqualität liefert und vielleicht auch bessere Treiber.. Die GTX200 mag von der Leistung gut gewesen sein, aber die Effizienz war ziemlich mies.. Bei steigenden Stromkosten ist das durchaus auch ein wichtiger Faktor.. Ist natürlich nicht relevant, wenn Geld keine Rolle spielt, aber das ist sicher nicht die Regel..
 
@GlockMane: PhysX ist kein Marketing-Gag sonder eine massive Steigerung der Gesamtqualität. Klar ist es nicht wichtig und sieht nur sehr hübsch aus, aber das kann man eigentlich über alle Grafikfeatures sagen. Und mal ehrlich, hast du mal gerechnet was der Mehrverbrauch an Strom in den 1-2 Jahren die man eine GraKa nutzt ausmacht? Fast nichts. Eine Kilowattstunde kostet ca 20 Cent. Ich hab mal den Stromverbrauch meines Systems gemessen: Idle/Surfen ca 1/8 KW, Vollast ca 0,5 KW. Das bedeutet, dass ich für 8 Stunden Surfen etwa 20 Cent bezahle oder auch für zwei Stunden Zocken. Also nach zehn Stunden zocken hab ich etwa einen Euro verbraucht. Sagen wir ich zocke unter der Woche ca 2h/Tag und am WE nochmal 10, dann sind das 2 Euro /Woche. Das spielt wirklich keine Rolle und ich rede hier vom Gesamtverbrauch, wenn du die GTX200 mit der HD4000 vergleichst darfst du nur den Mehrverbrauch rechnen. Meine GTX 260 216 ist vergleichbar mit der 4870, die ATI braucht im Idle viel mehr und unter Last etwa gleichviel: http://www.hartware.de/review_840_11.html
 
@GlockMane: Du hast absolut keine Ahnung, der Umsatz ist total nebensächlich für ein Unternehmen, was zählt ist der Gewinn. Intel hat in Q4 ca 3,4 Milliarden USD Gewinn erwirtschaftet, AMD ca 177 Millionen USD Verlust. Dass Intel extrem viel besser ist als AMD sieht man anhand dieser Zahlen sehr deutlich. Wenn Intel wollte, dass AMD pleite geht, dann würden sie einfach die Preise senken. Intel hat jedoch einsehr großes Interesse daran, dass es AMD gibt; was denkst du was die Kartellbehörden mit Intel machen würden, wenn es keine Konkurrenz gäbe?
 
@Muh: Naja es gibt Unternehmen die machen jedes Quartal hunderte Millionen Verlust und das nicht erst seit gestern und die gibt es immernoch.. Wie wichtig ist also der Gewinn? AMD macht aus verschiedenen Gründen Verluste, das liegt nicht unbedingt an den Produkten..

@Shelly: Ich bleibe dabei, PhysiX beeindruckt mich keineswegs und diese billigen Effekte lassen sich auch ohne PhysiX realisieren..
 
@GlockMane: Es muss dich nicht beeindrucken wenn Partikel, Stoffe und Flüssigkeiten absolut realistisch dargestellt wird, trotzdem ist das alles andere als billig. Man braucht auch keine korrekten Schatten, keine korrekte Beleuchtung etc, trotzdem macht es das Spielerlebnis insgesamt viel besser. Und natürlich hast du Recht wenn du sagst, dass man Physik-Effekte auch ohne PhysX berechnen kann, nur reicht die Rechenleistung einer CPU einfach nicht aus um auch nur ansatzweise diese Quali zu erreichen und nur PhysX kann mit der GPU beschleunigt werden, oder kennst du noch eine Physik-API die das kann? Hast du mal Batman Arkham City gespielt? Ist zu Zeit eines meiner Lieblingsspiele und PhysX kommt dabei richtig schön zur Geltung (hab ne 570+260 216 und nen i7 2600K @4,5GHz), die 570 alleine schafft PhysX auf höchster Stufe nicht spielbar trotz der übertakteten CPU, und viel schnellere CPUs gibt es nicht. Ich will dir nichts einreden, aber ich kann nur jedem empfehlen PhysX mal auszuprobieren (mit dedizierter PhysX-Karte)
 
@GlockMane: AMD überlebt doch nur weil Intel sie braucht, gäbe es noch mehr relevante Hersteller von x86ern (VIA zähle ich absichtlich nicht dazu) dann könnte Intel sehr schnell in einem Preiskampf besiegen und trotzdem noch Gewinn erzielen. Wie kommst du eigentlich darauf, dass Gewinn nicht wichtig wäre? Es ist ja nicht so, dass AMD so unheimlich viel in Forschung investiert und deswegen Verlust ausweisen kann, die verdienen einfach nicht genug an ihren Produkten weil sie sich auf Grund ihrer schlechten Qualität nicht gut verkaufen, deswegen muss AMD die CPUs so billig verkaufen.
 
@Jareth79: was ist denn das schon wieder für eine aussage? woher hast du den schmarn. sry aba so langsam reicht es dieses dumme nachgeplappern von einschlägigen seiten ohne sich einmal mit der materie auseinander zusetzen. der bulldozer ist nicht langsam, er würde einen intel abziehen wenn er nur könnte. leider macht windows den prozessor einen strich durch die rechnung. beschäftige dich mal mit der technologie des bd und dann wirst du sehen was er kann und warum er es noch nicht kann. stichwort scheduler! die hd 7xxx ist nicht schlecht? die karte ist gegen die gtx 580 >30% schneller bei deutlich weniger leistungsaufnahme! und ist nur <10% langsamer als eine gtx 590 bzw. 6990.
 
hat nicht microsoft anteile an nvidia gekauft und diese für "nicht verkaufbar" erklärt um so nvidia vor übernahmen zu schützen und den wettbewerb zu erhalten ?
 
ups.... im Gebäude vertan. Bloß nicht zugeben. Kaufen wir eben ATI *grummel*
 
Ich würde mir auch viel lieber eine AMD Grafikkarte kaufen, wenn es dafür nur vernünftige Treiber gäbe, mit denen man unter Linux auch auf die volle Performance der Grafikkarte zugreifen könnte und vernünftig spielen könnte! So bleibt mir (leider) nur Nvidia. Aber erst mal abwarten, was die Zukunft bringt. Unter Linux steht ja in den kommenden Jahren eine große Veränderung an (Wechsel von XServer nach Wayland) und da könnte der OpenSource-Treiber für AMD-Grafikkarten gewaltig punkten, sofern Nvidia wirklich keinen Support anbieten wird/will. Aber das wird noch einige Jahre dauern (vielleicht sogar noch ein Jahrzehnt), bis sich Wayland wirklich durchgesetzt hat und die Distri-Hersteller kein XServer mehr anbieten.
 
@seaman: Hab ich da etwa etwas verpasst ??? Linux Spiele mit aufwendiger Grafik ??? Ich war bis jetzt mit dem Treiber support von AMD immer sehr !!! Zufrieden vor allem unter Windows 7.
 
@IDanko: Ähm, ich meinte ja den Treiber Support unter Linux. Unter Windows würde ich aktuell auch AMD vorziehen. Zudem gibt es für Linux mittlerweile auch viele sehr gute und interessante Spiele, die auch eine schicke und teilweise aufwendige Grafik mitbringen (z.B. Trine und Oil-Rush). Ich spiele nur noch unter Linux (native Spiele und Spiele die problemlos unter Wine laufen), da ich nicht einsehe, mir nur zum Spielen ein Windows zu installieren, um mich dann von den großen Herstellern mit deren Kopierschutzmaßnahmen gängeln zu lassen.
 
Wenn ich manche Kommentare lese...
Was glaubt ihr was passiert wenn es AMD nicht mehr gibt?
Ein 2600 würde 1000€ kosten und es würde kaum noch entwickelt und bei Nvidia wäre das nicht anders.
Danach könnte sich kaum noch jemand einen PC leisten.
Ich hab die Zeit mitgemacht als Intel alleine war und genau das war früher so.
Dann heult ihr das es zu teuer ist und sehnt euch nach AMD zurück.
Seid froh das es Menschen gibt die AMD kaufen.
Ich halte zu AMD bis zum Untergang.
 
@Das Daub: Bei Intel war man doch nie gezwungen die 1000 Euro Extreme Edition zu kaufen, einfach den billigsten im Vollausbau genommen und dann selbst den Takt eingestellt.
 
@Das Daub: Sooo schlecht steht AMD zur Zeit garnicht da. Hab mir selber mal was gegönnt, von xfx eine HD7950, bin mit ihr super zufrieden Strohmverbrauch Lautstäke und Leistung, der Preis ist angemessen und von Sapphire gibt es die Radeon HD 7950 sogar schon für unter 400€. Nvidia kann da zur Zeit nichts dagegen setzen und wenn sich die Karten von denen weiter verspäten stehen möglicherweise schon die HD 8000 von AMD vor der Tür.
 
@Das Daub: hmm ich weiß nicht dagegen wäre ich im Moment gar nicht so abgeneigt, also gegen weniger Entwicklung. Dann hätte man mal wenigstens mal ne zeit lang Ruhe und müsste nicht jedes Jahr gleich den Sockel und das Board wechseln. Komme mir ja mit meinem Q9650 schon manchmal vor wie in der Steinzeit, dabei is es noch ne TOP-CPU!
 
@legalxpuser: wer schreibt dir denn vor, dass du jedes jahr deine hardware wechseln musst? o_O ich hab n dualcore der ersten generation. für mich ist der immer noch aktuell genug.
 
@Lindheimer: naja weil man ja echt in manchen Foren schon liest, das der Q9650 gegen nen aktuellen i5 hoch unterlegen ist, und für manche Grakas schon n Flaschenhals usw..., ich kann das auch nie so recht glauben!
 
@legalxpuser: Was hast Du denn für eine CPU Last mit dem Intel Quad Core Q9650 in PC-Spielen, doch schon immerhin rund 25 Prozent Last? Lass dich bloß nicht verrückt machen, dafür braucht es keine neue CPU. Die Spiele stagnieren wegen der bremsenden Spielkonsolen, einen Core i7-3960X müsstest Du schon beim Compilern ausreizen, damit sich so eine Anschaffung auch lohnt, für Spiele bracht es so eine teure CPU nicht.
 
@Das Daub: Meinst du wirklich Intel und nVidia hätten was davon CPUs und Grafikchips so teuer anzubieten? Wenn sich dann kaum jemand PCs leisten könnte, würden die beiden auch weniger absetzen können. Undenkbar bei den zur Verfügung stehenden Fertigungskapazitäten, Firmengrößen und Gewinnerwartungen. Früher war es auch nicht anders. Da gab es genau wie heute die abosolute (sinnfreie) Topkategorie für 500 Euro (1000 DM), dann lange nichts, und dann die normalen High-End CPUs für 250 Euro (500 DM). Dann die Mittelklasse und dann Budgetzeugs.
 
Geht mir auch oft so - ATI gekauft, weil Kohle für NV nicht gereicht hat.
ROTFL .
 
Ich bin froh, dass es dann doch nicht so gekommen ist, wenn ich Qualität kaufen will, dann nehm ich nVidia. Ich hab auch nix gegen ATI/AMD aber den Catalyst empfinde ich immer noch als großen Schwachpunkt, alle Leistung ; ) in Ehren. Wenn ich mal spiele und dann stürzen Games mitten drin ab - das bremst das Vergnügen. Mit nVidia hatte ich sowas jedenfalls wegen einem Treiber schon längst nicht mehr, zuletzt mit der TNT. Den größten technischen Profit hat nVidia durch den Kauf von 3dfx gemacht, die waren dazumals auch den TNT Karten voraus. ich denk da an eine Spielszene aus Unreal: 3dfx Voodoo Banshee gespiegelter Boden, TNT graue Textur ; )
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles