AMD fährt Chip-Bestellungen sehr stark zurück

Der Chiphersteller AMD hat seine Aufträge an den Produktionspartner Globalfoundries stark zurückgefahren. Damit reagiert das Unternehmen auf die anhaltende Absatzschwäche im PC-Markt. mehr... Intel, Prozessor, Chip, Wafer, Sandy Bridge Bildquelle: Intel Free Press / Flickr Intel, Prozessor, Chip, Wafer, Sandy Bridge Intel, Prozessor, Chip, Wafer, Sandy Bridge Intel Free Press / Flickr

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
bald gibts tüten bunt gemischter cpu´s von amd.^^
 
@hellboy666: Im Real!
 
@bluewater: oder bei ALDI in der Grabbelkiste.
 
@jediknight: Oder wie früher mit den AOL CDs :)
 
@bluewater: ok, bitte keine werbe wurf prozzies^^
 
@bluewater: Wie jetzt? CPUs als Bierdeckel? Hmm? Warum nicht? Aber das Problem ist die zur Verfügung stehende Fläche! Während die AOL-CDs ideale Bierdeckel abgaben, sind CPUs doch viel zu klein für ein Bierglas!? Deswegen kann ich den Vergleich mit den AOL-CDs jetzt nicht so ganz nachvollziehen? Wie willst du eine CPU in einen Bierdeckel umfunktionieren?
 
@seaman: als untersetzer für kurze wären die noch geeignet^^
 
@seaman: Ich denke mal für die Türken und Ihren schwarzen Tee reichts von der Fläche.
 
AMD schafft sich ab! Erst zerstörte AMD seine Stellung bei den Gewinn trächtigen Server CPUs mit der Abschaffung ihrer OpenSource Entwickler und Schließung des Operating System Research Center in Dresden und nun versucht AMD auch noch den traurigen Rest kaputt zu schrumpfen.
 
AMD kann so eigentlich nicht mehr lange Überleben, schon jetzt sieht man dass Intel mit dem Markt spielen kann.
 
Wenn das so weiter geht, wird es im CPU-Markt immer düsterer. Intel wird quasi Alleinherrscher, was die Preise weiter in die höhe treiben wird. Hoffen wir, dass AMD endlich wieder eine Konkurrenzfähige CPU auf den Markt bringt, gegen die i3-7 scheinen sie ja machtlos zu sein.
 
@hhgs: Intel ist nach meiner Ansicht im anspruchsvollen Makrt schon jetzt mehr als alleine.
 
@GrIvEl: Im "anspruchsvollen" Markt sicher nicht. Denn das ist ein ganz anderer Markt als "Benchmark-Schwanz-isch hab den grössten-111elf"-Markt. Da wäre IBM noch bedeutender.
 
@marex76: IST IBM nicht aus der Produktion ausgestiegen?
 
@hhgs: wenn ich richtig die tests im hinterkopf habe läuft (nur im Leistungsbereich) die neue FX-Generation Intel Kielwasser ab. ABER AAAABER: diese verbrauchen ordendlich Saft um dies zu schaffen. Im mobilen Bereich sehe ich bei AMD immernoch Defizite: Entweder Leistung aber Hitzköpfe und schnell hinüber oder die teile kommen nicht aus der Hufe. Ist leider "Berufserfahrung" da ich täglich Notebooks repariere. AMD muss hier die Architektur nachbessern um Effizienter zu werden
 
@hhgs: Intel ist Marktführer bei Grafiklösungen.
 
@jediknight: Dort sind sie aber nicht alleine, Nvidia haben durchaus ein Wort mitzureden und auch AMD/ATI - wobei AMD auch hier hinterherhinkt! :-/
 
@hhgs: wo hinkt AMD denn bei den Grafikkarten hinterher? Wäre mir neu. Es ist ein ständiges Kopf an Kopf-Rennen und mal punktet der eine und der andere bei diversen Features.
 
@marex76: Wie gesagt: "Nvidia haben durchaus ein Wort mitzureden und auch AMD/ATI" ABER dann die Verkaufszahlen: " wobei AMD auch hier hinterherhinkt! :-/" Intel dominiert auch im Grafikmarkt und AMD/ATI ist auch hier wieder das Schlusslicht!
 
@hhgs: Das wäre mir neu, das AMD im Grafikkartenbereich hinterher hängt...

Was Preis-/Leistung angeht sind die mit Ihren Grafikkarten ganz vorn.
 
@C47: Es geht um den Verkauf, AMD/ATI verkauft am wenigsten!
 
@jediknight: Klar - Intel ist Marktführer. Wohl eher Nvidia gefolgt von Amd. Wo hat Intel jemals eine gescheite Grafikkarte rausbebracht?
 
@M4dr1cks: dabei wer Merktführer ist geht es nicht darum, wer die leistungsmäßig schnellste GPU hat, sondern wer die meisten verkauft.
 
@M4dr1cks: Was für ein Quark, Intel ist im gpu-Markt der Führer, gefolgt von AMD und dann erst nVidia. Das ganze muss man allerdings ein wenig erklären, Intels Grafiklösungen werden i.d.R in CPUs ( auch in Chipset´s der älteren Generation ) verbaut, ein kleiner Anteil wandert auch in Supercomputer in Form von Intels Phi. Ähnliches auch bei AMD, bei nVidia schaut es eher anders aus, da nV weder CPUs noch eigene Karten herstellt, landet der Großteil der Chips auf dedizierte Lösungen. Wen man nun den Markt von dedizierten Karten betrachtet ist hier klar nV die Nummer eins, gefolgt von AMD, ein kleiner Teil fließt noch auf SIS/Matrox Lösungen. Was alle drei gemeinsam haben, sie sind als aller erstes erst einmal Entwickler von Grafiklösungen, wobei Intel als einziger auch selber Herstellt in eigenen FABs, Bei AMD und auch bei nV werden die Chips von Auftragsfertiger hergestellt. Weder AMD noch nV bringt fertige Grafikkarten auf dem Markt, ein kleiner Teil bei Neuentwicklungen die für Tests/Reviews hergestellt werden sind nicht für den Endkundenmarkt bestimmt . Nebenbei erwähnt gab es mal Ende der 90er eine dedizierte Grafikkarte für den AGP-Slot, hieß Intel i740 ....
 
@du-lachst: Na eine Intelgrafiklösung ist absolut lächerlich. Mit seinem Schrott kann Intel gegen NVidia/AMD-ATI null mithalten.
 
@M4dr1cks: Die Leistungsfähigkeit spielt bei seiner Betrachtung überhaupt keine Rolle, sondern nur die Verbreitung, also verkaufte Stückzahlen.
 
@DennisMoore: Marktführer ist der für mich, wer über die beste Technik verfügt und nicht wer am meisten absetzt.
 
@M4dr1cks: Marktführer ist der mit dem größten Marktanteil. Das sagt das Wort bereits aus. Für mich ist da kei nINterpretationsspielraum, aber bitte. Wenn du meinst. Brauchst dich dann aber nicht wundern dass andere dich für diese Aussagen korrigieren wollen.
 
@hhgs: Sind halt alle Schuld, die Intel unterstützen. Wenn AMD nicht mehr da ist, werden die Leute schon sehen, was sie davon haben.
 
@M4dr1cks: Das Problem ist, als ich mir mein neues Notebook gekauft hab, wollte ich mir eigentlich eins mit einem AMD holen, aber es gab NICHTS was ansatzweise an die Leistung ran kam die ich mit meinem i7-2670QM(8x2,2Ghz-3,1Ghz) bekomme. Und vorallem nicht für das Geld.
 
Das verstehe ich nicht.

Klar sie haben einen Vertrag, dass sie die Menge abnehmen müssen.
Und sie brauchen zur Zeit nur weniger, müssen aber die abgemachte Menge zahlen.

Aber lese ich das jetzt falsch, dass sie die Ware Zahlen, aber nicht bekommen ?

Wieso zum Teufel nehmen sie dann nicht die abgemachte Menge an Wafern ab und legen sie auf Lager, wenn sie sie schon Zahlen müssen ?

Wieso kommt es dann billiger, wenn man für eine Ware zahlt, die man nicht bekommt ?
 
@andi1983: weil 320 weniger als 500 ist? was bringt dir das, wenn du für 500 produzieren lässt u es nicht los wirst? dann lieber strafe zahlen u 180 retten.
 
@hellboy666: Sorry hatte es doch falsch gelesen.

Hatte es so gelesen, als wäre das andere Unternehmen der Zulieferer der Wafer.

Daher dacht ich wäre es günstiger die Wafer auf Lager zu legen, als keine Ware zu erhalten ;-)

Wafer kann man ja immer wieder brauchen und verarbeiten
 
@hellboy666: naja, nach meiner Rechnung sind 320 + 115 schon sehr nahe an den 500. Frage mich wieso sie nicht die normale Menge nehmen und sagen 50%, oder gar 75% auf alles (außer die neue Generation) Intel müsste nachziehen, oder den low-end markt erstmal verlieren (vorrausgesetzt es gibt kein Kartel?). Die Lager wäre leer und ich kann mir nicht vorstellen das dabei mehr Verlust als 65m enstehen soll.
 
@flail: gute frage, dazu müsse man wissen wie die lager bestände aussehen. da amd eh schon mit einem fuß über der klippe sind, wäre preissenkung von bis zu 75% das aus der Firma und das intel da mitziehen muss is ne gewackte aussage, hat intel schliesslich auch nie wirklich gemacht.
 
@flail: das Zauberwort für die Einsparung heißt "Lagerkosten"... wenn ich die Differenz nicht produzieren lasse, dann muss ich dafür auch keinen Lagerplatz haben und bezahlen --> Einsparung.

Daher ist das Ganze für AMD ein gutes Geschäft, denn die würden die Differenz in 20 Jahren nicht verkaufen, da die FX-Serie nicht gerade beliebt ist... denn die Leistung kommt in den Vergleichsbenchmarks nicht wesentlich zum Tragen. Eine Lösung ist eben, dass man die integrierte Grafik mit der externen Grafik in einem CF-Mode laufen lassen müsste, die CPUs müssen Stromsparender und effizienter werden - preislich kann man wirklich nicht jammern, denn für wenig Geld gibt es viel CPU-Technik...
 
einfach nur traurig was bei amd abgeht
 
War immer AMD Fan doch im neuen Rechner wird ein Intelherz schlagen (Hardware heut gekommen). Schade aber das sieht nicht gut aus für AMD. Wirklich verstehen tue ich die Situation allerdings nicht. In den meisten Rechnern von Kunden bei uns arbeitet ein AMD-Prozessor.
 
@-luke-: Du kaufst bei Intel und wunderst dich, daß AMD eingeht? Is klar...
 
@-luke-: wie ich diese Beiträge leiden kann... blablabla... AMD-Fan... blablabla... Intel ist besser blablabla... geheucheltes Mitleid...

Man wie oft liest man so einen Stuss noch?? Entweder bin ich AMD-Fan, weil ich AMD mag oder ich bin doch nur ein Speichellecker, der nach dem letzten Fünkchen Performance sucht... also hört doch einfach mit dem geheuchel auf, dass ihr angebliche AMD-Fans seid... ;-)
 
Ja sehr schade für AMD.
Habe mich beim Start der Quadcores nach etlichen Jahren AMD für Intel entschieden und bin damit nie angegangen. Ausschlaggebend war für mich die Sache mit den „AMD Quadcores“ welche Amd den leuten als triple cores verkaufen wollte weil die effektiver wären... Tja dann kam heraus dass es lediglich ein Produktionsfehler war.
Von da ab hab ich nichts mehr schönes von AMD gehört. Lediglich durch den Kauf von ATI war AMD noch ein Reiz für mich.
Schade ich wünsche AMD alles gute für die Zukunft und dass Sie sich wieder mit guten Prozessoren auf die Beine bringen auch wenn ich noch nicht daran glaube.
 
@DKStone: Keine Ahnung wa? :D Die X3 CPU´s also drei Kerner wurden auch als solche Ausgewiesen. Nur weil ein Kern defekt ist soll man also Tausende CPUs wegwerfen, was ist dass bitte für ein Wert+Umweltverständnis? Als die X3 auf dem Markt kamen, da gab es noch Haufenweise Dual Core CPU´s und Tripplecore´s waren zum Spielen sehr gut, was daran lag dass die meistens Games zu der Zeit nur Dualcore konnten und dann noch ein Kern für die üblichen PC Hintergrundaktivitäten da war. Zudem waren diese 3 Kerner sehr Günstig. Es gab sogar sehr viele 3 Kern CPUs wo man sich Kostenloas den 4 Kern Freischalten konnte! Denn nur in wenigen Fällen waren es Teildefekte CPUs, die Nachfrage war nach X3´ern war Recht groß so wurden dann auch X4´er dafür rangezogen. Teildefekte GPU und CPU dennoch zu Nutzen ist bei allen Herstellern gang und gäbe! Man muss in diesem Fall auch Wissen wieso diese Defekt sind, zuerst hört es sich so an als wenn man Müll bekommt, was Quatsch ist, den nur wenige sind wirklich Teildefekte Chips. Wir Reden vom Nanometerbereich, hin und wieder grade am Rand des Wafers ist die Qualität der Belichtung etwas Schlechter. Stelle dir dass Vor der Wafer ist ein Fotofilm und du Fotografierst eine CPU Maske drauf. Am Rand ist ein Kern einer CPU etwas Unscharf geworden und Funktioniert nicht, oder man Vermutet dass er nicht so hoch Übertaktet werden kann wie die Restlichen Kerne was zu Instabilitäten führen könnte, dann wird dieser CPU aussortiert und wird ein drei Kerner. Die Restlichen drei Kerne sind so Perfekt wie die Besten in der Mitte des Wafers woraus die die ultra geilen Opteron 16 Cores machen (z.B.) Wozu also ein Funktionsfähigen CPU einfach auf den Müll werfen, gibt genug Kunden die sich über diesen Günstigen CPU freuen, manchmal kann es sogar ein Vorteil sein, nun müssen sich ggf. nur 3 Kerne die L1/2/3 Cache´s Teilen. Wir Reden hier nicht von Auto ohne Motor, sondern viel mehr um Auto wo man 3,4,6 oder 8 Zylinder hat.
 
@Hagal: selbes Spiel gab es auch bei Nvidia-Grakas mit den Pixelpipelines... da gab es auch Modelle, die technisch identisch waren, aber es wurden einfach einige Pipelines abgeschaltet, weil eine oder mehrere defekt waren. Mit entsprechenden Tools konnte man die funktionierenden wieder freischalten und hatte mehr Power... ist also nicht unüblich *Daumen hoch*

Und bei den Quadcores kann man es im übrigen auch genau andersherum machen... mein Phenom II kann ich als Single-, Dual-, Triple- oder Quadcore laufen lassen... i.d.R. braucht man die Leistung eines Quadcores kaum... besonders, wenn der mit 3,2 Ghz je Kern läuft... beim Vids umwandeln kommt man auf 75 Prozent Auslastung maximal... da limitiert eher die HDD bzw. der Chipsatz...
 
@DKStone: Das ist bei allen IT Herstellern seit langem so. Stell dir bloß mal vor alle I5 kommen gleich aus dem Wafer und werden nur künstlich beschnitten um einen Markt zu schaffen - und die 5% die es nicht besser können sind dabei gemischt. So ist das halt. Eine AMD Grafikkarte 7950 ist auch der selbe Kern wie bei einer 7970 - lediglich "beschnitten". Bei Nvidia ist es nicht anders, teilweise arbeiten da gleich drei Modelle mit dem eigentlich selben Kern. Freischalten kann man idR. nur noch wenn der Hersteller eine Generation gut pushen will - oder es nicht wirklich verhindern kann.
 
Tjo, wat soll man sagen... Kann mich da nur denen anschließen, die von AMD dann eben doch auf Intel umgestiegen sind. So bitter das auch klingen mag, aber bei der Leistung zahl ich dann doch lieber 50 oder 100 drauf, für was, wovon ich auch was, bzw. deutlich mehr habe. Da kann AMD dann auch nicht mehr mit einem guten Preis/Leistungsverhältnis punkten... Schade drum.
 
@PrivatePaula2k: Jup weil deine RAR sich dann 1 Sekunde schneller Entpackt oder du Anstatt mit 70FPS mit 75FPS Spielst die dein Auge gar nicht Wahrnehmen kann. Dafür Zahlst du also 100 Euro mehr. Das Argument ist so nicht Schlüssig.
 
@Hagal: was da noch hinzukommt ist die Tatsache, dass CPU's von Intel derzeit wesentlich energieeffizienter sind. Sie sind leistungsstärker und gleichzeitig stromsparender.
 
Ich frag mich bei den Kommentaren immer wieder für was ihr diese SUPER Mehrleistung der Intel CPUs eigentlich braucht? Denn die meisten sind Leute die spielen ... und dafür brauch man nun wirklich nicht unbedingt eine Intel CPU, aber 10 % mehr FPS sind ja anscheinend Lebensnotwendig. P.S. und kommt bitte jetzt nicht wieder mit dem höheren Mehrverbrauch, denn eure CPU verbringt die meiste Zeit im Idle Modus und steht nicht die ganze Zeit unter Volllast.
 
@GeeXtaH: kann ich nur zustimmen.
Beim Video Rendern, 3D-Grafik rendering kann ich das ja noch verstehen aber wieviele machen das denn wirklich...
Ein Vierkern wird nicht einmal richtig ausgelastet und beim Spielen kommt es auf die Grafikkarte an.

Sicher muss die Grafikkarte auch zur CPU passen sonst wird das ein oder andere ausgebremst aber das sind auch nur Minimalwerte.

Hab immer noch meinen AMD 64 X2 5000+ und bin zufrieden ;)
 
@M. Rhein: Tja wobei ein AMD Thuban X6-1100T durchaus Mithalten kann beim Encoden und dabei um die 700€+ weniger Kostet als ein wenig schneller Rechnender i7 6 Kerner sammt Teurem Hiend Intelbrett. Bis man die Stromkosten drinnen hätte ist der CPU schon wieder 10 Jahre veraltet. ;)
 
@Hagal: das weiß ich nicht so genau, kenne mich mit dem rendern sowieso nicht so aus, bekomme so etwas nur beiläufig mit ;)
Aber wieviel verbraucht denn der Thuban X6 ? Würde mich ja jetzt doch Interessieren ?
 
@M. Rhein:

Dass könnte ich dir wenn eh nur für den ganzen PC Sagen also alle Komponenten. Mein X6 habe ich zudem unter Voltet. (Vcore verringert) Das Spart zusätzlich Strom, AMD und die Mainboardhersteller geben einen Standard Wert vor wo alle X6 mit Laufen. Da meiner einer der letzten der Fertigung war und damit von sehr hoher Qualität ist braucht er die 1,44V bei 100% Load nicht. Für einen stabilen Betrieb reichen in meinem Fall 1,30V (VC wobei auch nur im Turbomodus mit 3,7GHz) der Abzug wird auf alles State´s angewendet, im Normalen Idle sind es dann um die 0,8V. Der PC läuft eigentlich nur bei x264 Encode auf 100%. Sonst nie. In dem Fall wird er so um die 105~110W Verbrauchen (Geschätzt) Was weniger ist als beim i7 9**X 6 Core. (z.B.)
Bei Spielen gibt es bis jetzt nur zwei die ale 6 Kerne nutzen, Max Payne 3 mit ca. 70% und den Besten gesamt Nutzwert bis Dato erreicht Alan Wake mit bis 87%. andere Spiele wie BF3 ect. nutzen nur 4 Kerne.
 
@GeeXtaH: Liegt am Marketing. Dem gehen die Leute gern auf dem Leim. Thesen, dass Intel-CPUs mit einer Nvidia besser zusammenpassen würden, als mit einer ATI, geben den Rest.
 
@M4dr1cks: Ja klar, es liegt immer daran was uns die Werbung sagt ^^ Eine Kombination aus Intel CPU und nV Grafik ist ist am meisten in mobilen Lösungen zu finden, der Markt ist übrigens um Längen höher als der DT-Zocker-Markt. Da gibt es dank nVs Optimus eine sinnvolle Energieersparnis ( längere Akkulaufzeit ) unter W7, diese funktioniert nur mit diesen beiden Herstellen. Eine AMD Lösung wäre Enduro, sofern es problemlos funktioniert, geht auch nur mit einer AMD-Hardware, sprich CPU ( APU ) und gpu muss von AMD stammen !!!!
 
@du-lachst: Und was ändert es daran, dass Intels Grafiklösung Schrott ist?
 
@M4dr1cks: Wohl kaum, liegt eher daran das Du nur den Zockerbereich siehst, der Großteil der benutzen PCs sind keine Daddelkisten im herkömmlichen Sinn, da wird mit gearbeitet, darüber hinaus bieten die Intel Lösungen schon für ihren verbrauch eine erstaunlich Spieleleistung, vergleichbare AMD&nV Lösungen sind kaum schneller ....
 
@du-lachst: Wer einen gescheiten Rechner will, arbeitet nicht mit solch einem Schrott.
 
@GeeXtaH: es geht nicht rein um die Mehrleistung. Aber wenn ich eine CPU bekommen kann, die nicht nur leistungsstarker sondern auch wesentlich energieeffizienter ist, ist doch wohl klar, wofür ich mich entscheide, oder?
 
@RebelSoldier: Ich kann's nicht mehr hören. Rechne mir bitte vor, daß du deine Intel CPU lange genug im Einsatz hast, daß sich die höheren Anschaffungskosten durch die "Energieeffizienz" auch WIRKLICH amortisieren! Bitte bedenken, daß ein PC wohl kaum die ganze Zeit unter Volllast läuft. Wie oft liest man solche halbherzig überdachten Aussagen grad von Leuten, die 2-3 Mal im Jahr eine neue CPU "brauchen" um in ihren Spielen 3 FPS mehr zu haben...
 
@GeeXtaH: Ganz einfach, Benchmark-Peen, für mehr taugts nicht. Wer zahlt nicht gerne 100 Teuro mehr, für 50 3dMarks, die sich im realen Einsatz in keinster Weise bemerkbar machen <eg>
 
@GeeXtaH: Ich glaube nicht dass die Hauptrechenzeit bei einer CPU bei Normalusern durch Spiele verbraucht wird, wobei die CPU heutzutage sicherlich eh keine 10% FPS mehr bringt. Die meiste Zeit dreht die CPU Leerrunden. Und da ist es eben wichtig dass das Gesamtsystem immer schön mitskaliert und in jeder Situation die passende Leistung-/Verbrauchswerte hat. Und das tun Intel-CPUs nunmal fast perfekt im Gegensatz zu AMD.
 
Energie-Effizienz ist nicht allein eine Frage der Stromkosten-Ersparnis, die im Privathaushalt gewiss nicht so drastisch ausfällt, wie etwa in einem Rechenzentrum. Aber weniger Strombedarf, bedeutet auch, weniger Abwärme und somit weniger Kühlung ... was ein leiseres System sehr begünstigt und das ist manchem eben doch wichtig !
 
@Hobbyperte: Ich arbeite derzeit mit einem Phenom II X4 955 BE. Das ist eine 95 Watt (TDP) Heizung. Deiner Aussage nach müsste ich wohl mit Gehörschutz am Rechner sitzen. Irgendwas muß ich wohl falsch machen, ich kann meinen PC nämlich kaum hören. Kennst du die Firma "Arctic Cooling"? Jaja, du erwähntest Rechenzentren... aber dort ist der Geräuschpegel eher zweitrangig...
 
@starship: in meiner Aussage treffe ich keine Wertung zu Gunsten oder Ungunsten eines Herstellers oder Produktes. Sie ist so gemeint wie sie da steht. Denn natürlich kann man auch leise Rechner mit AMD-CPU bauen. Muss jeder für sich feststellen und Entscheiden was für seine Zwecke die bessere Wahl ist. Nach meinen Beobachtungen und Erfahrungen, brachten sowohl AMD als auch Intel immer wieder mal sehr gute Produkte an den Start und haben ebenso immer wieder mal "Mist" produziert. . . wobei ich mich bei den AMDs (CPU und MB-Chipsätze) im Bekanntenkreis immer wieder auf "Besonderheiten" treffe, mit denen ich mich nicht Anfreunden mag, aber das mag eine Geschmacksfrage sein.
Zum Phenom II X4 955 black edition finde ich per Google-Suche eine TDP von 125 Watt, vergleichen wir ihn mal mit dem i7 3770(K), mit einem maximalen TDP von 77 Watt. Wobei preislich freilich Welten zwischen beiden CPU liegen. (AMD ca. 100 Euro, Intel ca. 300 Euro) In der Leistung allerdings auch. (Phenom 955 auf Rang 267, i7 3770K auf Rang 30 bei http://www.cpubenchmark.net. Ich vermute aber mal das dieser Vergleich nicht ganz fair ist, der Phenom ist wohl schon etwas älter ? Und kann daher nicht am i7 3770 gemessen werden, was den Preisunterschied dann allerdings auch rechtfertigt.
 
@Hobbyperte: Was soll dass bitte für ein Vergleich sein? (X4-955 gibt es in 95W!) Der X4 ist in 45nm gebaut und der 3770K in 22nm zwischen den Beiden liegen über 3 Jahre und dafür schlägt sich der AMD CPU sehr gut. Benchmarks sagen nichts aus, weil solche Zustände im echten Leben nie erreicht werden. Wenn man Vergleicht dann z.B. wie lange das Endpacken einer RAR von 1GB braucht oder die Spiele Leistung auch nur Bedingt weil da eher die Grafikkarte das Limit erstellt, nicht der CPU.
 
@Hagal: schrieb ich nicht, das ein direkter Vergleich nicht ganz fair ist ?!
 
@Hagal: Es gibt durchaus Spiele die auch eine CPU fordern, PlanetSide2 mal als Beispiel. Da muss man auch den 2500k dann doch wieder übertakten. Damit ist auch die ältere CPU schneller ist als alles was AMD aktuell hat (und verbraucht weniger Energie). Im extremen Threading ist AMD sicherlich Preis/Leistungssieger - aber wer macht sowas schon im privaten Bereich?
 
Man erkennt, daß die Erheber der Vertragsstrafe mit den zu Strafenden unter einer Decke stecken, da es nur dann eine wirkliche Strafe ist, wenn diese zu höheren Verlusten führt, als sie sich ergeben, wenn der Vertrag eingehalten wird.
 
Na da bin ich aber mal gespannt ob AMD nch bis zum Steamroller durchhälft. Der wurde ja mittlerweile auch nochmal kräftig nach hinten verschoben.
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles