AMD: Kein Abschied von Sockel-CPUs für Bastler

Nachdem jüngst Gerüchte aufkamen, wonach Intel mit der übernächsten Prozessorgeneration auf die bisher üblichen Varianten für die Verwendung in klassischen CPU-Sockeln verzichten will, hat AMD nun versichert, das man keineswegs ausschließlich auf ... mehr... Prozessor, Cpu, Amd, APU, AMD Fusion, Llano Bildquelle: AMD Prozessor, Cpu, Amd, APU, AMD Fusion, Llano Prozessor, Cpu, Amd, APU, AMD Fusion, Llano AMD

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Was sollen wir mit der Aussage ".. hat ... mit wirtschaftlichen Problemen zu kämpfen, so dass sich erst zeigen muss, ob die ... DIY-freundliche Produktpolitik ... Bestand haben wird."? Wenn sich Intel aus dem DIY-Bereich zurückzieht, hat AMD doch freies Feld. Sicher werden sich dann auch andere ein Stück vom Kuchen holen wollen, aber die müssen erstmal dahin kommen, wo AMD in dem Bereich jetzt schon ist. Wie dem auch sei, ich begrüße die Entwicklung durchaus, bin ich doch quasi seit Ewigkeiten treuer, und vor allem überzeugter, AMD-Kunde. Die ständigen Versuche meines Hardware-Dealers, mich ins Intel-Nvidia Lager zu zerren, dürften dann auch ein Ende habe. Gelle Marc? ;-)
 
@starship: Bis zu den AMD Phenoms war ich AMD Fan. Hatte dann aber weiterhin AMD-Grafikkarten. Bin zu dem Zeitpunkt auf ein Q6600 mit AMD 4870 umgestiegen. Aktuell habe ich ein i7 und eine Nivida 560 TI. Mir gingen bei AMD die viel zu schlecht programmierten Grafikkartentreiber tierisch auf die Nerven. Muss mal schauen, aber mein nächster Rechner könnte dann wieder mit AMD-Power kommen. Habe in letzter Zeit auch vielen Bekannten AMD empfohlen und alle sind zufrieden. Wünsche AMD eine schnelle Erholung von den Roten Zahlen und gut laufende Geschäfte! :)
 
@Motti: Ich kann das Problem mit den schlecht Programmierten AMD-Treibern nicht nachvollziehen.
 
@JSM: Nunja ich hatte dies mit verschiedenen Grafikkarten erlebt. Immer mal wieder sind diese abgestürzt oder/und haben die Anwendung mit in den Tod gerissen. Es ist eben die Erfahrung die ich gemacht habe. Wobei ich inzwischen sagen muss, dass Nvidia da auch noch was nacharbeiten müßte. Zwar nicht so viel wie AMD, aber perfekt sind beide Firmen nicht.
 
@JSM: Das Problem betrifft wohl eher andere Programmierer die z. B. auf OpenCL setzen. Mit jedem neuen Treiber ist dort so viel geändert und nur noch die Hälfte das Programms funktioniert. Bei Fehler die gemeldet werden reagieren sie auch fast gar nicht und man muss mehrere Monate warten bis überhaupt etwas passiert. AMD ist eher Gamer orientiert. Die Programmierer, welche die Rechenleistung von AMD benutzen wollen sind bei AMD zweitrangig.
 
@helix22: Und das ist auch gut so :)
 
@ceramicx: Leider funktioniert diese einseitige Denkweise nicht. Für die Gamer ist es vielleicht gut dass sie mehr Support haben aber wenn AMD pleite geht bringt es nichts. Fragst du dich nicht warum alle größeren Institute oder die Supercomputer mit Nvidia Karten arbeiten? AMD hat zwar Power aber kann es nicht umsetzen. Bei der Medizin oder Mathematik muss man genau rechnen und das Ergebnis mehrfach überprüfen. Nvidia ist dort einfach viel besser als AMD.
 
@starship: naja... ich habe diesen Abschnitt ganz spontan so übersetzt: Intel plant ab 2014 angeblich BGA Packages. Ich will jetzt den AMD Liebhabern hier nich zu nahe treten, aber kann hier einer mit absoluter Sicherheit sagen wie es mit AMD in 2 bis 3 Jahren aussieht? Ich würde mich wenigsten nicht hundertprozentig darauf verlassen, dass man dann AMD CPUs für einen Sockel kaufen kann.
 
@Lastwebpage: Ausschließen kann man es mit Sichewrheit nicht. Ich finde den Schritt von AMD aber sehr gut, auch wenn sie womöglich insgeheim schon mit dem gleichen Schritt wie Intel rechnen, es nur noch nicht öffentlich machen. Verstehen kann ich es ja, wenn der DIY-Markt schrumpft und es sich für AMD nicht mehr lohnen würde. Ich werde wohl zukünftig auf AMD setzen, wenn Intel tatsächlich den Bastlern den Rücken kehrt. Schweren Herzens, aber was soll's?
 
@starship: freies Feld? wird sich zeigen, ich finde es absolut nicht gut was Intel da macht. Aber wenn Intel dann noch immer so viel Leistungsvorsprung hat. Werde ich wider Intel kaufen. Ich habe auch noch nie eine CPU ersetzt, es war immer so das ich CPU und Mainboard gekauft habe und nach einiger zeit habe ich dann beides ersetzt.
 
Ist ja toll das weiter Sockel CPU's angeboten werden, nur was nützt es mir wenn diese doppelten Verbrauch haben, aber dafür nur halb so schnell wie die Intel Konkurenz sind. Daran sollte AMD mal wieder arbeiten. Wenn ich bedenke das ich immernoch meinen 1055T habe weil sich ein upgrade überhaupt nicht lohnt....
 
@Clawhammer: wenn du dir aber im Jahr 1-2 neue Cpu´s kaufst (ja solche leute gibt es...) wirst du dir überlegen ob du den höheren Verbrauch nicht in kauf nimmst anstatt 1000 Euro und mehr auszugeben.Und wer weiß wie es 2014-15 falls intel das einführt aussehen wird.Vielleicht ist AMD bis dahin wieder ebenbürtig.Sie waren es ja schon mal bzw sogar besser bei manchen Generationen...
 
@lurchie: Das Problem ist, es gibt keine Überlegung ob ich den höheren Verbrauch aktzeptiere. Die AMD Prozessoren gehen bis 200€. Zu jedem Prozi gibt es was gleich teures von Intel was schneller und besser ist. Über 200€ gibt es garnichts mehr von AMD was Performancetechnisch da mitspielt. Außerdem hat AMD doch schon längst den Hut gezogen, da kam doch letztens die Meldung das man nicht mehr in diesem Bereich Konkurieren würde. Soweit dazu, geil fände ich es aber schon wenn AMD endlich mal wieder oben mitspielen würde.
 
@Clawhammer: Das ist ein gerücht was lange schon dementiert wurde, sowohl von AMD als auch Intel, es ist wirklich traurig wie viele Leute darauf hereinfallen!! http://winfuture.de/news,73410.html AMD/Intel haben weder vor ihre Sockelprozessoren aufzugeben, noch hat AMD vor aus dem High performancebereich auszusteigen! Und das es bei AMD keine Prozessoren über 200€ gibt ist doch vollkommen wurscht, die Leistung ist für geschätzt mehr als 60% der Heimanwender völlig ausreichend.. Und wenn du dich fragst warum AMD nicht die gleiche Leistung bringt wie intel dann solltest du dir mal an die eigene Nase fassen, wo soll das Geld für die Entwicklung herkommen wenn alle so wie du denken und bei der Konkurenz kaufen??? AMD ist eine, für seine im vergleich zu Intel geringen Geldmittel, sehr innovative Firma. Ich habe mir heute nen FX8350 gekauft und wenn du drauf stehst Strom zu sparen, dann kauf dir ein gescheites Mainboard, da gibts diverse Stromsparmodi (automatisches undervolting, Phasenabschaltung zB. )
 
@X2-3800: Und wenn du nur ein winziges bissel nachdenken würde was aus deinem Kopf kommt ... dann wäre der Welt gleich viel mehr geholfen. Ich weis nicht warum hier 12 jährige immer ihren Senf dazu geben müssen und nur Dinge die sie mal aufgeschnappt haben mit ihrer begrenzten Verstand sich zusammenreimen, hier zu Tage tragen müssen. Nochmal für dich: Intel = Preis Leistung + Green IT (Energie Effizienz) = ++ AMD = Preis Leistung + Green IT (Energie Effizienz) = - Ich denke selbst das solltest du verstehen. Und da wahrscheinlich deine Eltern den Strom bezahlen interessiert es dich ja auch nicht was dein PC so verbraucht !!!
 
@lurchie: Sorry, den Leuten die 1000 Euro für nen Prozzi für ihren Privat-PC ausgeben, ist nicht mehr zu helfen. Ich war auch eher AMD Nutzer. Mein letzter Tower hatte einen AthlonX2 6000+ und eine 4870 ~ danach bin ich auf einen Laptop umgestiegen mit Intel und ATI. Kann man nichts machen, AMD Prozzis waren in Laptops ja nie sonderlich verbreitet. Gut heute gibts die APUs in grossen Mengen, aber wenn ich zum selben Preis einen Laptop mit i5 aus der IVY Serie bekomm, muss ich schon ziemlich doof sein den AMD zu nehmen oder? Und wenn ich irgendwann einen Tower basteln sollte, wärs auch ein Intel. Den 3570K gibts um 200€. Das ist nicht die Welt, würde aber paar Jahre ausreichen. Zeig mir einen AMD der die Power und Energieeffizienz hat. Die FX Prozzis sind einfach nur Stromfresser. AMD hat verloren...
 
@Ðeru: Läppies sollten in dieser Diskussion um Sockel-CPUs lieber erstmal außen vor bleiben.
 
@Der_da: In o2 gings aber mehr um AMD, nicht konkret um LGA ... So what? Magst jetzt n Keks?
 
wer hätte es gedacht... War doch klar das so eine Antwort von AMD kommt.Kurbelt die Geschäfte wieder an weil dann viele auf AMD umsteigen werden sobald der Fall eintreffen sollte den Intel angeblich vollziehen will
 
@lurchie: Nachdem eh alle paar jahre der sockel geaendert wird und es ein neues board gebraucht hat beim DIY kann ic auch auch DIY maessig auf AMD verzichten :)
 
@-adrian-: alle paar Jahre der Sockelwechsel?? klingt stark nach Intel, aber nicht nach AMD... dort sind die Sockel z.T. abwärts- und aufwärtskompatibel... also brauch ich bei einem AMD nicht zwingend für jede neue CPU auch ein neues Board... - im Gegensatz zu Intel... nach dem Sockel 775 ging es schon rasant... jede neue CPU-Generation bekam nen neuen Sockel, der mit dem alten inkompatibel war... d.h. ich kann nicht z.B. erst das Board wechseln oder später mal die CPU oder oder oder...
 
@chippimp: Für AMD-CPU's gab es in den vergangenen 7 Jahren nicht weniger verschiedene Sockel als für Intel. Der Unterschied ist bloß, daß die Sockel für AMD-CPU's erstaunlicherweise sogar über mehrere Generationen hinweg aufwärtskompatibel sind. Ich hab' zu Hause einen Rechner mit Phenom II X4 (also eigentlich AM3 oder AM3+), der tatsächlich noch auf einem reinen AM2-Board (ohne +!) läuft.
 
@lurchie: Ich wage zu bezweifeln das das so viel ausmacht.
 
@lurchie: Also ich würde sofort dann auf AMD umsteigen, falls sich dies bewahrheiten sollte. Auch wenn AMD dann immernoch eine etwas schlechtere Leistung bieten sollte.
 
@lurchie: Intel hat das mit den "Sockel CPU abschaffen" schon dementiert, das stand sogar bei Winfuture irgendwo. http://winfuture.de/news,73410.html
 
Naja, Batsler sind letztendlich doch eine Minderheit. Ich sehe in BGAs durchaus auch Vorteile und zwar beim Support und in Garantie- und Gewährleistunggangelegenheiten. Mein ITX System ist letztendlich auch BGA und ich habe damit kein Problem. Letztendlich waren den Intel Nachichten aber auch nirgendwo zu entnehmen das sie ausschließlich auf BGA setzen werden, von daher mache ich mir da keine Sorgen. Bei mir muss ich aber feststellen das ich nach fast 20 Jahren Bastelfaul geworden bin. Etwas neues ist immer seltener notwendig und mich dann jedes mal aufs neue damit auseinander zu setzen, habe ich keine Lust mehr zu. Ivy-Bridge, Sandy-Bridge usw... achne. Ein Board, klare Fakten, thema erledigt.
 
@wasserhirsch: die aktuelle Lage das ein aufrüsten seid 2 Jahren nicht wirklich von nöten ist liegt an den Konsolen! (ja haut mich jetzt ihr Konsoleros) wenn nächstes jahr die neuen Konsolen auf den Markt kommen wird es wieder etwas schneller gehen für 2-3 Jahre.
 
@lurchie: Ich habe meine Zweifel das die Konsolen dafür verantwortlich ist. Die Entwicklung ist einfach stagniert. Ich kann mit einer 5 Jahre alten Graka noch heute aktuelle Spiele gut spielen, sofern sie denn noch DirectX 9, evtl. 10 sind. Auch CPU Technisch geht man nur noch die Kerne rauf und dennoch stagniert es mehr oder weniger zwischen 4 und 8 Kerne auf dem Desktop Markt. Es passiert nichts mehr und es ist auch nicht mehr wirklich viel nötig. Nun gehts ans Energie sparen, kleiner und kompakter werden. Das gillt auch für Desktops. Waren ITX Systeme vor einigen Jahren noch Exoten, gehören sie in Modernen Büros mittlerweile zum Standard. Und auch privat zu Hause kommen sie immer mehr an.
 
@wasserhirsch: Geht mir ähnlich, mein Rechner ist jetzt auch schon im 4. Jahr und ich kann aktuelle Spiele damit noch spielen, selbst mit ordentlicher Qualität (Core2Duo und Geforce GTX-260).
 
@wasserhirsch: Schau dir einfach an wieviele Spiele in Wahrheit nur noch Konsolen Ports sind und welche direkt für den PC entwickelt werden.Die Hardware die die aktuelle Konsolengeneration verbaut hat is asbach uralt.Das da auf dem PC Markt nicht viel passiert ist klar.Andererseits muss man aber auch sagen passiert so etwas wie bei Crysis 3, die eine DX11 Karte voraussetzen, meckern auch wieder alle hab ich nicht und will ich nicht.
 
@lurchie: Die macher von Crysis werden schon wissen ob sie sich das leisten können oder nicht.
 
@wasserhirsch: Warum sollte die Minderheit "Bastler" die einzige DIY-Zielgruppe sein? Es gibt genug Nicht-Bastler, die trotzdem keinen PC von der Wurst- und Käsetheke haben wollen. Die Einzelhändler, von denen es zum Glück noch so einige gibt, konfektionieren für gewöhnlich die PC's nach Kundenwunsch. Die machen am Ende dabei aber auch nichts anderes, als der Bastler daheim, die nehmen nur technisch weniger versierten Leuten den Zusammenbau ab. Also ich gehe stark davon aus, daß Intel's Rückzug für AMD Aufwind bedeuten wird. Und mal ehrlich, nur weil ich mal eine neue CPU haben möchte, das Mainboard tut' schließlich noch eine Weile, muß ich mir gleich einen halben PC kaufen? NEVER! Ich kaufe doch wegen einem Glas Milch nicht gleich eine ganze Kuh :-p
 
@wasserhirsch: Ich sehe die Problematik nicht vorrangig bei den Schraubern (obwohl es mich schon sehr treffen würde), sondern in dem Umstand, dass es im Falle eines Defektes recht teuren Kollateralschaden gibt.
 
@Vollbluthonk: Darum ergänzte ich ja die Garantie- und Gwährleistungsangelegenheit. Dies ist dann für die ganze Platine der Fall. Nach 2 Jahren ist das natürlich Pech allerdings glaube ich auch, das der Preis für eine BGA Platine deutlich günstiger sein wird, als wenn man sich das getrennt kaufen würde. Ich denke über die Zeit gleicht sich das aus.
 
@wasserhirsch: Das einzige wo ich bei diesem BGA Konzept irgendwie Bedenken habe, ist das Boarddesign, bzw. die Boardhersteller. ich habe ein µAtx Board ohne Grafikkarte, mir reicht die Grafik der IVY CPU völlig. (Ich hätte mir vielleicht auch ein ITX Board gekauft, aber da scheiterte es an den Anschlüssen auf dem Board) Nur die CPU mit Sockel hat den Vorteil, dass das Boardesign so mehr oder weniger vorgegeben ist und ich mir einen beliebigen CPU Lüfter draufsetzen kann. Ich weiß nicht ob das bei einem BGA Konzept auch möglich sein wird.
 
Intel hat diese Gerüchte ebenfalls, zwar mit Hintertürchen, dementiert. http://tinyurl.com/cw7x5t8
 
Lol, selbst bei AMD zukünftigen Mobil-Prozessoren wird ein BGA kommen, denn AMD macht ihren Hauptumsatz mittlerweile mit Bobcat-CPUs und da wird es zwangsläufig auf SOCs in BGA hinauslaufen - Das die Gerüchte aus einer fehlerhaften google-übersetzung entstanden ist, möchte ich auch nur mal so nebenbei erwähnen, denn im originalen Artikel von PC-Watch geht es ja um die mobilen Broadwell Prozessoren von Intel und nicht um dei Desktop-Ableger, wodurch dann einige Webseiten dann den Untergang des LGA-Sockels herbei geschrien haben - Amüsante Posse die man sich da mal wieder geleistet hat, aber egal solange es die Werbekundschaft nicht weiter stört ^^
 
Welcome back, AMD.
 
Würde ja gerne mal wissen was Boardhersteller und Intel, bzw. AMD damit sparen würden ausschließlich BGA-Prozessoren anzubieten. Bestimmt wieder nur Kleckerbeträge, die in keinem Verhältnis zur Benutzerfreundlichkeit stehen.
 
Ich bin ja eigentlich AMD-Fan aber ich habe mir vor kurzem auch einen i5-3570k geholt weil der eben viel weniger Strom frisst und die Strompreise auch immer höher gehen. Die Leistung würde mir langen bei AMD aber der Verbrauch ist mir zu hoch. Ein 8350 nimmt mal 100Watt mehr als ein i5 :(
 
@dd2ren: ???? 100Watt mehr alles klar, sicher schaltest du immer sämtliche Energiesparmaßnahmen aus (cool and quiet C1E) und fährst den Prozessor 7 tage die woche 24h. Du bist wahrscheinlich auch einer der glaubt das ein 1000W Netzteil immer 1000W aufnimmt :p
 
@X2-3800: Erzähl doch den Mist wo anders. Der nimmt nun mal unter Last 100 Watt mehr! Keine Benchmarks geschaut? Immer die Leute die ohne Hintergrundwissen irgendwie dagegen quatschen müssen. Schau dir Benches an und informiere dich vorher bevor du schreibst. Energieeffizienzen sind mir auch nicht neu was dir aber bestimmt neu ist. Mein Netzteil hat bei 50% Last 93,6% Effizienz falls du das wissen willst.
Habe mir mal die Mühe gemacht ein Screen von einem Benchmark hochzuschieben! http://www.pic-upload.de/view-17222144/8350.jpg.html und hier http://www.pic-upload.de/view-17222241/8350-2.jpg.html

Also Trolle mal woanders weiter. Ich habe langsam keinen Bock mehr auf solche möchtegern Besserwisser.
 
@dd2ren: Du liegst vollkomen falsch, ich kenne mich weitaus mehr mit der materie aus als du und wenn du meinen kommentar richtig gelesen hättest würdest du auch nicht so einen blödsinn behaupten. Wovon ich geredet habe ist, das du davon ausgehst das die CPUs immer auf 100% laufen wobei teilweise tatsächlich weitaus mehr strom durch vergleichbare AMD CPUs gehen, nur ist das in der Praxis bei spielen nicht der Fall, denn die meisten Spiele können keine 4 oder 8 kerne ausreitzen und somit erreicht die CPU bei weiten nicht die Leistungsaufnahme die in künstlichen Benchmarks auftritt. Somit ist ein Benchmark völlig ungeeignet um gegen AMD CPUs zu wettern. Sinnvoller wäre ein gleichbleibender Spielablauf oder das praxisgerechte rendern eines Videos (kein eingebauter Benchmark) einmal mit AMD und einmal mit Intel CPU. Dabei muss mit einem geeigneten Messgerät der gesamt (durchschnittliche) Energieverbrauch der CPUs ermittelt werden. Jetzt solltest du dir nochmal überlegen wer hier der "Besserwisser" ist! Ich hasse es wenn immer nur auf angeblichen schwächen eines Herstellers herumgetrampelt wird, speziell von Leuten die die CPUs wahrscheinlich nie in dem Bereich einsetzen bei dem sie die Leistungsaufnahme messen. Oder berechnest du den ganzen Tag Primzahlen? Ich glaub kaum......
 
@X2-3800: Ich wusste dass das kommt und wollte es schon vorher reinschreiben aber naja. CPU´s misst man eben bei voller Leistung da jedes Spiel anderes den CPU beansprucht und wie will man das also messen denn jedes Game ist eben anders. Ok nehmen wir das Beispiel Spiele weg und ersetzen es durch diverse Anwendungen die 8 Kerne unterstützen, wo er also voll auftrumpfen kann, dort nimmt er dann eben die ca. 100 Watt mehr. Du kannst es drehen und wenden wie du willst aber die ca. 100 Watt mehr stehen unter Last. ( BF3 nimmt im übrigen alle 8 Kerne) Von idle habe ich nie geredet und würde auch kein Sinn machen. Wie kommst du überhaupt darauf das du dich viel mehr mit der Materie auskennst? Ich bin seit 20 Jahren in dem Beruf IT tätig und war schon an PC´s die du nicht mal kennst. C64/C128 , 286DX12 mit DOS 5.0 , ich habe aktiv Paketradiostationen betrieben wo manche gar nicht wissen dass es so was gab. Man sollte sich also nicht selbst überschätzen denn nicht jeder beschäftigt sich erst 2 Jahre mit dem PC. Ich trampel auch nicht auf AMD rum da ich jahrelang AMD verbaut habe und nur jetzt erst umgestiegen bin da Intel eben wesentlich stromsparender ist. Die Leistung von AMD würde mir langen. Vielleicht würde dir ein besuch im 3dCenter Forum helfen im Vishera-Thread da wird immer alles ausgiebig von uns getestet. Google einfach und du wirst sehen das der 8350 wesentlich mehr Strom frisst, in allen Bereichen. Dafür muss man kein Genie sein um das zu finden. Und im 3dCenter gibt es viele die ihn in Betrieb haben und Tests für uns gemacht haben. Einfach lesen.
Falls du zu faul bist zu suchen hier noch eins http://www.hartware.de/review_1544_4.html
Der 8350 ist schon ein guter CPU wenn einem der Stromverbrauch egal ist und wenn man damit nicht spielen will! Habe jetzt auch keine Lust weiter hier drüber zu diskutieren denn das mache ich täglich zur Genüge in Foren.
 
Na Gott sei Dank bleibt den Bastlern eine Ecke übrig. :-)
 
Das ist schon irgendwie ein Robin Hood Fan Feeling was bei mir aufkommt wenn ich an AMD und deren Prozessoren denke.
Intel hat mich damals schon mit ihrem doofen 8080 Prozessor geärgert. Angegeben haben die mir über 1400 Instruktionen während andere Hersteller ihren Instuctionset in Basisbefehlen und Adressierungsarten angegeben haben. Das war auch viel übersichtlicher bei der Assemblierung.
Dank höheren Programmiersprachen rückte diese in meinen Augen total miese Assemblerprogrammierung in den Hintergrund, dessen Folge war aber ein aufgeblasener Quellcode.
Wer sich schon einmal damit beschäftigt hat weis dass auf einer 68xxx CPU, Assembler fast wie in einer Hochsprache war.
Sicher, AMD baut zum größten Teil x86 CPU aber seinerzeit auch die extrem günstige 6502 CPU welche ursprünglich von MOS Technology lizensiert wurde und in den damals populärsten Homecomputern verbaut wurde, auch im APPLE 1. Diese CPU war eine abgespeckte 6800 CPU und wenn man sich an das Konzept der Zero Page gewöhnt hatte standen trotz der 8 Bit allgemeinen Registerbreite volle 16 Bit zur Adressierung zur Verfügung und man hatte nicht so ein Krampf wie Page und Offset wie bei den 8080 Kram. Durch 1 und 2 Byte Befehle war die 6502 zur damaligen Zeit extrem schnell. Z.B. der Befehl - LDA ($24),Y - Lädt den Akkumulator mit dem Inhalt jener Speicheradresse, welche sich ergibt, indem zu der 16-Bit-Zahl in den Adressen $24 und $25 der Inhalt des Y-Registers addiert wurde, und das benötigte nur ein Byte bzw. eine Instruktion!
Während Intel schon immer an ihrem doofen x86 Konzept orientierten versuchte sich AMD zumindest an Alternativen. Durchaus schwierig in Anbetracht der Übermacht der x86 Systeme.
Und da giere ich nicht nach Höchstleistung bei der Wahl meiner CPU sondern schaue auf die Geschichte, weil in meinen Augen AMD ein besseres Image als Intel, zumindest verdient, hat.
 
Wenigstens eine Firma auf dem Planeten die sich daran erinnern kann wer sie groß gemacht hat. Seit dem ersten PC AMD (Athlon XP 2000+) bis in alle Ewigkeit. AMD <3
 
Inzwischen hat Intel den Wechsel weg vom DIY-MArkt zumindest für die nächsten 2 Jahre ausgeschlossen ;D - http://www.computerbase.de/news/2012-12/auch-intel-bleibt-bei-sockelbaren-prozessoren/
 
Das war doch glasklar. Vor einigen Wochen sagte ich das schon.
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles