ATI-Übernahme: AMD wollte eigentlich Nvidia kaufen

Wirtschaft & Firmen Im Sommer des letzten Jahres hat der Prozessorhersteller AMD angekündigt, das Unternehmen ATI für 5,4 Milliarden US-Dollar kaufen zu wollen. Im Oktober war es dann endlich so weit - das Geschäft wurde abgeschlossen. Jetzt stellte sich heraus, dass ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
entweder a) The Inquirer - das sollte schon einiges heiße oder b) wenn es stimmt, war nvidia zu teuer oder ATi hat mehr potential :)
 
@Schnubbie: nvidia war zu teuer
 
@ andybreuhan: woraus entnimmst du das? "...kurz vor der übernahme..." klingt nach allem anderem, aber nicht nach zu Teuer.
 
@andybreuhan: BullShit! "Es wäre gar nicht einmal so viel teurer als die schließlich erfolgte Übernahme von ATI gewesen, und die Verhandlungen hätten um ein Haar zum Kauf von Nvidia geführt." Quelle: http://de.theinquirer.net/2007/01/10/amd_wollte_2006_nvidia_ueberne.html
 
@andybreuhan: Danke DeeJay, dann siehst du jetzt auch, dass ati mehr potential hatte. Jetzt ist die frage, warum genau ATI? Hat AMD erkannt, dass ATI technisch besser ist? Oder why
 
@Schnubbie: man das war nur nen scherz
 
@revo-: Ich hoffe das war nur als Scherz gedacht.
Sicherlich hat ATI gute Karten dennoch lag Nvidia gerade in der Vergangenheit was die Technik anbelangt oft vorne sei es z.B. SM 3.0 oder SLI ( na gut das haben sie ja von 3dfx welches sie aufgekauft haben :) )
Das einzige wo mich Nvidia z.Z. enttäuscht ist das sie bei der 8800 immernoch auf GDDR3 gesetzt haben.
 
hier der link als tiny url http://tinyurl.com/t3kam
 
NVIDIA hat SM 3.0 eigentlich 'zu frueh' gebracht und war was Bildqualitaet angeht teilweise weiter hinter ATI (generell sowie AAA und HQ-AF). Ich denke DX10 haben sie nun auch 'zu frueh' eingefuehrt. Im Moment braucht es keiner und wenn es aktuell wird, ist die 8800 schon wieder alt. Bei SLI waren sie allerdings wirklich vorne, nur wer benutzt das schon? Es macht bzgl. Preis/Leistung einfach keinen Sinn.
 
Alleine die Überschrift klingt für mich logisch. Die Zusammenarbeit zwischen AMD und NVIDIA war bestimmt größer als zwischen AMD und ATI - man betrachte nur mal die Verbreitung der NVIDIA-Chipsätze, und auch die Tatsache, dass ATI ihr Crossfire z.B. auf Intel-Chipsätzen erlaubt...
 
Irgendwie klingt das nach "hauptsache kaufen" ....
 
ist auch besser so. ati kommt für mich eh nicht in frage und wenn nvidia unabhänig bleibt, kann ich mir bei nvidia sicher sein, dass sie sowohl perfekt mit amd und intel systemen laufen. bei nem ati, das von AMD aufgekauft wird und marktlösungen anbieten muss, die AMD passen, will ich das lieber nicht so genau wissen.
 
@LoD14: Also wenn man zufällig auf AMD setzt (wie ich), können ATI-Chips aber auch nicht schaden.
 
Sieht wohl so aus, als ob ATI grafikkarten mit nem AMD besser laufen in zukunft :)
 
@TECC: Dann wären sie schön blöd, denn dann würden sie sich einen Markt kaputt machen. Nämlich den Markt der Intelanhänger. Also wird es mit Sicherheit nicht so sein - Tweaks ja, aber sicher kein allzu grosser Unterschied.
 
@xylen wie können produckte diese jar erscheinen wenn sie erst ende 2008 erscheinen sollen?
 
@micropro: Die "Fusion"-Prozessoren kommen Ende 08, andere Produkte, die in gemeinsamer Zusammenarbeit entstehen jedoch bereits dieses Jahr.
 
seeeehr schade, dass nix aus AMD + nVidia wurde...
 
@_seym.: Ja wirklich schade. Ey dieses gute alte Traumpaar: Athlon XP auf nForce 2 *schwärm* bei mir läufts noch und das top!! Vllt. wär dann die erste All-in-one-Lösung gekommen: CPU mit Chipsatz und Grafik.
 
Bei AMD und Intel ist es immer ein Abwechseln wer grad die Nase vorn hat. Bei Nvidia ATi gibts das nicht, hier hat ATI permanent die Nase vorn (technisch gesehen). Nur weil man zuerst Shader 3.0 und DX10 rausbringt heisst dass noch lange nicht dass man die für den Markt entscheidenden bessere Produkte macht. ATI bringt mit älteren Herstellungsmethoden (meist hinken sie da immer hinterher was Fertigungsgrösse anbelangt) und mit niedrigen Takt mehr Leistung raus als Nvidia mit neueren Fertigungsmethoden und höheren Taktungen. Zudem schaut ATI mehr drauf welche Bedürfnisse auf dem Markt herrschen. So konnte als Nvidia Shader 3.0 brachte kaum jemand ein entsprechendes Spiel nennen die es nutzte. Dasselbe nun mit DirectX 10. Und mit den Chipsätzen wird immer (ausser das ganze Dual Grafikkartten Zeugs) jeder CPU mit jedem GPU funktionieren (ohne Einschränkungen). Ansonsten kommen nämlich schnell Dritthersteller die diese Lücke füllen (damals ALI später ULI, VIA, SIS usw.).
 
@JTR: is ja auch klar wenn ich ein produkt schon habe das ich dann 6 monate später ein schnelleres rausbringen werde. und zu shader 3.0 ich fands ganz schön gut das ich Splinter Cell 3 schon in full optik spielen konnte....
 
@JTR: ATi war nie so wirklich vor nvidia. Sie waren nur wärend des 5er Zykluses vor nvidia. Die GeForce 4 zb war zb meilenweit vor ATi. Die 5er generation war ein griff ins klo. mit der 6er hat nv dann wieder mehr als gut aufgeholt. und spätestens die 7ner reihe ist wieder gleich auf. und die marktpolitik von ati ist einfach nur strange. die haben seit nem jahr nen unified shader dx10 chip am markt, aber bringen keine für desktops, sondern lassen sich sogar von nvidia noch die butter vom brot nehmen, den ersten unified shader GPU für desktop systeme rauszubringen. und das bringt RIESEN vorteile! auch wegen dem wechsel weg von VPUs zu SPUs für die Shader in verbindung mit dem unified shader modell. wenn ati endlich mal ein genaues und präzieses datenblatt vom R600 rausrücken würde, könnte man endlich mal sehen, wie der kampf der nächsten generation weitergeht.
 
@JTR: Zu Radeon 8500 Zeiten sah es mit vernünftigen Treibern, die zu allen Spielen kompatibel waren bei Ati recht schlecht aus und bei nVdia wesentlich besser, ich weiß nicht wie es heute ist, habe mir allerdings deshalb damals keine ati gekauft...
 
@JTR: ULi kannste getrost streichen, da die von nVidia gekauft wurden! (Leider, denn deren letzte Chipsatz-Produkte waren sehr gut!) Ich denke, dass man deren Techniken in irgendeiner Weise in den nVidia-Produkten wiederfinden wird (offensichtlich oder im Stillen)!
 
Was ein Glück, Intel und Nvidia sind meine beiden favouriten. ^^
 
schaaade, ich sag nur eins AMD & NVidia gehören zusammen :)
 
na ja finde auch das AMD und nVidia zusamen gehören
 
wäre für AMD deutlich besser gewesen - immerhin macht nvidia die besten chipsätze für amd-plattformen!
 
Wird das jetzt hier zur neuesten Folge von "Verliebt in Silicon Valley" ? :D
 
Also wenn sich NVidia, trotz der ATI Übernahme durch AMD, nicht von Intel kaufen läßt - und die haben nun wirklich Geld, dann wirds der Preis nicht sein. Denke auch nicht dass AMD da kurz vor der Übernahme stand. Meiner Meinung nach haben Sie vielleicht Verhandlungen geführt mehr nicht.
 
"Jetzt stellte sich heraus, dass AMD kurz vor der Übernahme von Nvidia stand. " Was heißt der Satz?
 
City-Döner: Wollte mir eigentlich Döner Kebab kaufen. Hab mich aber dann doch für Lahmacun entschieden.
 
@yobu: Einen Dürüm fände ich jetzt spannender
 
ATI mag ja technisch vorn liegen, wenn es 1, Treiber gäbe (Linux, Win Control Panel..., Mobility Treiber die funzen...) und zweitens diese brauchbar wären (nich son Schrott wie CCC sondern gutes altes CP, das ist wenigstens übersichtlich...)
 
@surfacecleanerz: Das CCC kannst du doch weglassen. Oder hol dir die Omegas.
 
hätten sie das durchgezogen, wär mir kein amd mehr in den rechner gekommen...
 
also mich würde es nicht wundern, wenn amd DEN coup überhaupt bis 2010 landen würde, und nvidia mit ins boot holt:

dazu müssten "bestimmte strategien" nvidias bez. ATI neu überdacht werden, aber das potential wäre immens... die qualität und "bescheidenheit" von ati, und die "schneller releaseten" technischen innovationen von nvidia...nee, ich glaube das bleibt wunschdenken....friede, freude eierkuchen wird wohl nicht geben. wäre ja zu abwegig, wenn sich die jeweils zwei größten ihrer branche zusammentäten...das würde zuviel nach "alleinherrschaft stinken"...

im grunde hat intel den nächsten schritt aber in genau diese richtung gemacht, indem sie mehr oder weniger den mac sterben lassen.
was ist denn heutzutage ein mac mit "coreduo"...? intel *sorry* scheisse.. :-P
ein mac war ein mac, weil er eben ein mac war, er war einzigartig, etwas besonderes, eine besondere "abart" in der welt der rechenmaschinen. und nun? intel und amd sind übriggeblieben. alles andere kommt keinem mehr in die tüte...

alles wird immer mehr verschmelzen...intel+ nvidia....amd+ati....hitachi und ibm war nur der anfang...

am ende läuft es auf maximal "2 großköpfe" pro sparte hinaus...bei monitoren werden sich auf dauer vielleicht n dutzend behaupten...
naja...jedenfalls hat sich amd mit dem kauf von ati schon mächtig die weihnachtsgeschenke bis 2010 "erstanden"....
wenn jetzt die 65nm-klasse ordentlcih verfügbar ist, ud die preise bis sommer 10-25% fallen ....wird es ein "heisser" sommer...

dann werden viele auf intels "vierfach gequirlte" *censored* ....
weniger ist mehr :-)
 
naja meiner meinung nach wäre ati und nvidia auch besser gewesen, weil ich bei 2 ati karten dauerhaft probleme hatte und seit jetzt bald 2 jahren die 6600gt hab und die mit nem alten 2,4er athlon und nem scheiß board bombastisch läuft..
allein wenn ich mich an 99 zurückdenk.. ich hatte eine supertolle ati karte "rage fury maxx" die deutlich teuer war als die gf2mx aber von der leistung war die relativ bescheiden .. nach nem halben jahr schon konnte ich dann schon die ersten spiele nicht ruckelfrei spielen ...
meiner meinung nach gibt es vielleicht nur ein paar ati karten die zufriedenstellen sind ansonsten scheinen mir diese irgendwie labil ..
nvidia ist halt nen verlässliches pferd wenn man drauf setzt :)
 
Von mir meiner Seite aus hatte AMD ATI genommen weil es mehr aufbauen konnte etc...
 
ati hatte das knowhow für intel-chipsätze. das wurde doch hoffentlich mitgekauft :) da lässt sich bestimmt noch was für amd rausholen
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte