Bericht: Nvidia muss High-End-Grafikkarten aufgeben

Windows Phone Der Grafikkartenhersteller Nvidia will angeblich in Kürze seine Modelle GTX285 und GTX260 vom Markt nehmen. Bald soll außerdem auch die GTX275 verschwinden, so dass sich das Unternehmen fast vollständig vom Markt für Grafikkarten der Mittel- und ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ist das jetzt ein Scherz?
Ich geh eben nochmal kurz Duschen. Und das les ich das nochmal!
 
@GokuSS4: das dachte ich mir auch als ich hier drauf geklickt habe o0
 
@GokuSS4: bis auf das duschen habe ich genauso gedacht. das ist nen witz?
 
@GokuSS4: Das gleiche dacht ich mir auch als ich die Nachricht gelesen hab. Wenn dem so ist, dann Gute Nacht würd ich sagen.
 
@GokuSS4: Ich hab auch gerade aufs Datum geguckt. Ich habe heute den 7.10, wie sieht es bei euch aus?
 
@GokuSS4: Es ließt sich so, aber ich befürchte es ist die Wahrheit. Ein zugleich beeindruckender und schockierender Schritt von nVidia. Es ist ein öffentliches Eingeständnis der misslichen Lage des Konzerns und mit Sicherheit ein durchdachter, notwendiger Schritt. Dem Image wirds schaden, dem Markt ebenfalls, aber meine Anerkennung an nVidia für den Mut zu drastischen Maßnahmen in misslichen Situationen.
 
@GokuSS4: Ich dachte auch grad, ich les nicht richtig. Hätte ich jetzt echt nicht gedacht, dass es bei denen so schlimm aussieht. Dass das mit dem Fermi-Chips noch nicht ganz ausgegoren war, konnte man ja vermuten, wenn man bisl zwischen den Zeilen in den News der letzten Tage gelesen hat. Aber dass es nun SO schlecht aussieht... Bin da jetzt doch hin und her gerissen. Auf der einen Seite würde ich mich selbst schon als ATI-Fan bezeichnen und freue mich für AMD/ATI, dass diese dadurch erst mal den Markt bedienen können. Aber auf der andeen Seite hoffe ich doch für nVidia, dass die irgendwann mal wieder mit ner guten Grafiklösung für den High-End-Bereich zurückkommen. Wäre schade, wenn es keine Konkurenz für AMD/ATI mehr gäbe.
 
@GokuSS4: Find ich eigentlich gut.. Eine Chance für AMD aus den Schulden zu kommen... schnell mal ein paar Aktien kaufen :-)
 
@GokuSS4: Also ich bin auch wirklich überrascht und hätte nie damit gerechnet... für mich war nVidia immer der Marktführer, obwohl ich ATi mehr mochte. Mal sehen ob da nicht vielleicht Intel als rettender Engel auftauchen wird und nVidia etwas unter die Arme greift.
 
@GokuSS4: Wie wird das denn zukünftig wohl mit Treibern (Aktualisierungen) sein, geht das wohl weiter?
 
@emitter: deine gewinne kannst du in form von höheren grafikkartenpreisen ohne nv-konkurrenz dann wieder einlösen :)
 
@Uechel: treiber wirds nach wie vor geben, die karten werden nur nicht mehr verkauft, treibersupport wirds die nächsten jahre schon noch geben
 
@GokuSS4: Wer sagt den das Nvidia endgültig abtritt? die machen platz für die nächste Genertion würd ich jetzt mal sagen. Immherin sollen die Karten ja dieses Jahr noch kommen und von heut auf morgen werden die Grakas auch nicht verschwinden -.- Keep cool!
 
@muesli: Naja ich denke nicht, das die Grafikkarten Preise bei ATI/AMD steigen werden... Sie gewinnen ja jetzt durch jeden Kunden der eine High End Grake kaufen will einen dazu. Alles andere bleibt abzuwarten. Ich hoff jedoch das ATI/AMD seinem Preis-Leistungsverhältnis treu bleibt.
 
@GokuSS4: Das scheint leider kein Scherz zu sein. Es ja schon jetzt so, das man bei den Händlern kaum noch aktuelle Modelle außer ein paar 295 findet. Alle anderen Karten haben z.B. bei Alternate unbestimmte Lieferzeiten.
 
@GokuSS4: Naja vermutlich wieder Bild Überschrift. Ich denke damit sind nur aktuellen Modelle gemeint und nicht insgesamt. Ich glaub nicht, dass nvidia high end Bereich aufgeben wird, denn die haben nicht viele starke Konkurrenten. (sogar weniger als in anderen Bereichen, nämlich ATI)
 
@GokuSS4: me2
 
@GokuSS4: xDDDD Ich find das zwar total scheiße aber mal eine andere Frage! Was machen die Linux Leute!?!? Da das ja immer am besten mit einer Nvidia Graka lief als mit einer ATI... Für Windows User wird das erträglich sein aber für Linux müssten enorm die ATI-Treiber verbessert werden.
 
@GokuSS4: Aber der Weltuntergang war doch auf 21.12.2012 datiert??
 
@FlowPX2: Auf der einen Seite frage ich mich das als Linux User mit 3 Rechnern und 3 mal Nvidia Grafikkarte auch was wohl in Zukunft sein wird. Auf der anderen Seite: Die Treiber für meine derzeitigen Karten/Chips (7900, 8600, 9600M) laufen recht gut, sowohl im 2D als im 3D, also brauche ich fürs erste keine neueren Treiber (weil die eh kaum Bugfixes für meine Chips haben) und Nvidia wird ja denke ich mal die Treiber weiterhin zum Download anbieten (bzw. die Distris liefern die oft eh mit) oder es findet sich eine Gruppe von Codern die eine OpenSource Version des NV Treibers schreibt. Somit denke ich haben Linux User noch eher weniger Probleme als unter Windows.
 
@GokuSS4: hauptsache sie mahcen erstmal ATI schlecht und labbern müll die letzten wochen.lol

jetzt weiss man ja was dahinter steckt!
 
@Drnk3n: Wieso sollten sie, wenn es keine Konkurrenz mehr gibt?
 
@besn: und dann kommt der neue x.org und man kann nur hoffen, dass nvidia noch leute am Treiber sitzen hat, die das anpassen - oder ein findiger Mensch die alten Treiber patched... Wobei man natürlich bei ATI/AMD heute schon im Voraus weiß: kaufe ich mir ne GraKa wird sie beim nächsten X.org nicht mehr supported...
 
endgeil wie alle gläubigen auf einmal unglaubliches erleben xD
 
@besn: Mir geht es nicht um die Nvidia karten... Die werden noch eine weile unter Linux rennen, das ist keine Frage... Doch wenn es keine mehr zum kaufen gibt werden die Leute irgendwann auf ATI umsteigen müssen und diese rennen nicht immer zufriedenstellend unter Linux.
 
@FlowPX2: Da kannst dir mal ruhige Gedanken machen. Die Treiber von ATi sind OpenSource, da ATi sie freigegeben hat. Ergo: Jeder findige Programmierer kann da seine Hand anlegen. Daher würd ich mir eher um die Nvidia-Treiber im Laufe der Zeit sorgen machen. :)
 
@Kampfrapunzel: Wenn die News tatsächlich stimmen sollte,seh ich auf lange Sicht das so, daß es so kommern wird, daß NVidia sich von Intel aufkaufen lassen wird, bzw. dies angestrebt wird.
 
@GokuSS4: kann nicht sein!?
 
@GokuSS4: Ich war grad duschen. Es steht immer noch da. Und fassen kann ich es immer noch nicht.

Dennoch: Solang es jen hsun huang nicht persönlich verlauten lässt, muss man das mit größter Vorsicht genießen!

Sehr ärgelich, ich hatte auf ein Redesign der Gtx 260/275 gewartet mit nur noch einem Stromanschluss. Das wird wohl nicht mehr passieren wenn das hier wahr wird.
 
@GokuSS4: Ich hoffe, das ist nur ne Strategie, um kurzfristig viele Grafikkarten zu verkaufen.
Wenn nicht, können wir in Zukunft mit nicht innovativen und vollkommen überteuerten Grafikkarten rechnen. :(
 
@GokuSS4: Ich nenne das gerechte Strafe für unverschämte Preise!
 
@Drnk3n: Die bisherigen Preise steigen vielleicht nicht, aber ohne Konkurrenz werden die neueren Karten auch erstmal nicht günstiger - der ATI-Vertreter war gestern bei uns in der Firma und hat uns noch dreist amüsiert gesagt, dass "wir unsere Karten ja jetzt erstmal teuer lassen können, weil NVIDIA ja momentan nichts dagegensetzt". Die wollten die neue High-End-Modelle der neuen 5000er Serie sonst direkt für 250,- ... jetzt erstmal doch nicht.
 
@GokuSS4: http://www.heise.de/newsticker/meldung/Nvidia-raeumt-Lieferengpaesse-bei-High-End-Chips-ein-816953.html <Nvidia hat dieses Gerücht schon von sich gewiesen und dementiert. Völlig heisse Luft. Naja Winfuture, wenn man sich wieder auf Semi Accurate beruft nicht wahr :) Kommisch , ein TOP Werbepartner von ATI .. Wie gesagt.. Nvidia hat es dementiert! Gruß
 
hrhrhrhr jahre lang falsch gewirtschaften und nun gibts die quittung. wunderbar
 
@Odi waN: Find ich auch gut... vielleicht muss man sich dann nur noch alle 12 monate eine neue Grafikkarte holen....
 
wieso gibts hier nen minus? habt ihr alle keine ahnung oder was ist los. was kann ich denn dafür das nv UNBEDINGT schneller sein muss als ati und deshalb größere DIEs produziert, somit bekommen sie weniger aus nem wafer und die kosten steigen, das ist in meinen augen falsch gewirtschaftet. ati macht es doch vor das man nicht unbedingt die schnellste karte haben muss.
 
@Odi waN: Kann mir nicht vorstellen, dass die "jahrelang falsch gewirtschaftet" haben. Die haben einfach nur mal den Anschluss (DX11) verpasst. Und Schdaenfreude ist wohl hier and er falschen Stelle, wenn dadurch ein paar tausend Arbeitsplätze auf dem Spiel stehen. Wenn Du dort arbeiten würdest und wegen dieser Entwicklung rausgeflogen wärst, würde dein Kommentar bestimmt so aussehen: "Die Dreckskerle von AMD/ATI. Mit ihren billig-Produkten haben die uns kaputt gemacht."
 
@Odi waN: Weil es nicht wunderbar ist, ganz einfach. Man braucht Konkurrenz auf dem Markt.
 
@Odi waN: na dann freu dich doch wenn amd plötzlich die preise anheben sollte -.-
 
@ingo9999: alle wieviel Monate muss man denn zur Zeit eine neue Grafikkarte holen?
 
@Kampfrapunzel: und was ist mit dx 10.1? haben sie auch nicht gemacht, also schlecht gewirtschaftet. die haben mehr geld ausgegeben um sichi n firmen einzukaufen oder aufzukaufen also einzunehmen. somit schlecht gewirtschaftet. und ja konkurenz braucht das leben, das weiß ich selber nur den denkzettel hat nv endlich mal verdient.
 
@Odi waN: Der Denkzettel hilft den Kunden auch nicht weiter.
 
@Kinglouy: NV verschwindet doch nicht vom markt ihr klapperköppe. ausserdem wäre amd ziemlich blöd ihre karten für nen wucherpreis zu verkaufen, damit würden sie sich selbst schaden zumal sie viel billiger produzieren als NV und deswegen sind die karten so teuer aber kein problem, steigert euch mal weiter in das thema konkurrenz ist wichtig.
 
@Odi waN: Genau DAS war es was ich mitunter lesen wollte! Die ganze Zeit wundern unsere AMD/ATI Fanboys rum das NV/Intel sooo unfair wären und man sich gerne für das bessere Preisleistungsverhälnis entscheiden würde. Wie immer nicht nachgedacht das es lediglich die Strategie von AMD/ATI ist, die Produkte so günstig anzubieten. Und ihr wollt ja keinesfalls ein konkurenzloses Geschäft mit einnem Moniopol, gelle, nun aber so dumm sein und noch Beifall klatschen. Nun kann ATI schön ohne jede Konkurenz produzieren, endlich höhere Preis nehmen, damit ihre Fertigung sich auch mal mit den Unkosten deckt. Die Entwicklung und deren gegenseitiges Ausspionieren und kopieren, ist im übrigen auch ein Vorteil dem sich beide Seiten voll bedient haben, dieses kommt nun auf ATI noch hinzu. Also immer schön feiern und Freude ausstraheln, willkommen im Monopol und Preisanstieg, alles das wofür die Fanboys immer völlig selbstüberzeugt die Hände zum Schwören hochgehalten haben. Außer Dumm gibt es halt doch noch das selbstüberzeugte noch dümmer.
 
@Kinglouy: Absolut richtig. Um ein Überleitung zu meinem Lieblingsthema zu machen: Wieso sieht das im Fall Microsoft niemand ein?
 
@ingo9999: Auf die du dann mangels konkurenz 36 monate lang sparren must, weil die dann 1000 euro kostet? Wieder so einer der nur 10 cm denkt. ( Von der A. bis in die Schüssel -.-)
 
@Kampfrapunzel: XD wat fuern stuss
 
@Odi waN: Du wirst deine Quittung dann auch bald kassieren, wenn der Markt einen wichtigen Konkurenten verliert
 
@Odi waN: Ja wo fängt Wucher an und wo hört teuer auf? Klar wäre das wenn Nvidia im High End Bereich austeigt, ATI ein quasi Monopol in dem Bereich hätte, dies hat nur natürlicherweise zur Folge das die Preise mehr oder minder stark ansteigen werden. Das ist einfachstes BWL das hat mit lappern recht wenig zu tun. Ich bin ehrlich gesagt etwas überascht. Andersrum habe ich mich in letzter Zeit auch nicht mehr allzu intensiv mit Grafikkarten auseinander gesetzt, da ich mit meiner alten Geforce 8800 GT eigtl. alle für mich interesanten Spiele noch einigermaßen spielen kann. Darüberhinaus war es für mich überhaupt nicht mehr transparent, wieviel besser aktuelle Grafikkarten im Vergleich zu alten Karten wirklich sind. Außerdem sehe ich nicht ein einen Leistungsgewinn von ein Paar Prozent mit einer Verdopplung meiner Stromrechnung zu bezahlen.
 
Jetzt steht Nvidia wohl nur mit der 8er und 9er Reihe da.
 
eh ne.. kann nicht o.O .. ich geb lieber 100 euro mehr aus als ne ati karte zu kaufen -.-... macht kein scheiß nvidia ^^
 
@EliteU2: full-ack ist wie mit Klamotten. Kik hat bestimmt ein besseres Preis/Leistungs-Verhältnis als z.B. D&G, egal. 100 Euro mehr für den Namen sind schon gerechtfertigt
 
@EliteU2: Ich vertratt schon immer die Ansicht, dass Fanboys reicher sind als andere Menschen. @c80: Der Vergleich ist etwas merkwürdig, da ATI in ähnlichen Preissegmenten mitspielt und deren Qualität nicht schlechter ist. Im Gegenteil. Der Heatbug, das auffällige Spulenfiepen, die abbrauchenden Mobile-GPUs, die unsachgemäß angebrachte Wärmeleitpaste... Ich glaube nVidia hat stärker mit Mängeln in der Qualitätskontrolle zu kämpfen als ATI.
 
@tinko: keine Ahnung wie es im unteren und mittleren Preissegment aussieht. Mir auch egal. Bei den billigen Karten wird halt irgendwo gespart. Die normalen GTX waren immer top. Spulenfiepen ist überigens nicht die Schuld von nvidia sondern vom Boardhersteller. Tipp: kauf die ab Werk übertakteten Karten. Die sind zu Recht teurer, da dort bessere Komponenten verbaut werden.
 
@c80: ... Kik ist MÜLL! Zu dementsprechenden Preisen. D&G hingegen ist das krasse Gegenteil. Gute Qualität zu überteuerten Preisen (und mit einem äusserst fragwürdigen *hustschwulhust* Design)! Der Vergleich ist wie der von Kot mit Gold! Aber EliteU2's Kommentar war da auch nicht besser. Ihr könnt euch da echt gegenseitig beglückwünschen ^^
 
@KROWALIWHA: OK, du hast verstanden was ich sagen wollte.
 
Schade. Nvidia sind die Besten. Bei ATI nervt mich schon immer der Catalyst und das ganze Gedöns, was der benötigt.
 
@40balls: Was benötigt der denn noch? Du brauchst doch nur einmal den Treiber an sich und dann das Catalyst Control Center für die Einstellungen. Beides zusammen gibt es auch in einem Paket. Ist doch bei Nvidia nicht anders...
 
@40balls: Das CCC brauchst ja nicht mal zwingend, wenn du es nicht möchtest... Und was muss man sonst bitte installieren?
 
@stockduck: Man muss noch Windows und Games installieren, ich glaub das störn ihn o.O
 
@BuZZer: Ist genau eins zuviel, da hilft auch ein Paket nicht
 
@hanisoft: omg bei nvideo hast du auch ein Controlecenter dabei, im gegensatz zu ATI hast du keine wahl dies nicht zu installieren. depp
 
@Ab in die Sonne:
ATI hat mich früher immer genervt, weil beim booten,
der Bildschirm zweimal in den Standby Modus ging, was ja nicht besonders gut für den LCD ist. Leider gab es bei ATI nicht nur den Bootbug, sondern im aufgeblähten ControlCenter, Funktionen wie VPU Recover und irgendwas mit Cache aktivieren, was
zum einen zu Dauerneustarts führte und zum anderen die Bildfrequenz bis auf 1 Hz absenken konnte.
Seitdem kommt nur noch Nvidia in meinen PC...
 
Steht überall geschrieben, dass Mainstream Karten das beste P/L Verhältnis haben. Ein Großteil der Kunden sind nunmal doch vernünftig.
 
@zivilist: gezwungener maßen... nachdem vor einiger zeit (etwa 14 monate her) meine 8800 ultra Leviathan nicht laufen wollte und ich dann einen Austausch auf die 9800GX2 hatte die dann locker bei 70°C Idle lief und vor einer woche die eine von zwei verbauten karten den Hitzetod erlitt und ich das nach einen Jahr für nicht hinnehmbar erachte da auch diese etwas über 400€ kostete im gegensatz meine 1950 von Ati aber immer noch im anderen Rechner läuft seh ich zu das mir keine NVidia ins haus kommt... was dann allerdings schlecht für die preisgestaltung negativ auswirkt muss ich endlich erwachsen werden.
 
@zivilist: Den deiner Meinung nach unvernünftigen Kunden verdankst du aber den Fortschritt, da diese um jeden Preis das Neuste haben wollen und finanzieren. Nur so werden diese Produkte irgendwann auch für dich und mich bezahlbar bzw. erreichen einen für uns angemessenen P/L-Verhältnis.
 
@knoxyz: teilweise ja. Wobei oftmals bei der Mainstreamkarte der gleiche Chip verbaut ist, nur langsamer getaktet. Ich bin mir sicher, dass auch an der Mainstreamkarte genug Geld verdient wird, was wiederum in Forschung fließen kann.
 
@zivilist: Ist es unvernünftig auf mehreren FullHD-Bildschirmen spielen zu wollen? Ist es unvernünftig alles auf Very High zu stellen und Kantenglättung auf 8xSSAA? Man sieht den Unterschied nicht nur auf Standbildern. Man kauft nach seinen Ansprüchen. Hohe Ansprüche sind nicht unvernünftig. Ein breiteres Blickfeld ist eben für manche das Geld wert.
 
Es wurde nie irgendwo erwähnt, warum kommt die news denn jetzt so aus heiterem himmel?
 
Nur noch ATI ??? Ist ein Aprilscherz ???
 
@neocomp: hat keiner gesagt. Brain.exe lässt sich gerne starten
 
@ReVo-: ne stimmt gibt ja noch matrox
 
Oh ha, das wird ATI aber bestimmt freuen! Wenn das wirklich stimmt werden dann wohl auch bei ATI die Preise wieder in die höhe gehn wenn NV weg ist.
 
@Jack21: leider keien ahnung aber ati produziert billiger. einfach mal belesen warum die nvidia soviel kosten.
 
@Odi waN: mag ja sein, aber wenn die kunkurenz wech is, bestimmen sie die preise^^
 
@Billy Gee: amd macht sich selbst teurer? wären sie schön blöd.
 
@Jack21: Keine Angst, bald kommt Intel mit ihren Larrabee-Grafikkarten. Dann haben wir auch im GraKa-Segment das gleiche Rennen zwischen Intel und AMD, wobei hier AMD im Moment deutlich vorne liegt. Die Larrabees sollen ja laut frühen Tests nicht wirklich berauschende Leistung bieten. Auch würde ein Preisaufschlag nicht kommen, höchstens die Preisreduktion kommt später. Und man soll ja auch nicht vergessen, dass nVidia mit ihren G105 - GT250 Grafikkarten immernoch auf dem Markt ist.
 
@Odi waN: Schnallst du es wirklich nicht? Wenn sie als Einziger Highend-Karten anbieten, dann produzieren sie vielleicht immer noch günstig, aber sie können sie sehr teuer verkaufen, weil jeder der eine Highend-GK haben möchte/will, eine von ATI kaufen muss. Sowas nennt man Gewinnmaximierung.
 
@Proton: und die abteilung ATI schreibt ROTE ZAHLEN, weil KEINER DIESE KARTEN KAUFT und geht PLEITE. Weiterdenken ist angesagt. amd würde sich nur selbst schaden. dazu nochmal ICH WIEDERHOLE NOCHMAL, NVIDIA GEHT NICHT PLEITE UND SIE WERDEN AUCH NICHT VOM MARKT VERSCHWINDEN.
 
@Proton: Mensch Lesen bildet. Und Bildung kommt nicht von Bild. Alles soweit klar? Nvidia ist doch nicht pleite, sie ziehen sich einfach mit den Aktuellen Produkten vom Markt zurück. Sie haben imho keine Chnace gegen ATI (von den Herstellungskosten her).
 
@Odi waN: Muss dir da leider auch widersprechen, du scheinst nicht zu begreifen worauf Proton hinaus will. Angenommen ATI hat sich bereits ein Monopol aufgebaut und erhöht die Preise würden die Produkte doch genauso gekauft werden, allein aus dem Grund, dass sie nicht andersweitig erworben werden können. Und gerade weil ATI rote Zahlen schreibt, sehen sie es marktstrategisch evtl. als sinnvoll an die Preise anzuheben, sofern das mit dem Monopol klappen sollte.
 
@thomasrv123: Amd ist doch nicht so blöd, und schaufelt sich jetzt sein eigenes Grab, indem es Monopol im GraKa-Markt wird. Was meinst, was dann passiert? Dann greift der Staat ein und reguliert die Preise (Marktregulierung). Zudem, wenn Amd ihre Preise anzieht, dann werden die Nvidia-Produkte wieder interessant. Somit kann und wird Amd nicht in eine Monopolstellung wechseln.
 
Liest sich so, als klinkt sich nVidia kurz einmal aus dem image- aber eben nicht profitträchtigen Performance-Segment aus. Zu hohe Yield-Rate, zu wenige Stückzahlen bei zu niedriger Marge. Gnadenlose Buhrufe, wenn die Teile nicht einwandfrei funktionieren und aktuell rennt die Performance der Grakas eh den Programmen davon. Ich halte das für eine Verschnaufpause, da NVidia mit Fermi imho gerade an ihrem eigenen kleinen Fiasko arbeiten. Netburst und Vodoo5 lassen grüßen PCO
 
Na dann Gute Nacht, ATI Monopol !
 
@neocomp: what? gegenteil gelesen?
 
hm, is ja wohl logisch wenn die GTX 300 Serie an Start geht, dass die GTX 200 Serie eingestellt wird ^^ Aber nachdem wir ja WF News kennen sollten wir eher mal abwarten was wirklich an der sache dran ist.
 
@Maetz3: ja eben sag ich ja die News sind nur wieder so geschrieben das hier alle Lesen und schreien sollt.
 
Liegt doch nur an neuen Modelle mit DX11 die ja auch mit DX10 und DX 9 laufen..also wer brauch dann die alten noch..
 
Der größte Markt liegt sowieo im Low-Segment. Wen jucken Grafikarten die nur für Performance Enthusiasten gebaut werden? Das ist nicht das Ende von NVidia.
 
@Demiurg: aber ohne die luxuriöse oberklasse (analog automobilindustrie) halten viele nützliche entwicklungen kaum einzug in die mittel oder low-budget klasse. insbesondere stromspartechniken wie gpu volt anpassung usw. waren wohl damals eher ein notwendiges übel das die oberklasse vor einem hitzetod bewahrte oder beim übertakten hilfreich war. heute ist man recht dankbar das man sowas als stromspartechnik hat.
 
^^ ohje dann schnell noch ne ATI karte kaufen bevor se teurer werden... XD
schade ... damit ist dann ATI mangeld konkurenzdruck in den nächsten monaten nur noch schlecht... im moment sind se ja wieder ganz gut... aber da ATI für trägheit und co bekannt is ... ist da wohl nicht mehr viel in zukunft zu erwarten... aber naja villeicht nur eine falsche information...
 
Klingt für mich nach einer Ente.
 
@Seth6699: Haben wohl Angst, dass jetz keiner mehr NVidia kauft, weil ATI schon DX11 kann. Also bringen sie diese Meldung, dass die Hamsterkäufe einsetzen und NVidia noch Kunden hat. Denn wer kauft sich denn ne 285 mit DX10 Chip, wenn er für ähnliches Geld ne ATI mit DX11 bekommt?
 
@Mister-X: Jemand der überzeugt ist, dass das man für ATI-Karten mehr Software benötigt als bei nVidia- siehe oben.
 
@Seth6699: nö im gegenteil... sag mir ma einen der soo doof is und sich ne graka holt bei dem der support dann garantiert auch gedrosselt wird ? XD ... nene jeder der auf drei zählt wird jetzt das lager wechseln (vorrausgesetzt nvidea ändert an der aussage nix...)
 
Als ich im Titel gelesen habe High-End, dachte ich "schade, keine quadro-Karten mehr. Dann las ich den Artikel und da wird dann NUR von den GTX-Schrammel gesprochen ... Unter High-End versteh ich was Anderes!!
 
@The Grinch: Quadro laufen unter "Profi" aber der Chip ist der gleiche. Also wird es denen wohl auch nicht anders ergehen.
 
@Mister-X: Was nicht unbedingt sein muss, denn die Margen für die Quadro-Karten könnten höher sein, denn die Karten kosten ja auch viel viel mehr. Falls ich das falsch verstanden habe, bitte berichtigen ^^
 
@The Grinch: aber der chip is der gleiche... -_-
 
ich hätte gern die Quelle dazu, oder eine pressemeldung oder was auch immer.
 
@tavoc: Die ist jetzt im Text drin. kA, ob die schon um 11:43 da war.
 
Tja das Problem ist nur, das die ATI Treiber einfach nur scheisse sind...merk das jedesmal mit meinem HTPC und der onboard HD 3300...mal geht kein HDCP, mal kein DXVA, mal geht der gesamte Treiber net, dann gibts wieder derbe Grafikfehler bei DXVA. Wirklich schlimm, werd mir deshalb bald ne 9300 kaufen, mit VP3. Dann geht auch endlich L5.1 mit DXVA...
 
@gl4di4t0r: Komisch, bei mir haben die ATI-Treiber nie Probleme gemacht.
 
@gl4di4t0r:

Der 9300/9400 Chipsatz ist einfach genial. Benötige keine Grafikkarte mehr, (mind. 70 Watt weniger Stromverbrauch) und kann trotzdem HD gucken, spielen und die Treiberpflege bei Nvidia ist schon fast exzessiv zu nennen :)
 
@40balls: 70 Watt im Vergleich zu was?! Einer HD 3300 - Dann muss die Karte ja schon Strom produzieren :D Und was habt ihr alle für Probleme mit AMD/ATi-Treibern? Hab mehrere HTPCs installiert und auch mit AMD IGPs und die laufen alle Problemlos..
 
@Stratus-fan: Eine Radeon HD 4870 benötigt 90 Watt im 2D Modus. Bei 3D wird's abenteuerlich. Die 9300mGPU gerade mal 20 Watt, in der ION Ausführung sogar nur 17 Watt. Kann dabei parallel 2 HD Streams dekodieren.
 
@40balls: Eine HD 4870 braucht etwa 60-70 W im Idle und ist ein komplett anderes Marktsegment (Performance Gaming) als eine 9300 (int. Grafik für Multimedia und Büro). Ich kann auch sagen ein Porsche 911 Carrera GT schluckt mehr als ein Trabant - Ist ja auch klar warum. - Vergleiche einen 9300 mal mit nem AMD 785G - Letzterer braucht weniger Strom, ist meist schneller, kann auch 2 HD-Stremas decodieren und erzeugt weniger CPU-Load dabei. - Also wirklich der "Vergleich" is echt Klasse..
 
Hatte die nicht gestern oder vorgestern noch die große Klappe?
 
Sollte sich Nvidia wirklcih so zurückziehen, dann wird sich ja zeigen, ob ATI weiterhin verhältnismäßig günstig bleibt, oder ob deren Preise steigen.
 
wie geil ist das den es LEBE ATI die beste news des tages^^
 
@Boskops: Es lebe das Wörtchen denn! Nein, moment...
 
woher kommt denn die news? welche quelle?
bei google newssuche gibs nichts derartiges zu lesen.
 
@SPOOKY-muc: http://tinyurl.com/ydnesu3
 
Was ist denn im Moment die schnellste Karte für den Heimbereich?
 
woher kommt denn die news? quellenangabe?
bei google news suche habe ich bisher keine ähnliche news gefunden!
 
@SPOOKY-muc: ups sorry
 
Also laut dieser Quelle: http://tinyurl.com/ycdu6g2 Soll der GTX295 solange zu kaufen sein BIS man eine Lösung gefunden hat die Fermi Chips günstiger zu produzieren.
 
ich hoff einfach mal das dass nur ne MARKTSTRATEGIE zum räumungskauf ist,... ich geb gerne GELD für leistung aus als wenig für schrott... naja evtl. aber auch nur meinungssache.
 
@JesusFreak: Ich geb lieber wenig Geld für Leistung als viel für ein wenig mehr Leistung.
 
@JesusFreak: hier viel leistung für viel schrott http://www.chip.de/artikel/Asus-Mars-Grafikkarte-Praxis-Test_38261471.html
 
Öhm ... DX11 ist nichts wert , hat da die Entwicklungsabteilung geschlammpt? Sind ja ganz andere worte als die letzten tag!. Aber ist schon sehr heftig, so sehr ich ATI das gönne, damit wieder mehr gewinn zu machen, jetzt fehlt einfach die konkurenz und das kann nicht gut sein.
 
Uff - die News ist heftig. Aber - ist was dran. Wenn NVidia Probleme haben, den G300 als Nachfolger des G200 rechtzeitig im Markt zu positionieren - dann ist es sinnlos, die G200 Serie jenseits von Konkurenzfähigkeit oder Kostendeckung weiter laufen zu lassen. NVidia würden sich "wirtschaftlich tot verkaufen". Es war schon ein schlechtes Omen das bei der G300 Vorstellung ein Fake-Karte gezeigt wurde. Also ist es konsequent, die G200er mit dem Weihnachtsgeschäft 2009 einzustampfen. Es ist schwer anzunehmen, das NVidia Zeit brauchen, den G300 zu perfektionieren (vor Allem Produktionsreif zu bekommen) - aber sie werden es hinkriegen. PS : Auch einen ATI Fanboy wird das nicht freuen - mit sinkenden Preisen bei der 5000er Serie ist jetzt nicht mehr zu rechnen.
 
Hä? Wasn das jetzt? Ich dachte Nvidia wäre Marktführer! Kleine Frage was wollen sie dann noch machen wenn nicht DAS? Das ist doch das Hauptgeschäft, also Graks, oder??
 
@legalxpuser: Es nutzt nix Marktführer zu sein, wenn du mit deiner Ware die Cents nicht in die Kasse bekommst.
 
Hatte eben Kontakt mit dem Product PR Manager von nVidia.
Seine Antwort auf die News war:
"Die News kommt aus einer absolute unzuverlässigen Quelle und ist völlig falsch!"

Glaube seine Antwort reicht :)
 
@DaNieL`oNe: hatte gerade Kontakt mit dem Chef von nVidia, Jen-Hsun Huang:er meint es sei leider doch so...
 
@bluefisch200: Hast seine Tele Nummer was.. xD bekommst PLUS .. DT
 
@DaNieL`oNe: & bluefisch200: Ich hatte grade kontakt mit dem liebem Gott und er ist eute recht launisch. So kann sich das noch das ein oder ander mal ändern.
 
@zaska0: Bist du Franzose? :-)
 
@wolftarkin: Nein.
 
So, ATI, nun heisst die Device: Karten zum gleichen Preis weiter anbieten und so weiter machen als ob nVidia noch im High-End Bereich da wäre...denn ansonsten werden die Kunden dann abwandern wenn es nVidia doch noch schafft den Fermi auch als GForce Version zu bringen...ich habe nun ATI von der X1800, HD2900, HD3870 und HD4870 und fand ATI immer toll...bitte nichts falsch machen...
 
Dann hoffe ich mal das Intel im High-End und Midrange Grafikkartenmarkt gegen AMD antretet. Ansonsten sehe ich schlecht für kommende Grafikkartenpreise. Was mich schon wundert ist, dass Nvidia so viel Geld an Spieleentwickler gezahlt hat um sich einen Vorsprung zu erarbeiten und dann plötzlich ist es aus? The way it WAS ment to be played? Vielleicht lässt sich im mobilen Sektor mehr Geld verdienen.
 
@Duskolo: Da wo sie immer mehr Marktanteile wegen Qualitätsproblemen verlieren und hunderte Millionen in Reparaturen investieren mussten? Aktuell wohl eher nein.
 
Na wenn der Name der Quelle hier Programm ist - nämlich semi-akurat - dann warte ich doch lieber noch ein Weilchen bevor ich mir hierzu ne Meinung bilde.^^
 
Früher oder später musste es ja soweit kommen, das war irgendwie absehbar.
 
http://nforce2and3base-by-polli.info/HardwareNews/?p=247 lööööl
 
..da reibt sich ati die hände!!!! jetzt gehts mal richtig ans geld verdienen-ohne komkurrenz können die verlangen was sie wollen-der doofe spielsüchtige kunde wirds bezahlen...freut euch schon mal!!! die zukunft wird so aussehen: technische innovationen in kleinen schritten aber preise zum abwinken - warum auch nicht...der letzte konkurrent ist weg, hätt ich auch so eine abzockermentalitüt würde ich glatt aktien von denen kaufen!
 
Die Quelle SemiAccurate erscheint mir nicht sonderlich glaubwürdig. Und EOL sagt alleine nichts aus. Die Karten werden zwar nicht mehr hergestellt aber wir wissen nicht wieviele noch auf Lager liegen. Vielleicht war der Verkauf von GraKas evtl. in letzter Zeit nicht sonderlich gut und die Lager sind voll. Wenn die nächste Generation schon vor der Tür steht ist es durchaus sinnvoll die alte nicht mehr herzustellen. Außerdem ist jetzt eh der falsche Zeitpunkt um GraKas zu kaufen. Zur Zeit hat man eh noch keine Vorteile von DX11, da es an passender SW mangelt. Diejenigen, die jetzt schon eine 48x0 oder GTX2xx haben brauchen z.Zt. keine neue GraKa. Wenn die passenden Games draussen sind vllt. aber jetzt nicht. Wer weiß was nV bis dahin anbietet
 
@c80: wenns net glauben willst büdde http://www.pcgameshardware.de/aid,655558/Quartalsergebnisse-bei-Nvidia-rote-Zahlen-Aktie-steigt/Grafikkarte/News/
 
@Boskops: Hahaha ... wenn rote Zahlen in 1-2 Quartalen irgendwas negatives aussagen würden, wären AMD und ATi schon 2006/2007 vom Markt verschwunden. @c80: "Semiakkurat" sagt doch schon alles ^^
 
@Boskops: Ich versteh nicht was du mit diesem Artikel vom letzten Jahr sagen willst. Zitat: "Nvidia hat die Zahlen für das zweite Quartal des Fiskaljahres 2009 vorgelegt und dabei zum ersten Mal seit Jahren rote Zahlen geschrieben. Der Börsenkurs steigt aktuell trotzdem um fast zehn Prozent. (Thilo Bayer, 13.08.2008)". Zur Info: Fiskaljahr <> Kalenderjahr
 
ich muss zugeben ich war nie so ein grosser fan von Nvidia, aber wenn man den vergleich von damals, wo Intel den CPU-markt beherrscht und die preise diktieren konnten wie sie wollten, möchte ich dann doch nicht wieder erleben. erst als AMD als konkurrent auf der bildfläche erschien, fand ein preiskampf statt.
wenn sich Nvidia jetzt vom markt zurückzieht, hoffe ich nur darauf, das die spitzenmodelle nicht wieder erst bei einem einstiegspreis von jenseits der 500-Euro nfängt.auch wenn es verschiedene fans für Nvidia und ATI gibt, aber wenn ein kokurrent die selgel streicht, ist es immer schlecht für uns alle.
 
@Tiesi: im prinzip richtig, aber ich denke nicht dass es zu einer hoch-preisrenaissance kommen wird. die kunden haben sich an die aktuellen preise gewöhnt und sind nicht mehr bereit mehr zu bezahlen. würde sich ein monopol anbieter nun erlauben seine preise anzuziehen werden vermutlich die verkaufszahlen so drastisch zurückgehen, dass fast nichts anderes übrigbleibt als die preise nach unten zu korrigieren. zwei weitere punkte bleiben auch derzeit noch etwas unberücksichtigt. nämlich, ob das tempo mit denen sich die beiden konkurrenten derzeit übertrumpfen überhaupt der stein des weisen ist. ich denke dass man ebensoviel gewinnen würde, wenn spiele einfach sauberer und besser programmiert würden und nicht schlampig auf den markt geworfen. (beste beispiele sind immer "das spiel zum film..."). wenn den entwicklungsstudios bewusst wird, dass bei den konsumenten nicht mehr diese hardwarepracht alle 4 monate runderneuert wird, wird man auch hier umdenken müssen. und noch ein punkt bleibt halboffen, die konkurrenz.....ist ati wirklich ohne konkurrenz? wenn die grafikkartenpreise in die höhe schiessen wird eine nicht unbeträchtliche kundschaft schnell in richtung der konsolen abwandern. technisch gesehen wäre es für sony und co ein leichtes die spielepalette auf maus/tastatur und damit den "klassischen" pc-revieren auszuweiten. für mich bis heute nicht verständlich wieso dies nicht schon längst intensiver in angriff genommen wurde.
 
Hmmm ... aus ein paar Quartalsverlusten und einem kostspieligen GT200 wird gleich der Abgesang von nVidia-HighEnd Karten konstuiert. Haben in letzter Zeit ein paar Bild-Redakteure den Arbeitsgeber gewechselt? Ich gehe mal davon aus das nVidia mit dem neuen Fermi eine so große Produktpalette von Midrange bis HighEnd abdecken kann, dass sie die alten Karten abkündigen können. Entsprechende News gab es ja schon. Und ich gehe weiter davon aus das nVidia auch dieses mal wieder eine HighEnd-Karte rausbringt mit der sie im Zweifel mit ATi den Boden aufwischen können. So interpretiere ich jedenfalls erstmal die Meldungen zu den Technischen Daten der neuen nVidia-Chips.
 
@DennisMoore: Mit ATI den Boden aufwischen? Wie meinst du das? Wäre ja auch schlimm wenn nVidia ein halbes Jahr später eine KArte rausbringt die mit der HD5870 nicht mithalten könnte.
Aber in der Situation von ATI würde mich das nicht im geringsten kümmern. Die Preise bestimmen den Markt und das Hauptgeschäft wird nicht mit High-End Karten gemacht. ATI bietet in letzter Zeit ein sehr gutes P/L für solide Karten.
Zudem haben sie wie schon gesagt mit der HD5870 gut ein halbes Jahr Vorsprung zu nvidia...und mit dem einstiegspreis von knappen 300 € wird nvidia schon arg unter Druck gesetzt. Entweder müssen sie ebenfalls so günstig anbieten oder die Karte muss wirklich 25-50% schneller sein um einen höheren Preis zu rechtfertigen. Aber bisher gibts immernoch nur Vermutungen.
Wir werden sehen. Wer warten will kann gern warten...ich werde es nicht tun...sobald die HD5870 überall lieferbar ist und für unter 300 zu haben sein wird, bin ich dabei :)
 
@bAssI: Zudem muss man sehen das im Allg. etwa 6 Monate nach Launch ein Refresh ansteht. Sprich der Gegner des GT300 heißt vielleicht HD5890. Dazu liegt noch Treiberpotential brach. Also kann man davon ausgehen, dass zum GT300 Start AMD-SingleGPU-Karten mit etwa 25-45% mehr Leistung im Handel sein dürften als jetzt. Siehe: http://www.hardware-infos.com/news.php?news=3221
 
@bAssI: Ich meine das so wie ich es sage. Ausgehend von den technischen Daten der neuen nVidia-Chips glaube ich das sie den Ati-Chips haushoch überlegen sein werden, zumindest in Sachen Leistung. Ati hat übrigens für das 3. Quartal nächsten Jahres schon wieder neue Chips und neue Karten angekündigt. Man kann ja mal ein bißchen überlegen welchen Grund das wohl haben könnte.
 
@DennisMoore: Ja weil ihre Entwicklung rasant vorwärts schreitet du paranoider Fanboy!
 
Was denn für ein Abgesang ? NVidia stellt die G200 ein. Nicht das GESCHÄFT als Solches. Wenn es sich für die AKTIONÄRE wieder lohnt - macht NVidia auch wieder Gamerkarten. Es ist doch geschäftlich sehr vernünftig, eine Firma nicht in den Ruin zu treiben, wenn man mal in einem Marktsegment kein Nachfolgeprodukt hat. Achtung Ironie : Ich hatte übrigens gerade telepatischen Kontakt mit Präsident Obama - und er wird NVidia niemals sterben lassen, weil Intel sonst keinen Konkurrenten mehr hat. LOL.
 
Wenn NVidia vom Markt ist bleibt eigentlich nur noch ATI übrig, viel Spaß mit den Preisen, ich bin sogar der Meinung, dass ATI solche Gerüchte verbreitet, damit alle ihre Karten kaufen.
 
@HeyHey: Wie bist du denn drauf? Durch so eine Meldung würde man wenn dann eher noch versuchen die letzten high-end Karten von nvidia zu ergattern...
 
Was schiebt ihr hier denn so ne Panik? Es ist weder von Nvidia ne offizielle Stellungsname draußen noch gibt es Grund zu der Annahme, dass diese News der Wahrheit entsprechen. Nur weil die Seite xyz schreibt morgen geht die Welt unter, heißt das noch lange nicht, dass es wirklich passiert. Es gibt noch nicht einmal News zum eol der gtx Serie. Ich wette, dass hier wieder von einigen Seiten irgendwas falsch interpretiert wurde und wenn überhaupt Nvidia maximal die Produktion der gtx Serie einstellt, um die neue Chipreihe zu präsentieren. Allein schon die Überlegung einen dominierten Markt aufzugeben ist totaler Blödsinn. Die Begründung es läge an zu teuren Chips, ist auch quatsch, da Hersteller wie Nvidia grad im Mid-Range-Grafikkarten ihr Geld verdiehen und nicht mit den überteuerten Promotionkarten und den Mid-Range Bereich hat Nvidia in den letzten Monaten und Jahren ebefals beherscht. Also Leute abwarten und Tee trinketn, bevor hier voreilige Schlüsse gezogen werden.
 
Ach, wenn ich das hier so lese, kommt mir alles so einfältig vor. Diese High End Karten bilden nur eine so kleine Sparte von NVidia, das man hier von einer Wasserstandserhöhung ausgehen könnte, wenn man in den Dorfteich pinkelt. Fakt ist und das kann man heuer auf anderen Seiten besser nachlesen, das die Produktionskosten von NVidia gerechnet gegen das aktuelle AMD Preis- / Leistungsspektrum einfach unrechenbar hoch sind. Damit wird es vorerst aufgegeben. Und AMD wird einen Teufel tun von einem Monopol auszugehen bzw. die Preise zu erhöhen, denn der ohnehin immer größer werdende Spiele-Müllmarkt hat dazu geführt, da so schon kaum noch in den PC sondern in Konsolen investiert wird. Für die übrigens auch beide Konzerne kräftig produzieren. Wir befinden uns weltweit nunmal am Scheideweg zwischen einer ständig neuen Entwicklung ohne Anforderung PLUS die finanzielle Möglichkeit der Käufer. Der Markt MUSS also preiswert bleiben um mal zum Thema zurück zu kommen. Oder wollt Ihr etwas Need for Speed 3747345 mit 666 FPS zocken? ... Wie uninteressant...
 
nvidea hat directx 11 verschlafen....und somit den high-end markt......zudem kommt noch das von 100% 1% der garkas überhaupt funken.
 
@Boskops: 1 % bedeutet 1 Hundertstel... man muss also nicht extra betonen, dass es von 100% ist :)
 
...na dann Start frei für das große Hamstern von nVidia Karten der letzten Serie...ich hoffe nur, dass sich die Plünderer in Grenzen halten werden ^^
 
Fall diese Meldung wirklich stimmen sollte (was ich immer noch nicht glaube) ist es einfach ein großes Drama. Ob man AMD oder Nvidea bevorzugt ist scheiss egal. Fakt ist einfach, dass wenn es nur noch einen von denen auf dem Markt gibt die Preise für uns Kunden steigen werden weil AMD damit faktisch ein Monopol im High End Grafikkarten Markt hat. Bewahrheitet sich diese Meldung wäre das einfach nur traurig obwohl ich AMD Fan bin. Mich würde jezt nur mal interessieren was mit den neuen Direct X 11 Chips von Nvidea wird. Kommen die jezt auch nicht mehr raus? Falls ja wird es wohl länger dauern bis die 5870 billiger wird.
 
@Schiffmeister: Ich bevorzuge nicht Nvidea sondern Nivea - einfach besser für die Haut :)
 
@Stratus-fan: Ich habe lange lange zeit auch Nivea benutzt und war wirklich gut. Dann habe ich mal Dove ausprobiert und finde ich etwas besser. Kostet weniger und bringt mehr...wie ne ATI Karte halt :)
 
@Schiffmeister: Also ich denke das Nvidia nicht für immer aus diesem Segment verschwindet. Und solange sollte es sich ATI nicht mit seinen Kunden / neu Kunden verscheissen. Denn wenn Nvidia wieder kommt, möchte man diese Kunden behalten. D.h. gleiches Preis/Leistungsverhältnis wie bisher.
 
@ReVo-: "Kostet weniger und bringt mehr...wie ne ATI Karte" ist wohl eher Wunschdenken. nVidia war doch fast immer besser als ATI. ATI war nur billiger.
 
FUD... mehr nicht.
 
Ich lese diese Nachricht gerne. Nvidia hat in der Vergangenheit 3dfx platt gemacht, aufgekauft und dann geschlossen. Schon dass die jetzt mal im Hintertreffen sind. Aber ich hoffe auch dass die sich wieder erholen.
 
@GreCCoikarus: lol was du fürn schwachfug schreibst....
 
@Tribi: Wenn du keine Ahnung hast, dann schreib auch nichts. Es war genau so.
 
Verwundert das wirklich jemanden? In letzter Zeit wurde eigentlich auf allen einschlägigen Portalen, in erster Linie über Neuentwicklungen von AMD/ATI berichtet, Nvidia kam immer seltener vor. Wenn das der Anfang vom Ende Nvidias ist, dann wäre das übel, da ATI dann die Preise quasi in Eigenregie diktieren könnte. Auch interessant im dem Zusammenhang was zwischen AMD und Intel im CPU-Bereich abläuft: Seitdem AMD in der Oberklasse nicht mehr mitmischt, sprich kein Äquivalent zu den i7-Prozessoren anbietet, kann Intel unbehelligt Wucher betreiben.
 
Selbst als ATI/AMD Käufer freut mich diese Nachricht in keinster Weise, denn mangels Konkurrenz gibt es oftmals auch keine Weiterentwicklungen, da man nicht schneller bzw besser werden muss. Das der Preis dadurch auch diktiert wird ,sollte eh jedem klar sein.
 
Hat jemand eine Quelle?
 
@Soern: Link im 2. Absatz, ist allerdings bekannt dafür Gerüchte in die Welt zu setzen.
 
jetzt gaaanz ruhig.
Das ist nix offizielles von Nvidia. Es handelt sich heir nur um das planmäßige Produktionende...eigendl. sollte jetzt schon die G300 Serie an Zuge sein. Jetzt hat nVidia die Möglichkeit zu sagen EOL aufschieben oder aussitzen. Die kleinen Chips (G92 Basis) ala GTX250 und kleiner wird es weiter geben und bald auch die G300er Serie.
 
@Nero FX:

Vorallem: es ist Wirtschaftskrise, die Fabriken in Taiwan haben Rückgänge zu verkraften von bis zu 40%. Die nähmen ein Auftrag von Nvidia mit Handkuss entgegen, mit noch subventionierten Preisen.
 
Dann machen wir eine neue 3DFX Schmiede auf!!!
 
@Willforce: Mit Voodoo Rush.
 
naja... 2012 ist eh alles vorbei. ich sag mal clever, clever
 
Oh je, wenn ich so an meine Voraussagungen, vor längerer Zeit hier zurück denke, bekomme ich Angst vor mir, denn genau das habe ich voraus gesagt, Strafe bei Innovationsverlust, Arroganz gegenüber den Kunden und Qualitätsmangel (Notebookchips). Aber ich schätze ein PR-Coup um die Restbestände der Nvidiakarten zu verhökern oder den Absatz anzukurbeln. Da aber WF nicht gerade das Mekka für seriöse Berichterstattung ist, warte ich, bis es direkt von Nvidia kommt :-)
 
Dort steht nirgens , dass man die GTX3xx nicht raus bringt.. mit andern worten alles nur blub blub.. die alten karten verschwinden, die neuen kommen. man will nur kosten sparen, in dem man nicht mehr beide modelle gleichzeitig produziert
 
Das mit der GTX295 ist auch schwachsin, gibs z.B. auch von Asus: http://www.alternate.de/html/product/Grafikkarten_NVIDIA_GeForce_GTX/Asus/ENGTX295_TOP-2DI/366513/?tn=HARDWARE&l1=Grafik&l2=PCIe-Karten+NVIDIA&l3=GeForce+GTX
 
http://tinyurl.com/y8z7br8 <__ Es gibt sogar viele weitere Indizien für den Irrsinn dieser Ente.
 
Bei lesen dieser News kann ich als ATI Fan mir ein lautes Lachen nich verkneifen.
Bye, Bye Nvidia :)
 
Ist das schön :) ... nvidia hat einfach assozial dreckig gewirtschaftet. Es wird wirklich zeit, dass die mal auch leiden. Das ist sicherlich nicht so schlimm wie sich das anhört, aber ich hoffe ATI kann etwas mehr an marktanteile gewinnen. Tja ihr nvidia putzi putzi fanboys, gibt mir nur (-), da freue ich mich weiter, nicht weinen.
 
@ReVo-: bitte erklär mal wie du das meinst und auf was du deine Behautpung stützt: "nvidia hat einfach assozial dreckig gewirtschaftet"
 
@c80: Wenn Du das nicht selber weißt, wo warst Du die letzten 5 Jahre ? :-) Im Urwald ? Er hat es ein wenig überspitzt, in meinem Beitrag, weiter oben, ist es anders und verständlicher formuliert.
 
@Pegasushunter: in den Jahren seit dem G80 war nvidia eigentlich immer vor ATI. Die HD2000, HD3000 waren echt Müll. Die 4000er gingen, aber nvidia war besser (und teurer). Jetzt ist ati mal etwas vor nvidia mit neuen Karten am Start aber wenn Fermi draussen gibts außer Sparen kein Grund mehr ne ATI zu kaufen. Wenn ATI wenigstens eine PhysX-Imlementierung für ihre Karten anbieten würde hätte ich vielleicht auch mal wieder bei denen zugegriffen, aber so ist halt mal wieder eine nvidia geworden. Mal ehrlich, mein GTX260 OC schlägt für 130Eur ne
GTX285 @Standardtakt. Damit läuft alles perfekt inkl. PhysiX. Selbst die 5870 kannste bei PhysX vergessen weils über die CPU läuft. DX11 gibts noch nicht und den Unterschied 4xAA und 8xAA siehste eh net. Ergo wer jetzt ne ATI kauf ist blöd
 
@c80: Jeder Markenblinde kann solch ein Statement verfassen, in dem er SEIN Produkt in den Himmel lobt. PhysX ist sicherleich nicht mal ansatzweise ein Argument. Abwarten wenn DX11 kommt und vieles technisch einfacher und offener wird, weil dann braucht man kein CUDA mehr.
 
@Plasma81: Wenn PhysX kein Argument ist dann weiss ichs auch nicht. Was besseres gabs in den letzten Jahren nicht. Was könnte denn deiner Meinung nach ein Argument für ATI sein? Ich meine ein technisches, kein finanzielles und auch kein Sympathie-Argument? Richtig, da gibts keins. Warum braucht man wenns DX11 gibt kein CUDA? Hast du Ahnung von Programmierung? Nein. Wer sagt dann dass du mit DX11 die gleiche Performance und Features hast wie mit CUDA? Lern erst mal was CUDA ist. Du bist wohl markenblind und ATI fixiert.
 
@c80: Ich bin Hauptberuflich Programmierer, also spar dir einfach solche Kommentare. Mein Statement bezüglich CUDA hast du leider auch völlig falsch verstanden. CUDA ist momentan ein Zugpferd von NV und durch DX11 wird endlich Stream durch OpenCL ausgenutzt. Wenn sich das etabliert, ist dieser vermeintliche CUDA Vorteil auch dahin. Ausserdem bin ich weder Markenblind noch in irgend einer Form fixiert, ich kaufe was ich für mich als besser und wirtschaftlicher erachte.
 
@Plasma81: Ich bin ebenfalls hauptberuflich Programmierer. Aber ich bin wohl ein Jahr älter als du. Aber egal. Warum beantwortest du meine Frage nach einem Argument für ATI nicht? Fällt dir kein gutes ein?
 
@c80: Ironie ein : ICH bin hauptberuflich Hardware Schrauber - und was IHR Programmierer manchmal mit eurem PATCHWORK anrichtet, geht auf keine Kuhhaut. Ironie aus.
 
So ist das nun mal: Wenn eine Firma Fehler macht, wird sie die daraus resultierenden Konsequenzen ziehen müssen. Da es anscheinend auch anders geht, zeigt ATI ja z.Z.. Allerdings GANZ so schlimm wie hier im Artikel beschrieben wird es wohl 'Nvidia nicht treffen.
 
Nettes Marketingkonzept. Sollen wohl alle nochmal schnell ne Graka kaufen damit sie ihre Bestände wech bekommen um Platz für die neue Serie zu schaffen. Guter Zug von Nvidea
 
Für mich ist die Meldung unbestätigt.
 
@~LN~: dann können ja tausende Nvidia-Fans aufatmen, stimmts? :-PP
 
@~LN~: Semi = Halb, die Hälfte ist also wahr. Wohl der Teil, dass diese Teile nicht mehr hergestellt werden. Das Warum liest sich sehr unglaubwürdig
 
na endlich sieht nvidia mal ein, dass sie nur scheiße herstellen ^^

ney, ganz so hart vielleicht nicht, aber ich finds gut was da passiert. amd war technologisch nvidia immer überlegen. doch gibts genug idioten, die aus prinzip nvidia kaufen... dämlich, aber wahr. sieht man ja an vielen usermeinungen hier.

hoff nur nvidia macht jetz nicht schlapp... wäre schlecht für alle von uns.

aber das mit der entwicklungsabteilung stimmt. amd entwickelt schön länger kleinere und schlankere grafikkarte, die in sachen herstellungskosten wesentlich besser aufgestellt sind, als jene von nvidia. is ja auch schön, dass die gtx285 so toll und schnell ist... nur dumm wenn die produktionskosten jenseits von gut und böse liegen. echt traurig für so ein unternehmen^^
 
@lalanunu: habe mich nur wegen diesem Kommentar hier überhaupt angemeldet. Nvidia ist technologisch also hinter AMD/ATI ?

Nvidia Hat PhysX was hat ATI ? okay die fangen jetzt auch damit an. jetzt...
Nvidia hat CUDA ...
Nvidia hat Tesla....

und ATIs crossfire ist doch wohl von Nvidias SLI was es ja bekantlich vor crossfire schon gab abgekupfert.

Was ich noch merkwürdig finde. ATI hat bis zu 1600 Streaming Prozessoren. GDDR 5 Ram. Nvidia kann mit GDDR 3 Ram und 480 Streaming Prozessoren mithalten... und ist in manchen Punkten sogar stärker als ATI
 
@Racer X:

also hat ati nicht vor nvidia 55nm oder 40nm produkte hergestellt?
also ist crossfire nicht skalierbarer und "stärker" als sli?
also bietet ati kein bessere P/L verhältnis als ati? liegt wohl daran, dass nvidia unfähig ist einen kleine chip mit geringer die fläche zu entwickeln. (soviel zu deinen streaming prozessoren)
also hat ati nicht schon seit jahren gddr5 eingeführt?

klar hat nvidia physicx oder cuda... doch was bringt es uns?
NIX!
in manchen spielen sind die effekte von physicx fast nich zu erkennen und kosten nur leistung. da lob ich mir die havok engine von half life :)
da braucht man nich den dreck von nvidia.

na ja... aber kauft euch ruhig nvidia... sind halt "die beste"...
 
Nochmal für alle mit Scheunenklappen ZUM SUPER SELBER LESEN:

Solche teilweise einfältigen Kommentare! Diese High End Karten bilden nur eine so kleine Sparte von NVidia, das man hier von einer Wasserstandserhöhung ausgehen könnte, wenn man in den Dorfteich pinkelt. Fakt ist und das kann man heuer auf anderen Seiten besser nachlesen, das die Produktionskosten von NVidia gerechnet gegen das aktuelle AMD Preis- / Leistungsspektrum einfach unrechenbar hoch sind. Damit wird es vorerst aufgegeben. Und AMD wird einen Teufel tun von einem Monopol auszugehen bzw. die Preise zu erhöhen, denn der ohnehin immer größer werdende Spiele-Müllmarkt hat dazu geführt, da so schon kaum noch in den PC sondern in Konsolen investiert wird. Für die übrigens auch beide Konzerne kräftig produzieren. Wir befinden uns weltweit nunmal am Scheideweg zwischen einer ständig neuen Entwicklung ohne Anforderung PLUS die finanzielle Möglichkeit der Käufer. Der Markt MUSS also preiswert bleiben um mal zum Thema zurück zu kommen. Oder wollt Ihr etwa Need for Speed 3747345 mit 666 FPS zocken? ... Wie uninteressant...
 
@JACK RABBITz: ich weiss gar nicht warum es dafür so dick minus gibt. er hat doch recht, die konsolen haben zur zeit die besseren titel, die pc games werden immer mieser. und das sage ich als pc zocker, ich bin also kein fanboy. die entwicklungskosten sind hoch, die bugs genauso zahlreich wie die raubkopien und die konsolen werden immer günstiger. das mit dem scheideweg bezüglich des pc's als spielemaschine ist meiner meinung nach absolut korrekt.
 
Ich würd mal sagen.ATI hat die Hausaufgaben besser gemacht.
 
@patty1971: ich würd sagen ATI hat ganix.. denn die karten sind zwar billig aber die leistung in vielen hinsichten auch.. zudem bevorzuge ich physix grafiken wie wohl jeder nvidia fan auch.. ich interpretiere das als reine willkür um die leute zu zwingen den teuren mist zu kaufen... vieleicht hätte nvidia nich so billige 64 bit dinger investieren sollen.. die schrottigen lowbudget dinger vergraulenen jeden pc fan der nen fertig rechner kauft
 
@camfrogfunraum: PhysX Grafiken....aha, nur blöd, dass man reell gesehen keinen Mehrwert dadurch hat (siehe Mirror's Edge).
 
@camfrogfunraum: Hallo Mistaagress hat man Deinen Akkound hier nicht schon einmal gelöscht? Aber es scheint nicht viel zu nutzen einfach als Camfrogfunraum angemeldet und weiter nur Blödsinn schreiben.Aber so ist das nun mal mit erklärungsresistenten geistigen Tieffliegern. Gruß c3po
 
tjo scheisse lässt sich nunmal nicht dauerhaft unters volk bringen... irgendwann merkt selbst der letzte trottel das es stinkt.
 
Also ich bin immer noch höchstzufrieden mit meiner 9800 GT, Cuda, Physx alles dran! Ich meine das gibts doch bei ATI alles nicht oder? Normal so Cuda so als Bsp. 337 GFlops sind kein Pappenstil....
 
@legalxpuser: Nein, CUDA gibt es nicht, dafür Stream. Und in DX11-Karten gibts noch OpenCL. Und die 4890 schafft theoretisch sogar 1.360 GFLops also viermal kein Pappenstil?!? http://tinyurl.com/y8rpeqb
 
@legalxpuser: Sobald OpenCL ratifiziert ist wird man die Leistung der HD5870 komplett ausnützen können. Und das sollen bis zu 2700 GFlops bei single precision sein.
 
@3-R4Z0R: hmm jo aber die Anwendungen dafür? Ich meine zu behaupten das Cuda sich schon durchgesetzt hat, und es bereits mehr Anwendungen dafür gibt. oder nicht?
 
Dann hat die Aktion mit den "zerbröselnden" (Achtung Gänsefüßchen) GPUs wohl doch einiges gekostet (und kostet noch), sodass es Nvidia in die Enge treibt (sofern die Meldung keine Ente ist).
 
@puffi: In die Enge ? Den Tiger treibt man nicht in die Ecke. Ist doch gar nicht so schwierig zu verstehen - auch wenns weh tut - die nächsten Monate gibt keine "Enthusiast" Karten von NV. Wie Beckenbauer sagt : Schaun wir mal. Was soll NVidia denn sonst machen ? Fake G300 Karten bringen, die dann nirgends lieferbar sind ? Oder 4 GPU auf eine 500 Watt Karte für 400 Euro basteln und trotzdem kaum schneller sein als EINE 5850 ? Was nicht geht kann man nicht erzwingen.
 
... tja - sollte diese Nachricht tatsächlich Wirklichkeit werden, täte mir das sehr leid, da ich mit meiner alten 8800GTS sehr viel Spaß gehabt habe! Doch ehrlich gesagt glaube ich das nicht, denn sollte an der Meldung tatsächlich etwas dran sein, hätte die Börse garantiert darauf reagiert. Doch die 5 Cent, die die Aktie seit der Eröffnung bis zum jetzigen Zeitpunkt verloren hat, zeichen ein anderes Bild - oder glaubt jemand wirklich, dass ein solches Desaster spurlos an Nvidia vorbeigegangen wäre ...
 
Nvidia räumt Lieferengpässe bei High-End-Chips ein

Gegenüber heise online wies Nvidia die Gerüchte zurück und erklärte, dass die Nachfrage derzeit die in Krisenzeiten produzierten Bestände übersteige.

http://www.heise.de/newsticker/meldung/Nvidia-raeumt-Lieferengpaesse-bei-High-End-Chips-ein-816953.html
 
@ptmpower: ... die Engpässe sind tatsächlich nicht zu übersehen - selbst bei Alternate ist keine GTX285 zu bekommen ...
 
Ich würde diese Meldung nicht all zu überbewerten. Wer den Markt kennt der weiß das Semiaccurate AMD/ATIs Handlanger ist. Die Meldung ist dennoch richtig geschickt platziert. Jetzt werden genügend Honks die 5870 vorbestellen weil sie denken dass diese irgendwann im Preis steigen wird. Damit ist das Weihnachtsgeschäft schon im Oktober gerettet. Ich würde bei solchen Hiobsbotschaften erstmal die Stellungnahmen der Firmen abwarten. Bei solchen Vorwürfen wird es nicht lange dauern bis eine Antwort in der Öffentlichkeit verkündet wird.
 
Das ist hoffentlich die Beta1 des 2010er Aprilscherzes.
 
MENSCH IHR DORFTROTTEL REISST EUCH MAL MIT DEN TODESKOMMENTAREN ZUSAMMEN. LIEST DOCH MAL WER ES GESCHRIEBEN HAT: Charlie Demerjian ??? Ihr habt keine Ahnung wer das ist? Wundert mich bei diesen Reaktionen ehrlich gesagt nicht. Um es noch deutlicher zu sagen er ist ein gnadenloser AMD/ATI Fanboy (um es mal in eurer Sprache zu sagen). Unglaublich wie sensibel der Pöbel auf FUD Meldungen reagiert. MEIN BEILEID AUCH AN WINTURURE. WIESO ÜBERSETZT MAN SO EINEN SPASSARTIKEL WORT FÜR WORT? DAVON IST NICHT MAL 10% WAHR?!?!?
 
ich kann mir das auch kaum vorstellen, wenn man sich die letzte Zeit anschaut wie NVIDIA CUDA und PhysiX geforced hat, was sicherlich nicht billig is. Und es hat bei den Softwareherstellern ja auch Zuspruch und Unterstützung gefunden. Ich halte die NEWS für falsch interpretiert!
 
@nap: Oder NVidia muss sich beugen, und einsehen das die Spieleentwickeler nicht auf CUDA oder Physix einsteigen. LOL - ich weiss da ein bischen Bescheid, und den Entwicklern fälllt es nach wie vor schwer, weiter zu gucken als bis DX9. Die haben nämlich im Fokus wie viele Spiele sie potentiell verkaufen können - nicht etablierte Standards interessieren die nicht.
 
Genau! Oder mit meta sl von mental images. Die sind doch drauf und drann endlich einen industrie- standard für shader durchzubringen...
 
Also laut Heise http://tinyurl.com/yb3xjex gibt es Lieferengpässe, da zu wenig Chips in der Krisenzeit produziert wurden. Nichts desto trotz wird es wohl noch eine Weile dauern, bis NVidia auch einen Nachfolger der aktuellen Generation liefern kann.
 
da dann mal gute nacht.ich hab zwar seit 10 Jahren hauptsächlich ATI Karten, doch ein Aus für Nvidia heisst für mich gleichzeitig ein Aus des PC als Spielegerät. ATi hätte keinen Druck mehr, die Preise würden steigen und die Leistung von Generation zu Generation würde noch weniger steigen als jetzt. Ein alleiniger Hersteller für eine Produktesparte ist immer schlecht. Aber man hats auch kommen sehen. Als ich die News gelesen hab von wegen der Fermi könne mit bis zu 6Gb ausgestatten werden, da dachte ich was zum Geier wollen die bei Nvidia produzieren und wie wollen die mit sowas Profit machen auf dem Gamermarkt? Oder soll das eine Grafikkarte nur für den Professionellen Markt werden?...Da schaut aber zwischen 200 - 400 Euro nix raus. Und auf das wirds rauskommen, der Fermi ist wenn überhaupt als Professionelle Grafikkarte verdammt, falls er überhaupt mal rauskommt. Ich glaube die haben im Moment echt krasse Probleme das Teil überhaupt auf Ende Jahr in vernünftigen Stückzahlen zu produzieren. Am Anfang haben sie vielleicht noch versucht die Leute von der ATI 5800 abzuhalten, aber spätestens wenn von Nvidia selber sonä Meldung kommt haben die selber abgeschlossen mit ihrem Produkt.
 
eine echt schockierende Nachricht... Hoffe, dass es nur ein Gerücht ist :S
 
alles bullshit!
da sollten die redakteure bei winfuture mal lieber mit ihren berichten warten, bis die news auf heiße nachlesen könne, dan würden hier nicht so viele absolut spekulative nachrichten die runde mach :-)
 
Man WF wieder,unglaublich! Hier ein weiteren Bericht darüber, liest sich ganz anders und sicher glaubwürdiger:Wer derzeit eine leistungsfähige GeForce-Grafikkarte mit GT200-Grafikchip kaufen möchte, hat es nicht leicht – die Karten sind nur schwer erhältlich. Aus der Gerüchteküche machen nun Meldungen die Runde, Nvidia wolle die Produktion von GT200-Grafikchips auslaufen lassen, betroffen seien die Modelle GeForce GTX 285, GTX 275 und GTX 260. Gegenüber heise online wies Nvidia die Gerüchte zurück und erklärte, dass die Nachfrage derzeit die in Krisenzeiten produzierten Bestände übersteige.

Auch Boardpartner des Chipherstellers konnten ein Auslaufen der Produktion der genannten GeForce-Karten auf Nachfrage ebenfalls nicht bestätigen. Nvidia könne derzeit nicht ausreichend Grafikchips an die Boardpartner liefern, teilte Gigabyte mit. Grafikchips für die GeForce GTX 275 seien nach aktuellem Informationsstand lediglich bis Mitte November von einem Lieferengpass betroffen. Auch Gainward und Zotac wussten nichts vom vermeintlichen Ende der Produktion: Asus wollte die Gerüchte nicht kommentieren.
Nvidia hat erst kürzlich im Rahmen der GPU Technology Conference die Architektur der kommenden DirectX-11-Grafikkarten mit Fermi-Chip vorgestellt. Mit ersten Fermi-Grafikkarten ist jedoch nicht vor Mitte Dezember zu rechnen. Daher ergäbe es keinen Sinn, dass Nvidia das komplette High-End-Segment auslaufen lässt und damit Konkurrent AMD den Markt kampflos überlässt. AMD stellte bereits Anfang September seine ersten DirectX-11-Grafikkarten der Radeon-HD-5800er-Serie vor und plant bereits Mitte Oktober die HD-5700er-Serie einzuführen.
 
ich bin eine Ente
 
@HeyHey: ICh bin Rotkohl. Schauen wir mal, evtl kommt noch nen Klos vorbei, dann sind wir nen Festmahl :D
 
@HeyHey: ente ente ente ente ente ente ente ente...
 
@Cheatha: beruhig dich^^
 
http://aktien.onvista.de/snapshot.html?ID_OSI=92472 Also die Kurse sind noch nicht sehr eingebrochen, wobei man nicht weis wie aktuell dass ist. Außerdem weis ich nicht ob die Börse überhaupt noch handelt um die Uhrzeit. Wenn sich das ganze nicht als ENTE herausstellt dann wird sich das sicher auswirken.

Das Nvidia ein wenig Größenwahnsinnig geworden ist und Leistungsmäßig schon etwas am Markt vorbei entwickelt hat, ist klar. Aber wie sich dieser Größen/Leistungswahn letztendlich auf die Produktionskosten niederschlägt weis wohl nur Nvidia selbst. Ich kann mir jedenfalls vorstellen das Nvidia seit der ATI HD48er Reihe schwer angeschlagen ist und sich bei den Entwicklungskosten des FERMI maßlos überschätzt hat. Einen wahnsinnig großen Chip mit über 3 milliarden Transistoren zu bauen und damit die Ausbeute der Chipproduktion massiv zu gefährden finde ich schon etwas gewagt. Ich bezweifle das für solche teuren Chips ein Markt vorhanden ist, gerade weil momentan viele Leute den Euro 3mal umdrehen müssen bevor sie sich für einen Kauf entscheiden.

Ich hoffe das Nvidia nicht seiner eigenen Arroganz ( siehe derenen Äußerungen zu DX10.1 und zuletzt gar DX11) zum Opfer fällt , obwohl mich deren Firmenpolitik und Verkaufsstrategie maßlos ankotzt.

Nichts desto trotz halte ich diese Meldung für falsch bzw. stark übertrieben.
 
@X2-3800: Ist 'ne Ente :)) siehe heise.de
 
Erinnert mich etwas an den Beginn des Ablebens von 3dfx.
 
@Joda: Dito, erinnert mich auch an das Ende von 3dfx...
naja irgend eine konkurenz wird schon noch bestehen bleiben, aber freue mich, dass ATi/AMD dadurch erfolgreicher werden...
Nvidia hat damals schon den fehler gemacht, und gesagt, Dx10.1 interessiert nicht, und selbst für Dx11 haben die noch nix in Aussicht... aber gerade die High-End User wollen genau das!
 
Ok mal kurz aufn Kalender schauen....ok es ist Oktober nicht April...sehr komisch.
 
Ist bestimmt ein Witz von einen amdler,soooo lol,jetzt haben wir alle gelacht und freuen uns auf die neuen Grafikkarten von NVidia.
 
Sehr schön. Wer von nvidia schonmal verarscht wurde mit falschen Produktdaten freut sich zu recht.
 
@GeProtector:
und trotzdem könnte ich dir 10000 andere hersteller nennen, die auch mal fehler machen...
 
unglaublich!

ich benutzte um ehrlich zu sein seit nunmehr 13 jahren ATI/AMD-Karten und war immer vollends zufrieden, egal ob leistung oder preis - es stimmte.
trotzdem würde ich mich jetzt nich als nvidia-Hasser bezeichnen, sondern als AMD-Verfechter^^

meiner meinung nach ist es das schlimmste was der grafikkartenbrache passieren konnte, da ein zweiter großer hersteller nie geschadet hat: -es drückt den preis - es treibt die entwicklung voran - und es verhindert monopole mit engstirnigen zukunftsaussichten.

daher kann ich nur sagen: schade um nvidia und "kopf hoch"
 
Nice! Steigert den Wiederverkaufswert. :D
Liest sich ja wie der Release-Termin für Duke Nukem 4ever, nur anders herum. oO Gleich mal woanders informieren...
 
Ich finde es viel erschreckender, das ATI dann die alternative ist und diese Firma nicht in der Lage ist sauber funktionierende Treiber zu programmieren. De weiteren sind die Karten sowas von laut das und beheizen den PC das es eine Frechheit ist sowas auf den Markt zu werfen. Ich habe nach vielen Jahren als zufriedener Nvidia Kunde letztes Jahr mal eine 4870 gekauft. Ein riesen Fehler...die Karte wurde immer zu heiß, die Treiber stürtzten ständig ab...ATI raus Nvidia GTX 260 rein...und siehe da seit dieser Zeit no problems....sry ich finde es schade das Nvidia dieses Schritt macht...
 
@TerrorTino: Ich bin seit mehreren Jahren zufriedener ATi-User und hatte noch nie Probleme! Weder mit der Hard- noch mit der Software. Nur weil du scheinbar eine schlechte Kühlung in deinem System hast, oder du auch vielleicht einfach eine schadhafte Karte bekommen hast (wofür es übrigens die Gewährleistung gibt!!!!) behauptest du jetzt einfach, dass ATi allgemein mist ist?! DAS finde ich wirklich erschreckend! Denn KEINE Grafikkarte (sofern sie nicht eben eine der seltenen schadhaften oder zu sehr übertakteten Karten ist) überhitzt von sich aus!
 
Das war 'ne Ente :))
laut heise.de hat nVidia lediglich Schwierigkeiten genügend GT200 zu produzieren. Gigabyte, Gainward und Zotac wissen nichts von einem Ende der Produktion! Schlicht Asus wollte sich nicht zu dem Gerücht äussern.
Tja, WinFuture, seriöse Berichterstattung sieht anders aus. Hatte mich schon gewundert wieso ich sonst nirgends was davon lese.
 
Ja sorry, ich habe heute auch gleich einen Tag Urlaub genommen, weil ich nichts anderes in meiner ausgelutschten Fanboybirne habe als heraus zu bekommen, warum ich alter NVidia Kniffo mit Scheunenklappen zukünftig all die ausgeleierten Spielekonzepte nicht mehr so "grün" spielen kann von denen ich so schon ständig reiern muss.

Die ganzen notorischen Minusklicker sind dabei geistig auch noch so verdunstet, das sie schlau sein und schlau tun schon nicht mehr vernünftig unterscheiden können. Wer wirklich geistig so eingeschlafen ist, aus dieser News NICHT zu entnehmen, das sich im Konkurenzbereich zu den aktuellen ATI-Karten ZUR ZEIT keine Weiterproduktion mehr rechnet, sollte lieber im Bett bleiben. Vera am Mittag gucken ist mehr die Liga in der diese Leute Kommentare abgeben sollten.

Diese Kommentare hier sind teilweise an Peinlichkeit nicht mehr zu überbieten. ATI Monopol, NVidia geht pleite, Fake News... manmanman, es kostet keine 2 Minuten mal das Leistungsspektrum beider Hersteller zu vergleichen und zu sehen, wie klein der Anteil der Sparte ist, von der wir hier gerade reden.

Und ja, laßt es Minusse hageln, das ändert trotzdem nichts an dem hier teilweise herrschenden Halbwissen und Nichtswissen und das Gefährliche ist, das es andere glauben.
 
@RD-AM-OW: Mal ganz abgesehen von den Entwicklern, die meinen alles auf CPU berechnen zu lassen [anstatt mal auf die GPU auszulagern]. Lieber mal wieder richtig coden, anstatt nur "Materialschlacht".
 
@RD-AM-OW: NÖ kein Minus. Aber nimm mal ein Valium - Flachbirnen wirst du hier immer wieder begegnen. __ Highend Karten sind ein hartes Geschäft : Teuer in der Herstellung, Teuer im Verkauf und trotzdem kommt kaum was in die Kasse. Wenn dann der Konkurent in der Leistung fast gleich zieht - aber niedrigere Preise hat - dann zahlt man bei jeder Highend Karte drauf, weil man sie nur noch für einen niedrigeren Preis anbieten kann. Und auch die Loyalität der Fanboys hat ein Ende, wenn's um wenige FPS und viele Euro geht.
 
Um das ganze hier abzuschliessen nochmal eine andere Quelle : http://www.pcgameshardware.de/aid,696847/Nvidia-Lieferschwierigkeiten-fuer-Geforce-GTX-285-und-Co-bis-Jahresende/Grafikkarte/News/
 
http://www.heise.de/newsticker/meldung/Nvidia-raeumt-Lieferengpaesse-bei-High-End-Chips-ein-816953.html noch einmal diese quelle.. Nvidia hat dieses Gerücht komplett dementiert!!! semiaccurate , die winfuture hier als quelle nutzt sind hoher werbepartner von ATI.. alles klar oder. wie gesagt nvidi hat das gerücht von sich gewiesen. at winfuture.. bitte nicht noch mal son müll in der riesen form posten. rofl
 
@Siva: Der Sprengsatz ist aber schon gelegt >_>
 
@Siva: Was dementies von Nvidia wert sind, zeigt deren Ausstieg aus dem Mainboardsektor. Dies wurde 2008 auch hart dementiert seitens Nvidia :).

Bin kein AMD/ATI Fan, sondern eisener NVidia Mensch, weil Linux Nutzung.
Hoffe nicht das NV irgendwas passiert...und Engpässe kommen nun mal vor.
 
Na, dann warten wir mal ab, wann Intel keine CPUs mehr hat, mit denen es mit AMD mithalten kann ... har har har ... :)
Kommentar abgeben Netiquette beachten!

Beliebtes Windows Phone

Beiträge aus dem Forum

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles