Nvidia will Fermi-Grafikkarten am 26. März zeigen

Grafikkarten Obwohl der Konkurrenzkampf zwischen AMD und Nvidia nicht härter sein könnte, lässt sich Nvidia mit seinen DirectX-11-fähigen Grafikkarten auf Basis des Fermi-Chips sehr viel Zeit. Jetzt hat das Unternehmen einen Termin für die Vorstellung bekannt ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich bin ja mal gespannt, wie viel sie von dem halten, was sie versprechen.
 
@darkalucard: ich denke das ATI ausreichend Grafikpower auf dem Markt hat und für jedes Spiel mal mehr aus ausreichend ist und vom PL Top ist. Nvidia lässt sich nicht Zeit, die haben einfach nichts. Power hin Power her, si wie mitm Auto, wer braucht schon 600 PS wenn die Strassen nur 100Kmh hergeben?
 
@cheech2711: Naja generell würde ich dir ja zustimmen auch wenn dein Vergleich nicht passt. Denn performance kann man nie zu wenig haben, nur was bringen mit 5% mehr wenn dafür 100% Leistungsverbrauch drauf kommen. Leider finde ich entwickelt da nVidia schon seit jahren in die falsche Richtung, hauptsache Power, egal um welchen Preis(zumindest bei der ersten Revision).
 
@darkalucard: das wird auch so bleiben beim failmi. um einen deutlich vorsprung zubekommen müssen sie das chip design ändern, werden sie aber vorläufig nicht machen.
 
@cheech2711: Einerseits geb ich dir Recht was das PL Verhältnis bei ATI Karten betrifft, allerdings macht es wenig Sinn dies mit der Leistung und Geschwindigkeitsbegrenzung zu vergleichen, ansonsten würd den meisten wohl auch ein Mofa reichen :D
 
@KlausM: war auch mehr auf das vorhandene Spielematerial bezogen, mit einer 5850 bin ich ausreichend bedient udn versorgt. Ich finde den ganzen Hype um Nvidia, die einfach nur einen Namen (Papiertiger) haben unglaublich. Immer mal wieder was in die Welt schicken, damit man Sie nicht vergisst.
 
@darkalucard: Könnte man ja mal erwarten in Anbetracht der Zeit die sie sich gelassen haben. Nvidia scheint sich seiner Sache ja sehr sicher zu sein. Wobei ich sagen muss, die ersten Benchmarks sehen nicht schlecht aus. Allerdings wird die erste Generation sicher wieder den netten Nebeneffekt haben, dass man sie als Heizlüfter aka Stormfresser benutzen kann. Bin ja mal auf die Preise gespannt. Wird sicher net so lustig.
 
@darkalucard: Auf Gamestar stand grad ne geleakte Info zu den neuen Grafikkarten. Demnach sollen sie generell nur minimal schneller in Spielen sein als AMD-Karten. In der Spezialdisziplin "Tesselation" sind sie hingegen 3x so schnell, was für Spiele aber eher wenig bringt. Sollte das stimmen, kann Spieleperformance nicht das Totschlagargument sein.
 
@darkalucard: Ich denke auch, dass das alles heiße Luft ist. Die bekommen ihre Karten nicht vernüftig zum Laufen. Eigentlich wird neue Hardware immer auf der Cebit vorgestellt. Wenn sie das schon nicht schaffen...bla bla.
 
@k.schweder: fermi=termi=heiss=vapor ware 2010? aber hauptsache, das viech kommt sodaß der markt preistechnisch nach unten immer schön in bewegung bleibt...
 
@muesli: noch ist sie nicht da... nvidia haelt alle schon seit fast einen jahr am warten, und sie sagen nur das sie gezeigt wird, nicht das sie ab diesen moment verkauft wird....
 
Ganz ehrlich ich finde es gut das alles mal langsamer geht! Sicher ist der Hauptgrund nicht das Nvidia sich zeit lassen will sondern weil die Produktionsprobleme haben. Aber würden sich alle generell mal etwas mehr zeit lassen wäre es auch für den Kunden sehr schön!
 
@Nudelsose: aha na genau, deine frau sieht das bestimmt genau so
 
@IcE*T: made my day xD
 
@Nudelsose: Wenn du das so siehst, dann kauf dir doch ne Konsole. Da biste für ein Jahrzehnt an die selbe Hardware gebunden. Das ist doch gerade der große Vorteil vom PC, dass man ständig etwas verbessern kann.
 
@c80: Ich finde das Nudelsose schon recht hat, lieber in ruhe die entwicklung abschliessen als voreilig aufn markt kommen und ein fehlerhaftes produkt liefern. Wenn sie das tun würden, würde doch gleich wieder jeder flamen, warum sie sich keine Zeit gelassen haben!
 
@Nudelsose: Schön das ihr alle so reich seit und euch jedes halbe jahr ne neue Graka für mal eben 500 öken leisten könnt! das ist ne menge asche! aber jeder hat seine meinung!
 
@Nudelsose: Nunja, man kann immer was verbessern, man muß aber nicht. Ich habe mir 2006 ne 8800GTX gekauft und die hat immer noch genug Dampf für aktuelle Spiele. Natürlich könnte ich jetzt mit ner DX11-Karte nochmal ne Schippe drauflegen, aber ich muß halt nicht. Ich denke ich warte mal entspannt bis echte Benchmarks da sind und dann kauf ich mir ein passendes nVidia-Modell. Oh, und nen neuen, größeren Monitor ^^
 
jepp bin auch mal gespannt auf die neuen Fermis. Nach so lange Entwicklungszeit...
 
@Amoxxkk: eher problemebeseitigungszeit ;)
 
Ich wünsche Nvidia, das sie mit der karte wirklich meilenweit vorne liegen werden und wünsche dem käufer, das diese werte auch im bezahlbaren rahmen liegen. ansonsten hat nvidia lange zeit keinerlei einnahmen. ati/amd haben momentan mit der abdeckung jeder bereiche und den recht charmanten preisen die nase vorne.
 
@Iceweasel: Komisch, dass nVidia trotz momentanem 2. Platz im Graifkkartenmarkt mehr Gewinn einfährt als AMD.
 
Nvidia Zahlen: http://tinyurl.com/ybjorjg - AMD Zahlen: http://tinyurl.com/yl95et6
 
@Iceweasel: Ach, du bist auch einer der die Strafzahlungen von Intel mit in die Gewinn- und Verlustrechnung einbezieht? Also ich nicht. Ist mir zu gefährlich weil dann jeder meint AMD wäre übern Berg. Aber nächstes Quartal/Jahr gibts wohl keine Gratiskohle von Intel.
 
@DennisMoore: "ich" habe diese auflistungen nicht erstellt. es mag sein das im nächsten quartal die zahlen anders aussehen. das streite ich doch auch garnicht ab. ich wünsche nvidia und amd glück - fertig aus - warum diskutieren wir auf so einer plattform?
 
@DennisMoore: Einfach mal komplett lesen: "Wie erwartet, hat besonders die Grafikabteilung stark zulegen können, was Umsatz und vor allem Gewinn angeht. So stieg der Umsatz dort im Vergleich zum Vorquartal von 206 auf 427 US-Millionen Dollar, wobei der Gewinn gleichzeitig von 8 auf 53 Millionen US-Dollar anwuchs. Damit hat AMD nun schwarz auf weiß, dass die Evergreen-Serie (Radeon HD 5000-Reihe) ein voller Erfolg ist." Quelle: http://www.hardware-infos.com
 
@Stefan1200: Schön dass sie mit den Grafikkarten Gewinne machen. Ändert aber nichts daran dass sie damit die "negativen Gewinne" der CPU-Sparte nicht ausgleichen können und somit Verlust machen wenn Intel nicht grad ne Milliarde an Strafdollars überweist.
 
@DennisMoore: Das ist richtig. Aber da es hier um den Grafikkartenmarkt geht, sollten wir das getrennt betrachten.
 
ich bin gespannt auf die Preise - ich möchte demnächst auf 2 neue monitore mit full-hd gehn - und da brauch ich leistung damit ich spiele auch noch in der nativen auflösung gut spielen kann - und da kann ich mir so ne fermi sehr gut als leistungsbringer vorstellen.
 
So und ich schreibe es auch nochmal: Ich bin auch gespannt !!
 
@citrix: aha ein Spanner also :-))))
 
@citrix: entspann dich lieber! kann auf die dauer nicht gut sein immer gespannt zu sein
 
und ich würd die am liebsten schon iwo vorbestellen :D
 
@EliteU2: Obwohl du nicht weißt, was du bekommen wirst?
 
@satyris: da ich mir auf keinen fall ne ATI holen will und noch auf einer 9800 gt hocke... ja :)
 
@EliteU2: Von Leuten wie Dir lebt die Branche, bravo!
 
@rallef: war das jetzt ironie? aber ist doch so.. kann nur besser sein :)
 
@EliteU2: was heißt KANN nur besser sein, wenn sie nicht besser ist fast 4 monate nachdem ati gelauncht hat, ich bin der meinung das man die beiden karten sowieso überhaupt nicht mehr vergleichen kann.
 
@EliteU2: Ganz ehrlich, Schema bzw Schubladendenken ist nie der richtige Weg. Im Bereich Technik sollte man nach P/L gehen, nicht nach Marke. Ich bin mit ATI und nVidia grundsätzlich gut gelaufen und hatte bei beiden auch schon (kleinere) negative Erfahrungen
@ Ice*T: Nur viele gehen hier davon aus, dass die Fermi später gelauncht wird, weil sie "weiterentwickelt" wurde. Fakt ist aber das ein großteil der Verzögerung wohl durch Lieferengpässe und Probleme in der Chipherstellung kamen, dass ist auch der Grund warum ich mir da nicht so sicher bin.
 
@darkalucard: hast schon recht mit den lieferengpässen von TSMC aber auch das drumherum, was NVIDIA hier gemacht hat gefällt mir nicht, wer zu Messen oder Präsentationen eine zusammengeschusterte karte in der Hand hält hat für mich nur kriminelles im sinn. Das ist für mcih reine Lügerei, abgesehen davon kannst du nicht rein von den lieferengpässen aus gehen, die hatte ATI auch und trotzdem sind die karten draussen, das liegt aber mehr daran das die karte schlicht und einfach eher fertig war.
 
@darkalucard: Ich leg aber nicht soviel wert auf P/L. Ich schau lieber nach Leistung,aber das ist ja jedem selbst überlassen.
 
@IcE*T: gehe mal auf eine elektronikmesse und frage dort mal bei den ausstellern rum, wieviele der präsentierten geräte dummies sind und ob die firmen nur kriminelles im sinn haben, wleche lediglich dummies präsentieren...
 
@IcE*T: "was heißt KANN nur besser sein, wenn sie nicht besser ist fast 4 monate nachdem ati gelauncht hat" ... Er meint wohl dass sie nur besser sein kann als seine aktuelle 9800GT. Das glaub ich auch :)
 
@klein-m: es ging weniger darum was die hersteller bei messen machen, aber wenn ich als chef von nvidia zu einer präsentation eine nicht mal halbwegs glaubwürdige karte in der hand halte , wo die kamera von weiten einfängt das die stromanschlüsse nicht verlötet sind und und und... sorry da läuft etwas gewaltig schief...

und ja ich war nicht nur einmal auf einer elektronikmesse
 
@IcE*T: Nein da geht gar nichts schief, sondern dass nennt man gratis Marketing! Jeder erwartet etwas von Nvidia und damit die Firma im Gespräch bleibt präsendiert man halt was, auch wenn es nicht fertig ist. Ich favorisiere keine keine Firma, für mich kommt es auf das PL an! Ich finde nur herrlich wie die ATI/AMD Befürworter hier in WF jetzt aufeinmal in den Grössewahn verfallen nur weil ihr Favorit Hersteller einmal schneller war. Denkt doch einmal ein paar Jahre zurück........, die Welt dreht sich weiter und einmal ist der und das andere Mal der andere schneller. Was ist DX11 schon jetzt wert? Zum Einsatz kommt es erst bedingt und ist noch keine Notwendikeit da die Software noch nicht überall mithalten kann. Also wird hier ein Vorsprung zu etwas hoch gehypt was im täglichen Gebrauch noch keine Notwendigkweit ist. Abwarten Tee trinken und die Firmen sollen ruhig konkurrieren und wir Kunden haben dadurch, wenn es gut geht einen Vorteil!
 
@IcE*T: Zumal es von ATIs Oktober 2009 bis NVidias (Gerüchte) Mai 2010 sogar mehr als 4 Monate sind.
 
@Ruderix2007: Ja natürlich isses noch nicht so ein Feature, was man wegen der großen Spieleauswahl braucht. Aber bedenke doch mal einfach, dass man sich ja nicht einfach ne neue Grafikkarte kauft so schnell, viele haben noch eine NV 8xxx (immerhin schon über 2 Jahre alt), da ist dann DX11 schon mehr Standard als neu. Ich persönlich sehe natürlich Konkurrenz als belebend an und erwarte ebenfalls erst Fermi, bevor ich mir eine neue Grafikkarte hole. Denn, auch wenn ich dann eine HD 5xxx oder vll schon HD 6xxx nehme und keine Fermi, es bringt mir doch einen neuerlichen Preisrutsch.
 
@Stefan1200: Und? Was solls, wie oft hast du Dx11 schon ehrlich gebraucht?
 
@ZECK: Kann ich dir nur zustimmen, ich habe immer noch 9600GT, ist nach heutigem Masstab ausreichend, aber alt. Keine Problem bei den Spielen usw., darum kann ich den Hype auch nicht verstehen, wegen ein paar Monate früher oder später. In der Regel kauft man sich nicht jedes Jahr eine Neue und wenn es eine Technoligie-Schub gibt wie jetzt, hat man immer genug Zeit. Ich warte genau so wie du ab und vergleiche, dann kaufe ich wieder eine Neue!
 
@Ruderix2007: nein nein da hast du mich völlig falsch verstanden, ich bin weder fanboy von ati noch von NVIDIA, und gehe auch nach dem P/L Verhältniss, in meinem Rechner werkelt auch zur zeit eine NVIDIA karte.
 
@Ruderix2007: Bis vor einem Monat hatte ich sogar noch eine Dx9 Graka. Bin da also nicht so sehr hinterher. Wollte lediglich die Zahl korrigieren. Soweit ich weiß, hat ATI für den Sommer auch schon wieder ein Refresh angekünfigt. Wird auf jedenfall interessant ob ATI sich dann direkt nach dem Fermi Release wieder die Spitze zurück erkämpfen kann :).
 
@Ruderix2007: der unterschied zu dir wird halt sein das viele leute sehr großen wert auf gute grafik legen. mit einer 9600GT schauen die games doch voll kake aus sry ;). es muss nicht immer die teuerste und schnellste karte sein. eine 5770 z.b. kostet nicht viel und hat genug power um alle games in top qualität und 1920x1200 zu spielen. und wenn irgendwann mal die leistung einbricht gibt es noch die CF lösung.
 
@IcE*T: und wo liegt nun der unterschied zwischen einer präsentation und einer präsentation auf einer messe?... präsentation bleibt präsentation... zumal es bei einem dummie doch mal vollkommen wurst ist, ob da nun alle teile funktionsgerecht gelötet sind oder ob der lüfter funzt oder nicht, sowas stellt nur das aussehen da... für die funktionsweise gab es prototypen hinter den kulissen... und warum sollte der chef mit einem funtionstüchtigen modell auf der bühne auftauchen, bei einer situation, wo nvidia eine total beschissene ausbeute hatte, weil es komplikationen bei der chipherstellung gab?... wie kann man sich auf ein dummy sowas einen drücken?... er hat doch keine auto vergestellt, wo es mehr um das design geht als bei einer grafikkarte...
 
@EliteU2: Ist doch ne geile GraKa.
 
Da haben wir also alle auf die für heute angekündigte Mitteilung gewartet damit Nvidia dann wieder nur einen neuen Termin Ankündigt - lächerlich.
 
Bin auch langsam gespannt was nVidia da raushaut. Wenn die Karten wenigstens gleichauf mit den Radeons liegen werde ich mir sicherlich ne Fermi-Karte holen, auch wenn sie ein bißchen teuerer ist. Die Zusatzleistungen von nVidia sind mir das Geld wert. TWIMTBP, CUDA, sehr gute, unproblematische und übersichtliche Treiber, etc. etc. Zudem sind sie ja explizit als GPGPU gebaut worden, weswegen ich mir deutliche Vorteile in Anwendungen abseits von Computerspielen erhoffe.
 
@DennisMoore: Vergiss nicht die höhere Verbrauchsleistung. Immerhin bräuchtest da von AMD schon mindestens 2 Karten (oder halt eine 5970 mit 2 GPUs) von daher ist das P/L Verhältnis bei Nvidia doch ideal (jedenfalls wenns einem ums Strom verbraten geht) ;-)
 
@DennisMoore: endlich mal jemand! diese ganze gelaber von ATI. Bürografikkarten, mehr nicht ;-) Das gleiche Theater ist dann wieder wenn ATI zu spät ne Grafikkarte rausbringt: "Die gehen pleite, werden aufgekauft, total schlecht, NV rules, bla" ... nur kids hier! nvidia verfolgt in letzter zeit einen ganz anderen weg! merken anscheinend nur die wenigsten, die denken, high-end grafikkarten sind das meist verkaufte und ein "gradmesser".... lächerlich. auch das umlabeln der chips, aus sicht des wirtschaftingenieurs, bravo! die verkaufen ordentlich davon, immer unter neuem namen und leicht verbessert, spart entwicklungskosten, produktionskosten, usw. einfach nur mehr als gewinnbringend ...nvidia hat es voll drauf ;-) oder warum denkt ihr gibt es media markt noch wenn doch jeder im internet kaufen könnte für viiiiel billiger?? ich bin doch nicht blöd ...
 
@ARGHH: "Nvidia verfolgt in letzter Zeit einen anderen Weg"? Bravo! Jetzt gucken wir uns diesen Weg mal an: 1. Weiterentwicklung: Patentstress mit Intel. 2. Massenmarkt: Optimus erfüllt die Erwartung nicht (siehe Artikel auf bit-tech.net). 3. Highend: Fermi erscheint Monate nachdem ATI die entspr. Hardware-Generation erfolgreich auf den Markt gebracht hat - und wird sehr wahrscheinlich mit massiven technischen Problemen zu kämpfen haben und womöglich nur in homöopathischen Dosen verfügbar sein (so wie es beim Highend bei NVidia in der Vergangenheit schon Methode hatte). Da bleibt, wie Du ironisch angemerkt hast, wirklich nur das Umlabeln als Entwicklungskosten sparende Maßnahme.
 
@Aspartam: du weiß aber schon das nvidia noch "etliche" andere produkte und märkte bedient? man kann es sicherlich immer schlecht da stellen wenn man denkt, dass nvidia "nur" gamer gafikkarten usw macht. man sollte sich informieren ... dann reden!
 
@ARGHH: Und was haben Intel-Patente (die haben was mit Chipsets zu tun, und die zielen sehr wohl auf den Massenmarkt) und Optimus (eine Technik, um zwischen IGPs und diskreter Grafikhardware umzuschalten) mit Highend-Grakas zu tun? Vielleicht informierst Du Dich also in Zukunft erstmal, bevor Du redest! Ein Tipp: Wenn ich was schreibe, kannst Du Deinen A**** drauf wetten, dass ich mich vorher informiere, also halte Dich in Zukunft lieber an Deine eigenen Ratschläge statt Dich öffentlich zu blamieren.
 
@DennisMoore: TWIMTBP??? Haha. Du Spielkind! xD
 
@DennisMoore: TWIMTPB ist doch bloss ein Marketing Buzzword. OpenCL macht CUDA obsolet und läuft genauso auf ATI-Karten. Unproblematische Treiber? Du sonderst mal wieder einen uninformierten Mist ohnegleichen ab! Was erhoffst Du Dir - hier als Experte dazustehen? Lächerlich! Du bist ein klassischer Vertreter der Spezies, die bei DSDS zur Erheiterung des Pöbels vorgeführt wird, weil bei ihr der Abgrund zwischen Anspruch und Wirklichkeit besonders weit auseinanderklafft!
 
@Aspartam: OpenCL setzt auf CUDA auf, du Genie. Kein CUDA -> kein OpenCL -> kein DirectCompute. Oder hast du ernsthaft geglaubt dass OpenCL direkt mit dem nVidia-Treiber kommuniziert? Außerdem bietet CUDA viel mehr Funktionen als OpenCL überhaupt nutzt. Darum glaube ich auch dass nVidia dank CUDA einen echten Mehrwert abseits von Computerspielen bringen wird. Ich denke OpenCL und DirectCompute werden vornehmlich bei Spielen genutzt, währen CUDA und evtl. ATI Stream in anderen Anwendungen wie z.B. Videocodierung verwendet wird.
 
@DennisMoore: Du brauchst aber kein CUDA für GPGPU, Du Schlaumeier, ATI geht auch (und mit OpenCL bist Du hardwareunabhängig). Warum redest Du von Dingen, von denen Du keine Ahnung hast? Ich habe wenigstens schon CUDA und Stream Computing-Anwendungen geschrieben. DirectCompute ist ausserdem das Pendant zu OpenCL und mitnichten spielespezifisch. Tja, das ist halt der Unterschied, ob man nur davon gelesen hat oder die Sachen wirklich benutzt, Du Möchtegern-Experte.
 
@Aspartam: Egal was du auf nVidia-Boards über die Grafikkarte berechnen lassen willst (außer Grafik ^^), du brauchst immer CUDA. PhysX setzt auf CUDA auf, DirectCompute braucht es und OpenCL auch. Solltest du wirklich schon mal was an Berechnungen auf ne GPU von nVidia ausgelagert haben, ist das für mich nur der Beweis dass die Programmier-APIs eindeutig zu weit abstrahiert sind :P
 
@DennisMoore: Der Punkt ist doch aber, dass DirectCompute und OpenCL eben mit AMD und Nvidia Karten laufen, man also in Zukunft nicht auf CUDA angewiesen sein wird. Dabei ist es unwesentlich ob Nvidia hierzu weiter auf CUDA setzt, damit es nicht all zu überflüssig wirkt. Und welche Anwendungen mit CUDA Unterstützung sind denn so herausragend? Der kostenpflichtige Videokonverter mit eher mäßigen Resultaten? Oder etwa der tolle Bildschirmschoner den Nvidia anbietet? Und welche sind deiner Meinung nach diese Funktionen die CUDA bietet, OpenCL aber angeblich nicht hat? Beispiele?
 
@Patata: OpenCL und DirectCompute laufen aber nur auf beiden Karten WEIL sie CUDA, bzw. ATi-Stream unterstützen. Deswegen sind CUDA und Stream auch nicht überflüssig sondern notwendig. Und wenn du wirklich wissen willst was CUDA bringt und welche Anwendungen davon profitieren und aus welchen Gründen, dann schau dir doch einfach mal die zugehörigen Webseiten bei nVidia an. Ich glaube nicht dass das hier der richtige Ort oder das richtige Thema ist um das alles breitzutreten.
 
@DennisMoore: Kurz: Du wüsstest nichts was OpenCL und DirectCompute nicht könnten und kannst allenfalls auf Nvidia's PR Gedöns verweisen. Ok ^^ Und klar wird bei Nvidia CUDA und bei AMD Stream genutzt. ABER dank OpenCL und DirectCompute wird es egal sein welche Karte man nutzt, da es OpenCL und DirectCompute letzten Endes ja egal ist ob die Karte CUDA nutzt oder Stream.
 
@Patata: Ich könnt dir schon was aufzählen, aber wozu dies in einem solchen Forum tun wenn es doch so schön auf der nVidia-Seite aufgelistet ist? Schau dir nur mal die letzten Posts an und dann oben das Thema. Dann weißt du was ich meine. Wenn du dich nicht informieren willst, dann lass es halt. Egal welche Karte man nutzt wird es nur bei Programmen sein, die mit den Befehlssätzen von DirectCompute oder OpenCL auskommen. Alles andere wird weiterhin in CUDA geschrieben, weil ATi-Steam immer noch nicht ordentlich vermarktet wird. Deshalb gehe ich davon aus das ne nVidia-Karte auf lange Sicht die bessere Kaufentscheidung ist.
 
@DennisMoore: Es wird in Zukunft eher dahin gehen, dass OpenCL und DirectCompute Unterstützt werden statt direkt Ati Stream oder Nvidia CUDA. Weil warum sollte ein Entwickler auf eine Technik setzen, die nur von einem Teil der verfügbaren Hardware unterstützt wird? Daher wohl auch kein wirkliches Marketing seitens AMD für Stream, denn wieso jetzt noch auf Stream only Anwendungen setzen statt auf allgemeine Standards? Aber klar, Nvidia ist ja bekannt dafür lieber was eigenes zu fabrizieren und andere auszuschließen. Die Zukunft wird letztendlich zeigen ob diese Strategie wirklich so klug ist.
 
@Patata: Ähm, nVidia ist eine der treibenden Kräfte hinter OpenCL und übernahm sogar den Vorsitz der Arbeitsgruppe die es der Khronos-Group vorgeschlagen hat. Dein Kommantar zeigt mir also dass du die nVidia-Seiten immer noch nicht angeschaut hast. Warum man CUDA statt OpenCL oder DirectCompute verwenden könnte habe ich jetzt auch schon ein paar Mal erwähnt. Der Funktionsumfang ist nicht der gleiche. Außerdem kann man, wenn man CUDA unterstützt, Anwendungen schreiben die auf nVidia-Karten und auf Teslaprozessoren laufen. Aber davon hast du sicherlich auch noch nichts gehört, weil du die nVidia Seiten meidest. PS: Ich freu mich schon auf die Jammerei wenn bestimmte Anwendungen nicht aus genannten Gründen auf OpenCL oder DirectCompute zurückgreifen. Dann unterstellen alle wieder Bösartigkeit oder dass sich Spiele- oder Programmhersteller kaufen lassen. Und es wird natürlich behauptet dass all das was erforderlich ist auch mit OpenCL oder DirectCompute machbar gewesen wäre. Und das alles weil man sich nicht richtig informiert.
 
@DennisMoore: Noch immer hast du aber absolut kein Beispiel dafür genannt, was mit CUDA geht, aber nicht mit OpenCL oder DirectCompute. Dies war dein Argument. Also musst du doch bereits Beispiele kennen, was hintert dich also daran auch nur ein einziges zu nennen? Wenn Anwendungen dann immer noch CUDA verlangen, dann doch wohl eher nur weil Nvidia eben die Entwickler entsprechend finanziell unterstützt und nicht weil es nicht anders ginge. Aber was bemühe ich mich hier überhaupt? Du warst ja auch der Meinung, dass Nvidia den Support unter anderem für Ageia Physix Karten in Verbindung mit nicht Nvidia Karten abgesägt hat, weil sie das ja nicht unterstützen können / wollen. Würde Nvidia die abgesägte Attrappe zum Verkauf anbieten, die sie vor einer weile zeigten, wärst du wohl auch der erste der sie sofort kaufen würde. Vielleicht mit der Begründung, dass man die anders als die Konkurrenz so schön als Kaminanzünder nutzen kann ^^ "Anwendungen schreiben die auf nVidia-Karten und auf Teslaprozessoren laufe" Und OpenCL Anwendungen z.B. würden dann auf Geforce, Teslaprozessoren, und auf jeder anderen Grafikhardware laufen die OpenCL unterstützt und nicht nur solchen die Nvidia herstellt. Was ist dann also noch der Vorteil an CUDA?
 
@Patata: "Was ist dann also noch der Vorteil an CUDA?" ... Lies die Seiten selbst. Ich kau dir nich alles vor. Wenn es dich so dolle interessiert solltest du schon längst auf nvidia.de unterwegs sein, statt hier ellenlange Texte zu schreiben. Beispiele stehen da übrigens auch. Wüßte nicht warum ich das jetzt per Copy&Paste hier einfügen sollte.
 
@DennisMoore: Ähm weil das vielleicht so ist, wenn man meint Argumente für seinen Standpunkt zu haben? Nur eine Funktion, die CUDA bietet, aber mit DirectCompute oder OpenCL unmöglich sind. Ist das denn schon zuviel verlangt? Immerhin war dies dein Argument für CUDA, dass OpenCL und DirectCompute eben bestimmte Dinge niemals können werden. Also welche? Dann kann ich auch sagen OpenCL und DirectCompute können mehr als CUDA. Willst du wissen was?
Kennst du das Internet? ^^ Zumal nvidia.de genau so wie AMD.com wohl kaum als objektive Informationsquellen zu betrachten sind. Klar ist bei den einen CUDA und bei den anderen Stream die beste Erfindung seit geschnitten Brot
Nachtrag: Gerade solche Benchmarks: http://www.planet3dnow.de/vbulletin/showthread.php?t=371136&page=3 zeigen auch den Grund für das Interesse seitens Nvidia an reinen CUDA Anwendungen festzuhalten. Es wird sich zwar noch zeigen müssen wie die nächste Generation von Nvidia Karten abschneiden wird, aber gerade weil man die 8800GT ja nun wieder als neue Serie vermarkten will (GT330) ist es wohl nicht so gut wenn man da im Bereich OpenCL und DirectCopute kein Land sieht im Vergleich zu der HD4XXX und erst recht HD5XXX Reihe ///// Nachtrag2: http://www.digitimes.com/news/a20100225PD202.html Also bei den Preisen müssen die Karten ja deutlich mehr bieten und CUDA deutliche Vorteile gegenüber allgemeinen Standards haben um diesen zu rechtfertigen.
 
welche Karte Schlussendlich besser sein wird ist doch egal! Hauptsache die Konkurenz Seitens AMD/ATI und NVIDIA ist wieder belebt auf dem Markt denn nur so kommen wir wieder in den Genuss von Neuerungen zu Adäquaten Preisen....
Zum anderen können sich die Fan-Lager wieder Streiten welche besser ist... Ich schaue da immer gerne zu :-) ist entspannend...
 
Also wenn das alles stimmt was man im Netz über Fermi findet dann kann sich Nvidia warm anziehen ich glaube nicht das die alt eingeseßen Nvidia liebhaber derren spielchen noch weiter mit machen unzählige umbenennungen und dann die neue fermi die im 2d modus mit 70% lüfter geschwindigkeit 70°c das kann echt hart werden will nicht wissen was dann erst im 3d modus alles passiert von Bild fehlern über abstürze und und und. Ich hoffe das Nvidia einfach nur falsche infos gestreut hat um ATI/AMD im glauben zu laßen das sie die besseren sind.
 
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/ - ist natürlich (informierte) Spekulation, aber NVidia größte Stärke war schon immer werbewirksames Tamtam - Wahrheit hin, Wahrheit her - und nicht Hardware oder Treiber. Damit haben die schon 3dfx kaputt gekriegt.
 
Dann kann man die Fermi Karten passend zur neuen HD6000 Serie kaufen?
 
Ic h schaue auch eher auf leistung statt auf preis/leistung.

Ich werde die schneller karte kaufen (NVIDIA) ;-)

Würde ich auf Preis Leistung schauen würde ich auch kein Auto mit 300 PS fahren :-)
 
@djfussel: mal ganz von der anzahl der ps abgesehen, sollte ein auto natürlich sicherheit bieten und einen klitzkleinen aber feinen anteil an komfort .... der vergleich ist sowas von daneben.
 
@Iceweasel:

Ein Auto BJ 2008 sollte doch genug sicherheit und kofort bieten oder ?
 
@djfussel: was hat den das BJ damit zu tun?
 
@Iceweasel:

Ich denke ein 335i BMW würde deinen ansprüchen auch genügen ?!

Mal abgesehen vom spritverbrauch.

Habe mir auch damals den Core I7 965 extreme gekauft und werde mir im märz den 6 Kerner von Intel kaufen.

Leistung kann man nie genug haben.
Aus Basta !!!
 
@djfussel: Naja, Leute die mit solchen Dingen nur rumspielen sollten solche Dinge gar nicht erst bekommen dürfen. Es gibt auch sinnvolle Sachen die man mit hoher Leistung machen kann. Du weißt doch gar nicht wie man mit solchen Dingen umgeht.
 
@djfussel: oh man. sorry aber du scheinst echt oberflächlich zu sein. wenn du nur danach gehst was neu und toll ist. meine persönlichen ansprüche sind doch mal völlig banane? wenn ich sage: komfort und sicherheit ist das ein allgemeines thema was wenig mit persönlichen ansprüchen zu tun hat. und ob du nun 1000 euro in den gulli schmeißt oder sie dir an den hintern anheftest, es ist mir egal. mir ging es nur darum, das dein vergleich nicht wirklich zu gebrauchen ist.
 
@djfussel: lööl was is datt denn für ne aussage du käufst dir die oberklasse graka die zb. 10% schneller ist u. dazu 30% lauter und bezahlst 200 euro mehr wassn shize. so sieht es mom. auch bei ati aus vergleiche mal die 5970 mit der 5870 also ich habe mir die 5870 geholt weil sie leiser ist^^
 
@djfussel: jaja wenn man keine Eier hat braucht man ersatz gell? =)
 
@psyco363:

Nur weil ich es mir leisten kann ? Biste eifersüchtig ?
 
@djfussel: Das heißt "neidisch". xD Womit machst du denn dein Geld? Mit Drogen? xD
 
@njinok:

Nein witzbolt, es gibt genügen gut bezahlte jobs in der freien markwirtschaft.

@ Iceweasel

ich war zufälliger weise auf deiner homepage ;-)

Und wollt dir nur sagen dass ich auch ein Iphone 3GS hatte, es aber verkauft habe da ich mir das neue holen werde.

Ich habe es damals aus Amerika gekauft für 400 euro neu !!! (Ebay) und es hier verkauft für 470 Euro gebraucht. So kostet mich das neue nicht mehr ganz so viel. Das selbe mit der CPU.
 
@djfussel: Schön das du auf meiner Seite warst, nur leider besitze ich garkein iPhone 3GS ... sorry, da scheinst du dich verlesen zu haben ...
 
@djfussel: Du arbeitest also in den USA? Hier in Deutschland haben wir nämlich eine soziale Marktwirtschaft und keine freie Marktwirtschaft. Ich als Arbeitsloser hab soviel mehr Ahnung als du. Irgendwas läuft hier in Deutschland ganz gewaltig schief. ^^
 
@djfussel: Ich will dir nicht zu nahe treten, aber das Einzige was ich von dir lese ist, dass du mit deinen "Spielzeugen" rumprollst aber scheinbar selbst nichtmal ne Ahnung hast, was du mit ihnen anfangen kannst (Stichwort: "MAN BRAUCHT IMMER MEHR LEISTUNG"). Und jetzt fang mir nicht mit neid an. ich bin nur wenig materiell interessiert, habe meinen potenten PC und das reicht mir, aber ich weiß warum/wofür ich mein Geld ausgegeben habe. Du weißt nur, dass du (ne Menge) Geld ausgegeben hast ;) Und bei deinen Rechtschreibfehlern kann ich dir auch kaum glauben, dass du so einen gut bezahlten Job besitzt... Vermutlich eher jemand mit zu großem Ego und zu kleinem... ne ;)
 
@djfussel: Wollte Dir nur mitteilen, dass darkalucards Antwort an Dich nichts hinzuzufügen ist. ;)
 
@djfussel: nein von "neidisch" oder eifersüchtig kann nicht die Rede sein. Ich fahre Golf 2 und bin zufrieden mit meinen 100 PS Aber anscheinend bist du nicht zufrieden mit dem was du hast, das ist auch das Problem an viel Geld. Man wird nie zufrieden sein. Da man einfach immer das neuste hat ohne zu Sparen und sich darauf zu freuen. Wenn ich mir einen PC für 3`000 Franken leiste hab ich sicher 6 Monate oder 1 Jahr gespart und freu mich dann ihn auch zusammen zubauen und benützen. Du hingegen kannst all Monat anscheinend einen neuen PC leisten. Wo ist da der Spass? Bist jetzt du neidisch? =) Edit: Weniger schreibfehler
 
@djfussel: aus deinen Aussagen geht hervor, das nur der Preis der Hardware zählt ... also so interpretiere ich diese... und des weiteren brauchst du den Rechner dann für SOHO-Arbeiten? naja wenn du ein Ferrari kaufst um damit in der Stadt spazieren fährst um zu zeigen was anders wo fehlt... dann mach das aber wenn du meinst das du dieses Verhalten noch Rechtfertigen musst tust mir leid ....
 
@djfussel: mach dir nix draus.;) wenn ich das geld hätte oder besser gesagt wenn geld bei mir auch keine rolle spielen würde dann würde ich mir auch das schnellste und beste kaufen. da ich es nicht habe bin ich auf P/L angewiesen wie sehr viele andere auch
 
Und? wat soll das ding dann kosten? 800€ ?. Werden se etwa genauso übertreiben wie Intel? :). Nenene ;) ich bleibe bei AMD :-) . Nurzu gibt mir minus :-D
 
@Flooceemely: ne nee bekommst nen super + von meiner einer ;-)
 
besitze selber eine 5970 und bin mehr als zufrieden mit ihr..zu djfussel, dein name passt irgendwie zu dir, du redest deinen mund fusselig,aber echt. es interessiert keine wurst hier, ob du einen gut bezahlten job hast oder nicht.erzähl das von mir aus deiner mama,aber verschone uns mit deinem gefussele.
 
@Dark9: darf man fragen wie warm deine graka im leerlauf ist?! das würde mich mal intressieren
 
@Boskops: Zwar keine direkte Antwort, aber wenn HD 5870, dann nur Vapor-X (oder Wakü wenn man das mag). Ich hatte ne 4870 mit Standardkühler (Sapphire), die sehr laut wurde und mir irgendwann abgeraucht ist (und mein Gehäuse ist eigentlich gut belüftet). Der Ersatz war ne 4890 Toxic (Vapor-X übertaktet), die leise ist und vergleichsweise kühl bleibt. Es ist den Aufpreis wert.
 
@Boskops: Wieder keine direkte Antwort, aber ggf. trotzdem interessant: http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5970/index10.php
 
wakü ist ja eh (standart) drinne bei der 5870 darum nur bei 40 grad leerlauf!!!
 
also bei der 5970 hab ich 52 grad im idle. sie taktet im idle mit 157 / 300 mhz. bei last taktet sie automatisch hoch.
 
nvidia will im märz eine grafikkarte zeigen :) hoffentlich können sie das auch :D gewollt hätten sie das bestimmt schon früher
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles