Desktop-Grafikchips: Hersteller nVIDIA vor ATI

Hardware Den Ergebnissen einer Studie von Jon Peddie Research zu Folge konnte nVIDIA seinen Konkurrenten ATI dank des erfolgreichen Verkaufs von Desktop-Grafikchips vom zweiten Platz auf dem Markt verdrängen. Im Allgemeinen aber folgt nach Intel (41,8 ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Derzeit bietet auch Nvidia die besseren Karten. Vor allem die Geforce 7800 GT Preis-leistungsmäßig sehr gut
 
@Hakan: Preismässig? Sicher? 800DM für eine Grafikkarte, auch wenn sie High-End ist? Oki doki...
 
@Hakan: Wenns meinen also Ich war immer von ATI begeistert ! Was dieser Test von zdnet belegt. Also jedem das seine........

http://www.zdnet.de/enterprise/client/0,39023248,39137094,00.htm
 
Also führt Intel in Sachen Grafikchips mit 41,8%? Oder verstehe ich was falsch?
 
@Mikka: Ja, das verstehst du vollkommen richtig. Das liegt aber größtenteils an den ganzen OnBoard-Grafikchips von Intel.
 
@Mikka: Wer weiß wie es bei den mobilen Chips aussieht. Da ist ATI dann weiter vorne.
 
@+++Koma+++: ...die meiner Meinung nach für die meisten PCs absolut ausreichend und auch gut sind. Habe in meinem Lappy eine i855GM, die mit Q3 noch gut zurecht kommt, und das reicht eigentlich. Bin aber selbst überrascht, dass die Leistung der intel-Karten garnicht mal so schlecht ist.
 
Auf jedenfall ist es erfreulich zu sehen, dass der Konkurenzkampf immernoch vorhanden ist und keiner der Hersteller "weit nach hinten" gerutscht ist. Ich hoffe das auch noch sehr lange so bleibt, schliesslich profitieren _wir_ ja davon :-)
 
@play or Die: aber auch nur zum teil. man siehts ja ati und nvidia wollen sich ständig übertrumpfen, was man am stromverbrauch und den neupreisen sieht :(
 
@play or Die: Endlich mal jemand, der das Ganze objektiv betrachtet! Ohne diesen Druck wären die Preise viel höher und die Entwicklung würde nicht so rasant voran gehen.
 
@play or Die: Es wäre uns aber auch noch viel hilfreicher wenn S3 oder XGI wirklich Kokurrenzfähige Grafikchips präsentieren würde.
Aber das wird wohl noch ein paar Jährchen dauern. Also zumindest würde ich S3 relativ gute Chancen einräumen, die Nummer 3 im Segment der Desktopchips zu werden.
 
@play or Die: Ich befürchte, dass die Entwicklung von solch hohen Technologien wie ATI und nVisia verwendet so kleinen Herstellern schwer fallen zu entwickeln, bzw schneller als die beiden
 
@ [Elite-|-Killer] : S3 ist bestimmt nicht klein, ist ja schließlich ein Tocher von VIA
 
@play or Die: Im Verhältnis zu nVidia & ATI ist ihr Entwicklungsbuget ein Witz, denk ich mal
 
@all: Warum reden hier eigentlich alle von klein im Zusammenhang mit S3? Weil sie bei Heimanwendern und 'Gamern' derzeit keine Konkurrenzfähigen Karten auf den Markt bringen??? Ich weiß zwar im Moment nicht, wie ihre Position im Profibereich ist (man denke an Matrox),mir fällt im Augenblick nur wieder ein, dass S3 vor 10 Jahren so ziemlich die ersten wahren, welche Grafikchips mit 3D-Beschleunigung auf den Markt brachten. Und alle fragten sich, wofür sie DAS denn brauchen würden... CHips wie der Virge, DX (64) usw. sind ja eigentlich schon... nunja, sagen wir mal, semilegendär. Im Augenblick haben sie, was den Heimbereich angeht, aber schon ein kleines Defizit. Allerdings habe ich von ihnen schon in CHipsets integrierte Grafikbeschleuniger gesehen, und auch auf dem Embeddedsektor treiben sie sich herum, z.B. bei Grafikchips für Handys.
 
Ich hätte nicht gedacht, dass Intel durch die OnBoard Grafik so weit vorne liegt. Dass NVidia aufholt war bei den Problemen seitens ATI mit der X1000 Serien abzusehen.
 
@DBZfan: Das liegt dran, dass die Verkaufszahlen untersucht haben (und nicht "in Betrieb befindliche"): Wenn Du Dir ein Mainboard mit Intelchipsatz kaufst, ist die OnBoard-Grafik halt in der Regel mitverbastelt, auch wenn sie effektiv nicht aktiviert ist, weil ne ATI oder NVIDIA GraKa gesteckt wurde....
 
ist mir eigentlich egal... ich bin seit dem verschwinden der voodoo-karten total eingeschnappt. das waren die besten grafikkarten der welt.
 
@schwammdrüber: Naja, egal nicht, aber die Voodoo-Karten waren echt der Hammer. Ich hab hier noch ne Voodoo 5 5500 rumliegen. Allein die Optik besticht noch heute. Träum....
 
@Billigflieger: such ma bei Google, voodoofans stellen immernoch treiber her und die sind gar nicht ma so schlecht, nur bei mir bringt das nichts, da ich nur ne Voodoo Rush habe, und die ist wirklich alt.
 
naja überrascht mich nich... ich kenne viele leute die probs mit ati karten haben...ich hatte mal ne 9600 pro da ging bei jeder 3d anwendung der monitor aus, oder nen kumpel is seine 9800 pro abgeschmiert und selbst mit meiner 6. nvidia karte hab ick keine probleme
 
@derblauesauser: du meinst die grafikkarte hat den monitor eigenständig ausgeschaltet? ich nehme mal an, dass der monitor die bildfrequenz nicht machte und dann auf standby geschaltet hat... war bestimmt der 60 hz bug :))...
 
@derblauesauser: einzelfälle - genau wie bei mir. mein cousin und (mittlerer) bruder haben beide geforce und sind unglücklich - mein kleinster bruder und ich haben ati und sind zufrieden... ist wie bei amd/intel geschmackssache und liegt am engen-freundes & familienkreis !
 
naja 60 hz bug fällt aus so doof bin ick ne hehe und einzelfall? deswegen haben 90% von den leute die ne ati haben bei mir probleme..ausser die x800 xt pe von ausus die ham nen paar und die läuft recht geil
 
@derblauesauser: Suche das Probem nicht bei Ati, sondern bei den Mainboardherstellern. Auf meinem "alten" S939 Board von MSI hatte ich auch nur Problem (allerdings nicht nur mit der GK), die R9800Pro lief und läuft aber auf einen SockelA Gigabyte Brett ohne Probleme, das gleiche gilt für meine X800XT und dem jetzigen Abit Brett.
 
Toll das wir was davon haben. Die Preise sind niedriger,na und?! Schnellere Entwicklung,immer neue Techniken und Spiele die jene vorraussetzen. Was haben wir dann wirklich davon?! Jo,man muss öfter aufrüsten und das kostet alles in allem nen Arsch voll Geld. Ich weiss ja nicht wer es hier als günstig ansieht wenn man an Graka's für über 400€ denkt. Ist ja nur ein Taschengeld. Problem nur das man so teure Graka's auch wirklich braucht um so Sachen wie Fear usw. auf Full zu spielen. Ich finde das man entwickeln sollte,keine Frage,aber man sollte mal etwas auf nem gewissen Level stehen bleiben und dann alles dafür richtig ausreizen was auszureizen ist. Man sollte eben nicht jede neue bessere Entwicklung gleich auf den Markt schmeissen und gleich als muss für aktuelle Spiele vorraussetzen. Fortschritt,gut und schön aber wer kann sich diese ewigen Sprünge leisten? Wer es nicht kann(sind wohl die meisten,sprich normal Verdiener) kann sich dann halt nur geringer Grafikpracht erfreuen,super Sache. Kannstes Geld nicht scheissen biste halt der gestrafte. Daumen hoch,so zieht man Leuten das Geld aus der Tasche!

P.s. Kritisiert mich wie ihr wollt! Fakt ist,es ist meine Meinung und die sei mir gegönnt wie jedem anderen die seine.
 
@stt: 100% zustimmung
 
@stt: seh ich ebenfalls so. damals bei der gf4 gings doch auch zu menschlichen preisen bei top leistung.
 
@stt: Ich geb Dir vollkommen Recht. Ich gurke zwar selber nur mit einer 9800Pro @XT rum, aber es reicht hin um FEAR auf hohen Details zu zocken. Die ganze Scheisse wie HDR ist eh nur übertriebene Spielerei, wo mir nicht in den Kopf geht, was an dem billigen Effekt so dermaßen Leistung frisst. Und dann müssen Games immer schöner und besser aussehen. Ist zwar auch ganz ok, aber wie Du schon sagst, sollte man auf einem bestimmten Level verweilen. Wenn man bedenkt, das bei Direct X 8.0/8.1 gerademal nur knapp 30% aller wirklich machbaren Möglichkeiten genutzt wurden, frage ich mich, ob aktuelle Games im dem Vergleich der eigentlich fehlenden machbaren Effekte nun gut oder schlecht aussehen. Aber wenn man sich mal so umguckt, fast jeder hat mindestens eine 6800GT im Rechner, der Großteil sogar eine 7800GTX. Und das sogar in Verbindung mit einem A64 4800+ oder X2 4000+. Der Großteil davon ist dann auch noch Schüler. Sachma, scheissen die alle Geld oder was? Und dann heisst es, den Deutschen Geld es schlecht und sie hätten kein Geld. Und selbst 250€ für eine Grafikkarte ist schon ne Menge Holz (umgerechnet immerhin fast 500Mark).
 
@stt: &@onki heorbi &co : wie ich schon sagte 100% zustimmung...JEDER effekt der heute erstellt wird in den spielen ist mit dx8.0 möglich... sogar hdr ist mit dx8.1 möglich... wie onki schon sagte werden nur ein bruchteil der "leistungen" der DX versionen genutzt...in den meisten games ist es immer nur 1 EFFEKT oder höchstens 2 der die sooooo guten high end karten in die knie zwingt...bei domm³ sind es die schatten & bumpmapping(kann die voodoo2 schon), bei far cry ist es die sichtweite +high res texturen auf "kurze" distanz, und bei FEAR sind es nicht die high res texturen nein es sind die partikel effekte +high res cars,....naja ich zock noch immer alles mit ner gf4 und vergleiche mit leuten die ne gf6 oder ati 9800xt haben und merk 000 unterschied auf den screenschots MFG
 
@The Master: Bestes Beispiel in Sachen schlechte Grafik, enormer Leistungshunger ist Battlefield 2. Sieht nicht wirklich besser aus als 1942, braucht aber auf max Details 2GB RAM. Also bei so einem Speicherfresser erwartet man doch mindestens die Grafik wie FarCry (Die CryEngine ist eine Engine wo man sagen kann, geile Grafik und gerechtfertigt Leistungshungrig). Aber bei sowas wie BF2 und dann die Hardware, die zum zocken auf max Auflösung und Details benötigt wird, ist total übertrieben.
 
jop hast recht stt so seh ich das auch!!!!!!!! reine geldmachrerei!!!!!
Neuestes beispiel BF2-ich seh genau vor Augen wie EA games und Nvidia zusammen sitzen und tüfteln wegen (wie machen wir das nehmen wir noch die Gforce 4 ins program oder lass ma das game erst ab g-force 5 laufen)gibts ja noch genug die ne 4 serie haben die solln sich halt ne neue Graka kaufen:(ichweiss ich weiss jetzt kommen koments wegen die 4rer serie hat ja noch kein pixelshader 1.3 ,na und aber gezoggt hätt ichs trodzdem. so thx für die aufmerksamkeit:)
 
@skelettor: Genau das ist der Grund, dass die Source Engine noch mit einer GeForce 2 oder ner Radeon 7000 läuft, mit optischen abstrichen zwar, aber MANN. Wie kann man sich blos über Entwicklung neuer Technologien und deren nutzung AUfregen, wenn man sie selbst nicht nutzten muss, wie bei Source? Leute wo ist euer Problem?
 
Möglicherweise eine Auswirkung davon, das Ati Grafikkarten unter Unics so schlecht sind. Den auch Unicser wollen gelegentlich zocken, z. B. UT2004, Doom3, Quake 4 usw. Mit Nvidia Karten geht das, aber bei Ati siehts da übel aus. Gruß, Fusselbär
 
@Fusselbär: Wo ist das Problem?
 
Bei ATi karten sieht das übel aus? das liegt wohl kaum an der Hardware!
 
@Bobbie25: Es liegt an den Ati Treibern. Die Unics Treiber von Ati sind ganz extrem besch....eiden. Wer Hardwarbeschleunigung und 3D unter Unics haben will, nimmt daher Nvidia. Gruß, Fusselbär
 
Meiner Meinung nach ist dieser ganze Streit zwischen ATI und nVidia gewollt! Ich glaube, dass beide Firmen zusammenarbeiten! Warum sollten sie sonst immer mit ihren grafikchips fast identisch stark sein? Die 2 Firmen arbeiten sicher zusammen und treiben den leuten nur desen Kampf in den Kopf damit sie sich immer alle gegenseitig übertrumpfen wollen und so immer das möglichst neueste kaufen!
 
@Demolition Man: Egal ob du recht haben magst oder nicht, Streit ist es keiner, eher normaler, gesunder Kunkurenz Kampf :)
 
@Demolition Man: Verschwörungstheorie!?  :-)
 
@ Demolition: Um ehrlich zu sein kamen mir auch schon ähnliche Gedanken. Ist schon komisch das Sie meistens sehr ähnlich performen und auch meistens zum selben Zeitpunkt kommen. Glaube nun nicht das Sie zusammenarbeiten aber komisch ist das schon.
 
@Andy2k: warum sollten sie nicht zusammenarbeiten? ich meine es sind 2 eigenständige firmen aber ich denke, dass die sich relativ oft zusammensetzen werden und besprechen mit welcher methode sie uns am besten das geld aus der tasche ziehen können! und dabei würden sie zusammenarbeiten und z.B. die Karten drosseln damit beide hersteller gleichauf sind! ok dass die 7800 gtx so viel früher vor der x1800 raus ist kann ich aber auch verstehen! erst mit der einen abräumen, die sowieso alle geforce anhänger haben wollen doch da erstma keine neue von ati in sicht ist erstma die kaufen! und dann mit ati nachziehen und dann nochma groß´mit einer noch besseren variante als der 7800 nachziehen! damit wieder geld kassieren! echt schlau die firmen!
 
@Demolition Man: ... weil es Konkurrenten sind.
 
Mal ganz ehrlich: ich habe "nur" eine Geforce 4 im Betrieb. Na und! ich weiß nicht, wieso man sich künstlich aufregt, es zwingt niemand euch, dass ihr eine neue GraKa kaufen müsst (Zudem sind die Spiele 2 Jahre nach Erscheinen auch noch deutlich günstiger) und wer mag kann ja nach zwei Jahren auf eine "neue" Generation aufrüsten (also in meinem Fall auf eine GeForce 6: das kostet dann auch nicht die Welt)
 
na geil leute ... da weiß man ja wieder nicht wo man anfangen kann!
also oben hat man sicher über dx9 aufgeregt ... aber was hat euch das denn gekostet? o_O
@onki hoerb: ich bezweifel ganz ganz stark das n GROßTEiL x2 4800+ und 7800gtx zeugs hat!!!!!!!!!
@The Master: du merkst null unterschied auf den screenshots? dann hast du wohl deutlich zu lange und zu dicht vor nem monitor gesessen der ne ganz ganz miese quali hat oder an dem das schützende bleigas entwichen ist ... den in source hab ich selbst von gf59 zu gf68 nen klaren unterschied gesehen ... mal abgesehen von den frames und ich hoffe du hast neue spiele verglichen :)
zu den Firmen is mir auch schon aufgefallen das die "ziemlich gleich pervormen" aber geld aus der tasche ziehen? nee wer sich mal anschaut was die für entwicklungskosten haben der versteht die verkaufspreise und wer sich mal mit wirtschaft beschäftigt kennt auch deren gesetze und in denen kommt sowas wie stillstand nicht vor! der markt verlangt halt immerwieder nach dem besten und das wird dann auch geliefert! ihr werdet ja keine gf4 mehr kaufen wollen also MÜSSEN sie ja was neues entwickeln
also leute macht mal die augen auf denn "stillstand = rückschritt" das kann sich NIEMAND in der wirtschaft leisten
mfg
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte