Nvidia steigt aus dem Chipsatz-Geschäft aus

Wirtschaft & Firmen Nvidia wird sich aus dem Geschäft mit Mainboard-Chipsätzen zurückziehen. Obwohl das Unternehmen diese Meldung im letzten Jahr noch dementierte, spricht die aktuelle Marktsituation eine andere Sprache, berichtet das 'PC Magazine'. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
anfang vom ende?
 
@navahoo: Ni Vida Nvidia *heul*
 
@navahoo: Der Anfang vom Ende war als AMD ATI kaufte. Das hätte nie erlaubt werden dürfen!
 
@navahoo: hallo hier ist der silbersurfer aka der sänger von kiss
 
@Bösa Bär: Sicher bin ich nett, solange man mich nicht reizt. Ich denke mal, das ist bei dir nicht anders. - - - @tommy1977: Wie war das gestrn mit 64bit? Hast noch nicht drinne oder? Gestrn war deine Laune scheinbar besser. Gut artikuliert? Btw, wenn du schon editierst, dann mach es bitte richtig. Ist ja grausig, grade bei dir GEtäucht zu lesen, wo du so ein Rechtschreib-Fetisch hast mein Freund.
 
@zaska0: Na, mehr fällt Dir nicht ein?
 
@boethius: Was, soll ich auf dein albernes Posting eingeehen? Wäre mir ehrlich gesagt zu dumm, da ich das schon zu oft gemacht habe auf diesen blödsinn einzugehen. Ich habe eine "Rechtschreibschwäche" (So heist das richtig :) )und kann damit leben (Müsste eigentlich nur langsammer tippen^^). Wenig Verstand haben die Leute, die darauf rumhacken. Also was willst du hören? [EDIT Man sollte es eigentlich pfeifen hören.
 
@navahoo: Hm... gute frage! Keine Firma kann sich solche Verluste auf Dauer leisten. Ich persönlich bin der Meinung das es um nVidia sehr sehr schlecht steht. Es fehlt innen einfach die x86er Lizenz. Die man ja versuch hat mit VIA zu bekommen, aber nicht gekriegt hat. Zu hohe kosten bei der Produktion. Verpennen des DX11 Zuges. Meldungen, das einer der Obersten pi mal daumen 260.000 Aktien verkauft, helfen da auch nicht(Sehr böser Fehler). Zeigt aber ganz genau auf, das was nicht stimmt. Wenn nicht schnell was passiert bei nVidia, ist es das ende. Da kann eine neu Garka auch nicht mehr helfen. zumal die ja auch wohl nicht konkurrenzfähig bzw. noch nicht mal fertig entwickelt ist(hierbei spiele ich nicht auf die Leistung an, sondern auf die Fertigunkosten). Dann die vielen Meldungen in der Vergangenheit das Chips fehlerhaft sind. Rückrufaktionen und so weiter. Das kann auf lange sicht nicht gut sein und wird sich rächen. Viele werden jetzt auch noch den Gedanken beiseite geschoben haben, was von nVidia zu kaufen(abwarte Haltung). All das ist früher oder später der tot jeder Firma. Und dabei Spiel das Produkt nur noch eine nebenrolle.
 
@SpiritOfMatrix: Wenn das stimmt was du sagst, dann wird bald jemand Nvidia aufkaufen, ich tippe stark auf Intel, die Grafikmäßig massiv hinterher hinken und dringend neue technologie in dem bereich brauchen. Das wird noch sehr interesant.
 
@X2-3800: Naja, da sind noch einige mehr, die in frage kommen. Einer der wichsten sind VIA, die am meisten daraus profitieren würden. Intel hat in der letzten zeit zu viel in seinen Raytracing Chip "Larrabee" investiert, als das sie Technik aufkaufen die in 1-2 Jahren veraltet ist. Schon alleine im Fertigungsprozess (Strukturgröße) ist Intel weit voraus. Was auch noch möglich wäre, das der einst größte Konkurrent AMD/ATI zuschlägt. Eine andere Möglichkeit ist der Ausverkauf von nVidia durch verkauf von einzelnen Lizenzen und Patenten(schlimmste anzunehmende Möglichkeit (siehe Comodore). Was auch nur in frage kommt wenn nVidia pleite ist). Sogar ein Aufkauf durch Mircostoft oder Sony ist vorstellbar(Konsolenbereich). Nun ja aber noch ist nichts bestätigt und beruht auf Vermutungen, Gerüchten und Meinungen. Oft hat uns die Vergangenheit gezeigt, das Tot gesagte länger leben.
 
@X2-3800: Das sollte aus kartellrechtlichen Gründen nicht möglich sein.
 
@newsman: Erst mal vor weg: "alles ist theoretisch"! Wieso aus kartellrechtlichen Gründen? Monopolstellung? Die ist ja hier nicht gegeben, da es mindestens 2 bis 3 weitere Grafikchip Entwickler und Produzenten gibt. Schon alleine AMD/ATI hält einen beträchtlichen Marktanteil und sollte AMD kaufen, hält Intel auch genug Marktanteile. Außerdem sind alle Intel, AMD/ATI, VIA usw. finanziell in der Lage selber gute GPUs zu bauen. So das es nicht zu einem quasi Monopol kommen kann. Das gilt für alle beteiligten. Berichtigt mich wenn ich falsch liege.
 
@SpiritOfMatrix: Kleine Korrektur: Die Monopolstellung hat nix mit dem Vorhandensein anderer Produzenten zu tun, sondern nur mit dem Marktanteil. Auch das Kartellrecht ist wesentlich dazu da, das Entstehen marktbeherrschender Stellungen zu vermeiden.
 
Qua vadis nVidia?!quo vadis natürlcih..
 
@newmatrixman:
Quo vadis.....
 
@elbeatz: Errare humanum est :)
 
@newmatrixman: französisch war schon immer cooler als latein!
 
@newmatrixman: Glückwunsch.
 
@Every_b: Der war gut *grins*
 
@s3m1h-44: pantomime sind cooler als gladiatoren?... aha... xD
 
@s3m1h-44: never! latein is schon alleine cooler weils nicht mehr so viele können^^ ich wünschte ich hätte das in der schule gehabt
 
@Ensign Joe: Das kennt wohl jeder, aber wird leider in der Regel nicht vollständig wiedergegeben. "Errare humanum est, sed in errare perseverare diabolicum".
"Irren ist menschlich, aber auf Irrtümern zu bestehen ist teuflisch."
 
@Viceinator: fail... mit nichten!
 
@nize: Französisch stinkt allein schon deswegen, weil man alles anders ausspricht, als man es schreibt. Ich glaube zwar nicht, dass man Latein damals so ausgesprochen hat wie man es heute tut, aber immerhin ist es da legitim. Kann immer nur wieder GBO zitieren "Das machen die Franzosen nur, um bei Scrabble beschreißen zu können".. Bordeaux gibt natürich mehr Punkte als Bordo^^
 
@Ensign Joe: die französiasche sprache ist modern. die schrift alt
 
Na hoffentlich bleiben die dann wenigstens voll im GraKa-Geschäfft
 
@Tamos: War ne Falschmeldung und wurde am nächsten Tag berichtigt (http://winfuture.de/news,50488.html), genauso wie es bei dieser News auch sein wird!
 
@gueste: Ob diese News unbedingt berichtigt werden muss ist fraglich. Die gab es nämlich schon gestern auf Heise und Co. Da wird wohl eher etwas dran sein als an der Semi-Akkuraten Nachricht über GraKa.
 
@satyris: Nein hier eben nicht. Mainboards kann nVidia sowieso nur für AMD anbieten für Intels neue CPU Generation gibt es keine Lizenz. Für die ganzen SLi Lizenzen bei Intel wird sich nVidia eine goldene Nase verdienen. Und für AMD hat man bei nVidia seit dem ATI kauf eh nix mehr übrig. Also kann ich mir vorstellen das man für AMD nix mehr macht und ION und andere Dinge pushen will. Der Markt für HomeUser es nicht sehr Gewinnträchtig da wird um jeden Euro gekämpft und nVidia will das wohl nicht mehr. Kein Mensch kauft sich zu einem Athlon/Phenom II ein nVidia Board.
 
@rockCoach: Morgen steht bei nVidia: 'Winfuture steigt aus dem News-Geschäft aus'
 
machen die jetzt überhaupt noch irgendwas?
 
@enzephalitis: vielleicht kalte Würstchen, für heiße reicht das Geld nicht mehr
 
@shadowhawk: Warum die würstchen kann man doch auf deren aktuellen grakas ganz schnell heiss schiessen :).
 
@Carp: Is'n alter Hut. Ich grille schon lange auf meinem Graka Kühler.
 
@SkyScraper: jo ich meine mit so ner wasserkühlung kann man schon gut nudeln machen (:
 
Das Nvidia für Intel keine macht is klar, wegen Patentstreit und so, warum aber keine mehr für AMD?
 
@emitter: weil die selber bessere machen :)
 
@emitter: Auch AMD hat ab 2011 CPUs mit Grafikkern.
 
@Dario: und amd gehört zu ati...bzw andersrum
 
@FallenLeave: Ähm in wie fern besser? Welche unterschiede zwischen den ATI und den Nvidia Chips gibts den (z.B.: bei dem AM3 Board, davon ausgehend das man keine IGP benutzt) Die Nvidia sind in Sachen USB/FW Speed usw. AMD voraus... Ich weiß jetzt nicht was AMD "besser" macht...
 
das das mit intels s1156 nix mehr wird hatte man ja bereits die woche bei fudzilla gemeldet: http://www.hartware.net/news_47757.html
 
Dann blaiben ja nur noch Intel und VIA übrig, oder?
 
@XP SP4: und amd
 
@XP SP4: Gibt es SIS nicht mehr?
 
@ExusAnimus: Aso, wusste gar nicht, dass AMD selbst auch Chipsätze herstellt...
 
@XP SP4: AMD hat ja ATI übernommen, und ATI stellt auch eigene Chipsätze her :)
 
@XP SP4: Dann schau mal nach AM3 MBs. Dort gibts fast nur Boards mit AMD Chipsatz. Hab derzeit selber auch ein Board mit AMD Chipsatz und CPU. Aber ich mag den garnicht. Die Treiber sind unterste Kanone. Da bin ich mit Nvidia und Intel Chipsätzen besser gefahren. Ich hoffe, dass das hier nur wieder eine Falschmeldung ist.
 
@Akkon31/41: Falschmeldung hin oder her, zur Zeit ist (leider) Intel die einzig richtige Kaufentscheidung.
 
@Akkon31/41: Ich habe auch ein Board mit AMD-Chipsatz und bin äusserst zufrieden. Das ist bei weitem stabiler als jegliches Intel-Board, das ich bisher besessen habe. Und kühl bleibt der Chipsatz auch noch, denn der braucht erstaunlich wenig Strom.
 
Ich bin mit den Nvidia-Chipsätzen bisher immer zufrieden gewesen.
 
@Megamen: Ich allerdings auch. Habe ich sogar bevorzugt. Bin mir gerade nicht sicher aber "Dual Channel" gab es doch nur auf Nforce Mainboards. Mit diesen hatte ich nie probleme und laufen auch immernoch ohne Probleme. Ich finde es schade.
 
@EvilMoe: nein, hab' einen von ATI drauf und auch Dual Channel..
 
@EvilMoe: bei amd war der speichercontroller (verantwortlich für dual channel) seit dem athlon 64 (am2-sockel?) im hauptprozessor und benötigte keinen speichercontroller extra im chipsatz mehr...
 
@Megamen: Dito. Eigentlich hatte ich für den neuen Rechner in 6 Monaten geplant, mir (wie immer) ein Board mit nForce-Chipsatz zuzulegen, aber daraus wird ja wohl nichts :(
 
@klein-m: 939-Sockel.
 
Und Tschüss! Naja... Hauptsache, man muss sich nicht nur mit den 08/15-VIA-Chipsätzen rumschlagen... Deren Grafik-Chipsätze sind nämlich erbärmlich...
 
@Taxidriver05: ...oder Cyrix.
 
@Taxidriver05: Ihren Zweck - ein Signal an den Bildschirm liefern - tun sie aber hervorragend. Und für DAS Bürogame schlechthin reicht es auch (Solitaire).
 
@monte: Ich habe mal meinen Grafikchip von IBM gebencht (die Harten kommen in den Garten). Glatte 25 Punkte im Futuremark 2006!!! Yeah!
 
@Bösa Bär: Da hast du sicher vergessen, einen aktuellen Treiber zu installieren. Der Chip macht dann locker 30 Punkte. :-)
 
@bestusster: Nö, alles aktuell. War ein netter Dia-Abend. Blos a bisserl lang...
 
@monte: Aber nur bis XP, ab Vista braucht sogar Solitär 3D-fähigkeiten *g*
 
Hey Artikel-Schreiber: "mit Intel geben würde, so würde das Geschäft nicht mehr lange aufrecht erhalten bleiben." Was soll das für ein ekliger Konjunktiv sein?! Man kann Verben auch direkt beugen....
Sonst ist die Überschrift wieder reißerischer als die News. Chipsatz umfasst nach meinem Verständnis auch Grafikchipsatz.
 
Ich hoffe die ION-Plattform bleibt bestehen...
 
@JasonLA: Allerdings, die haben es wirklich in sich.
 
@JasonLA: Nein VIA wird dann Nvidia verdrängen da sie das Zeug allemal haben .
 
da hat die wirtschaftskrise aber einiges kaputt gemacht würd ich mal sagen? dachte immer nvidia is ein starker konzern der in bester grafik da steht.... aber im moment ist die auflösung nur noch auf niedrig... mhhh kostet wieder ne menge arbeitsplätze... hoffe für ati und amd das die dann wenigstens etwas besser werden können, was marktanteil angeht mein ich. dann stellen die wenigstens wieder leute ein.
 
Leute, das ist wieder genauso reine Spekulation wie der Ausstieg aus dem Highend-Graka Bereich. Wartet einfach die Richtigstellung morgen ab und lasst euch nich für blöd verkaufen.
Steht sogar im Artikel: "Es häufen sich die Hinweise," , "Die Marksituation spricht" -> NICHTS DAVON IST HANDFEST
Da hat wohl Winfuture was gegen Nvidia, ist ja fast schon Rufmord :/
 
@gueste: Spielverderber
 
@gueste: Einige vergleichen WF schon mit Bild. Soweit sind sie imho noch nicht, da müssten sie kräftig zulegen.
 
Was bleibt denn da noch für Auswahl an Chipsätzen? Die Intel-Sockel bekommen simple Chipsätze von Intel und AMD baut seine Chipsätze ebenfalls nur noch selber. Damit ist der Wettbewerb im Mainboard-Sektor ja komplett zu Nichte.
 
Ich glaub die Entwicklung vom Fermi (GF300) hat denen voll das Genick gebrochen.
Jetzt haben die zwar die schnellste GPU, aber verkauft werden die nicht mehr da man zuviel Verlust machen würde wenn man mit AMD Preislich mithalten will.
 
@Riplex: Nein, im Moment haben sie nichtmal mehr die schnellste GPU. Und es dauert ja noch eine weile bis Fermi rauskommt.
 
Mensch und diesmal ist nicht AMD schuld. Zu schade für die Idiocracy Fanboys, kein Flamewar :D
Aber das ist bestimmt auch wieder so eine Weltverschwörungstheorie, das AMD als Ursprung der Illuminaten versucht eine Weltvorherrschaft an sich zu reißen um ihre Chips allen Menschen einzubauen um sie dann fernsteuern zu können. Und die werden dann gegen das böse Intel gesteuert, weil die schuld sind und außerdem dürfen nur noch Microsoft-Produkte verwenden aber nur das neuste, denn das alte ist uncool. Blöde Macs darf auch keiner mehr kaufen und vor allem Linux, die Freeware - Arbeitsplatzvernichter und vor allem.... Oh sorry, muß Schluß machen, der Pfleger ruft. Tablettenzeit :)
 
@JACK RABBITz: Die können mir garnix. Aluhut + Alu-Eisenoxid-Wandfarbe. Safe!
 
LEUTE SCHALTET ENTLICH EINMAL EUER GEHIRN EIN! Wenn ich hier die Kommentare lese, frage ich mich ernsthaft, ob die Leute hier sich im klaren sind um was es geht? Nehmen wir z.B. einmal die Aussage von @enzephalitis: "Machen die überhaupt noch was?" Wie wäre es mit Grafikkarten? Diese dummen Äusserungen ziehen sich hier hin, bis ins Endlose. Nichtzuletzt sorgt WF mit ihrer unbestätigen Berichterstatung natürlich dazu bei. Hier einmal ein offizielles Statement von Nvidia, was den Sachverhalt erklärt, wurde bereits gestern veröffentlicht: Nvidia hat mittlerweile ein offizielles Statement zur Situation herausgegeben. Darin bestätigt das Unternehmen die meisten Passagen im Bericht des PC Magazine: Die Entwicklung von Chipsätzen für neuere Intel-CPUs mit DMI-Interface (also Lynnfield und Nachfolger) liegt auf Eis, bis die Lizenzstreitigkeiten geklärt sind: neue Chipsätze für Intel-Prozessoren mit FSB seien noch in Entwicklung. __________ Also ziehen sie sich nicht voll zurück, sondern etnwickeln weiter und warten bei einigen bis Lizenzstreitigkeiten geklärt sind. __________ Nach dem Motto: Lesen, Denken und sich nicht nur auf ein Quelle verlassen!
 
@Ruderix2007: Du darfst das nicht so ernst nehmen. Das war doch nur eine sarkastische Bemerkung. Das denkt Enzephalitis doch nicht wirklich. Was isn heut blos los? Ganz schön aggro ihr seid.
 
@Bösa Bär: Wenn es nicht ernsgemeint ist sollte er ^^ bnutzen! Lies nur mal die News von Nvidia vor zwei Tagen hunderte Möchtegerns haben absoluten Bullshit geschrieben, tag danach hat sich herausgestellt, dass alles nicht wahr ist, aber keiner hatte genügend Rückgrat dazu zu stehen! In Anbetracht dessen, ist es nachvollziehbar, dass solche Aussagen evtl. doch ernstgemeint sind! Ich rege mich nur auf, dass es genügend Leute gibt, die alles glauben und nichts hinterfragen. Solche Meldungen können einer Firma gewaltigen Schaden zufügen und auch nur weil es genügend Trottel gibt, die blindlings alles einfach glauben! Jeder will mitreden, aber im Grunde hat kaum einer Ahnung. Man sollte auch mal an die Konsequenzen denken und nicht einfach nur Konsumieren.
 
@Ruderix2007: Ich betrachte alles gelassener. Mit guten Willen kann man schon erkennen, wie es gemeint sein könnte. Es ist halt "nur" ein Kommentarsystem. Wenn ich alles korrigieren sollte, worin ich falsch lag, würde es 1. die Leute langweilen und 2. das Kommentarsystem sprengen. Im Endeffekt sind es auch nur Vermutungen, die Du hier zu einer Argumentationskette aufbauen willst. Das ist auch nicht OK. Die Leute an Hand nehmen und die Fehler aufzeigen, ist nach meinem Ermessen der einzig richtige Weg. Ich hoffe Du bist mir jetzt nicht böse und bleibst mir weiterhin "gewogen".
 
@Bösa Bär: Nein sicher nicht, ich verstehe deinen Standpunkt sogar sehr gut! Im Grunde hast du auch recht, aber die momentane Berichterstatung von WF regt mich einfach auf und das Verhalten einiger Leuten hier. Wollte dem nur einmal Luft machen, auch wenn ich mir bewusst bin, dass es zu keiner Änderung/Besserung führen wird.
 
@Ruderix2007: In meiner Sturm- und Drangzeit wollte ich auch die Welt verbessern. Habe aber lernen müssen, das Alles seine Zeit braucht und dann immer noch nicht "optimal" läuft. Ja, das Verhalten. Da bin ich auch kein Waisenknabe, das ist mir durchaus bewusst. Mein Leben hat sich auch verändert, trage Verantwortung und muss mich um Probleme kümmern, die entweder "hausgemacht" sind, oder von anderer Seite herangetragen wurden. Das Leben zwingt mich so einer Ernsthaftigkeit, die ich in dem Ausmaß nicht will. Vielleicht kommt es daher, das ich hier ein bisschen lockerer bin und des Öfteren als Spaßvogel fungiere. Nichtsdestotrotz lese ich mir die Kommentare gerne durch, vergleiche, nehme Tipps auf und ändere auch teils meine Meinung bzw. Denkweise. P.s.: Ich schätze Deine (wie auch andere vernüftige) Kommentare. Es erschien mir eigenartig, das Du auf Forenmitglieder losgehst. Solche Aussagen bin ich halt einfach von Dir nicht "gewohnt". :-)
 
Stimmt doch alles garnicht
 
Die Produktion von Chipsätzen wird ausgesetzt, bis der Knatsch mit Intel beendet ist. Siehe hier: http://tiny.cc/GYFYb

Außerdem steht auch in der englischen Original-Nachricht nichts davon das Nvidia aus dem Geschäft aussteigt!
 
völliger blödsinn diese news... in der meldung steht "vorerst" mit drin..

könnt ihr hier nachlesen:
http://www.winboard.org/forum/news/113551-nvidia-chipsatz-entwicklung-eingestellt.html
 
Und Morgen dann die Meldung: Weiterhin Chipsätze von Nvidia, aber Lieferengpässe.
 
@conlost: War auch mein Gedanke, was da in den letzten Tagen an Enten über nVidia produziert werden geht auf keine Kuhhaut mehr.
 
Hey Nvidia : " Der Austieg ist der beste Einstieg! "
 
@overdriverdh21: Morgen wollen die keine Grafikchips mehr produzieren.
 
@conlost, genau so siehts aus.siehe den link in meinem post vorhin.

es ist echt ne sauerei, dass ein autor solcher news hier, einfach den text verändert und damit die ganze meldung komplett verändert.. ich beobachte das nun schon seit wochen und musste jetzt auch mal meinen senf dazu geben.
 
Kann mich den zwei Link-Postern nur anschließen.
Wer noch mehr Infos braucht (Stand: 07.10.09): http://tinyurl.com/ycuokk5 . Ausschnitt:
"We have said that we will continue to innovate integrated solutions for Intel's FSB architecture," Sherbin said in an email. "We firmly believe that this market has a long healthy life ahead. But because of Intel's improper claims to customers and the market that we aren't licensed to the new DMI bus and its unfair business tactics, it is effectively impossible for us to market chipsets for future CPUs. So, until we resolve this matter in court next year, we'll postpone further chipset investments."
 
los los schnell jetzt alle AMD/ATI sache kaufen , bevor die meldungen klargestellt werden, sry so kommt es mir vor schnell das weihnachtsgeschäft mitnehmen.
 
die geilste news des jahres^^
 
@Boskops: wohl eher eine der schlimmsten
 
'PC Magazine' So so! Sind das nicht die gleichen Vögel die meinten das Nvidea aus dem graka segment zurücktritt. Die erzählen ja viel sch.... wenn der tag lang ist. Muss wohl vom Springer Verlag kommen ^^
 
@Hennef86:

1. Heißt der Verlag Ziff Davis
2. Ist die News nicht richtig übersetzt worden.
 
Längst fällige und gute Entscheidung, die NVIDIA voranbringen wird.
 
Dacht Nvidia zieht sich vorerst nur vom Highend VGA Bereich zurück da Produktioskosten zu hoch sind bzw. der vorhandene Produktios-Platz mit Fermi Chips voll ist?
Wobei das alles reine Spekulation ist,ich kenn keinen von Nvidia
 
Hmmm vll will Nvidia auch bloß etwas in die schlagzeilen kommen um dann alle mit ihren neuen tollen produkten zu erfreuen um den umsatz damit anzuregen! =)
 
So Utopisch es klingen mag, ich hoffe das Matrox sich ins Gamersegment wagt. Habe 1996 eine Matrox Karte bessenen und es kommt bis heute keine Nvidia Karte an die Bildqualy der alten Matrox Karte ran. Nur leider hat sich Matrox auf einem anderen Gebiet, als Spiele, profiliert.
 
Das war ja wohl klar.
NVIDIA .

ATI und INTEL die schaffen es, haben mehr Leistung und wird am meisten verkauft.
 
Dass der Chipsatzmarkt immer weniger lukrativ wird war schon länger klar. Der Speichercontroller und bald auch Grafikeinheiten wandern in die CPU. Da braucht Nvidia nichts mehr anbieten wollen. Die Spezialistien im Grafikbereich müssen nun ihre dedizierten Grafikchips einer breiteren Masse schmackhaft machen. Das passiert aber grade genau mit der GPGPU-Geschichte. Ein Markt stirbt, ein neuer entsteht.
 
Bla, Bla, Bla! Die werden sich das nehmen lassen! Ich lass mir doch nicht ein Standbein absägen.
 
Klasse. Meine Mainboards mit nVidia-Chipsatz waren immer fürs Klo.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles