Nvidia prognostiziert das Ende der Prozessoren

Prozessoren Die britische Internetseite "The Inquirer" hat eine E-Mail von Nvidias Vizepräsident für Content Relations veröffentlicht. Roy Taylor bezeichnet darin die CPU als ein Auslaufmodell. Das Statement dürfte als verbaler Angriff auf Intel zu werten sein. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
warum? ist ATI so viel besser? oder ist das eher so ein ich-hasse-NVIDIA-ohne- triftige-gründe kauf ?!
 
@jackiie: Nein, weil ATI billiger ist ^^
 
@jackiie: Mit einer ATI Grafikkarte hättest du den blauen Pfeil gesehen
 
@jackiie: Schreibst du das jetzt so weil du den "Blauen Pfeil" hasst? ^^
 
@jackiie:
mist hab ne nvidia und doch den blauen Pfeil gesehen, hier stimmt was nicht^^

jedem das seine und nach seinem €beutel sag ich immer

(ps. Nvidia ist immernoch der knaller, nur halt teuer) ... :)
 
@Ide: Das liegt daran, dass du auch nen Intel-Prozessor hast :-)
Die Kombination aus NVIDIA und Intel ist nämlich unschlagbar.
 
Bitte ich hab ein AMD Athlon 1700+ und eine NVIDIA 7800 GTX und das läuft bombe ..... also das ich crysis locker zocken konnte auf 1024x768 nimmt mir eh keiner ab... wieso auch ich muss ja normal eien NVIDIA und ein INTEL Prozessor haben damit alles geht.... wiederspricht sich zwar aber mit meinem AMD & NVIDIA & 768 MB SD-RAM kann ich net klagen xP und ich seh sowas blaues pfeilartiges!!
 
@awwp1987: Natürlich kauft Dir das keiner ab ^^. Ich hatte vorher auch nen 4400+ und die 7800 GTX. Unter XP lief es grad noch so, man konnte es spielen, aber unter flüssig versteht man was anderes. Man kann sich viel aus dem Finger saugen, wenn der Tag lang ist :) Selbst mit meinem neuen System + Patches läuft es nicht immer 100% flüssig (wohlgemerkt alles High (auch Treibereinstellungen), Vista -.- (das ist sicher der Grund auch) bei 1650er Auflösung), und da geht kaum mehr heutzutage. Klar, Crysis läuft flüggig schon auf einem 1ghz Prozessor, nur eben als Strich-Grafik :)
 
Naja, wenn ich das höre - das Ende der CPU - und dann auch noch ein Vergleich zweier Systeme, wo nicht einmal deutlich wird, worauf es beim Benchmark ankam... Da kann ich jede Komponente gewinnen lassen. Einmal im Ernst: Wenn ich etwas Rechenintensives habe, dann hilft mir kein HE-Grafikchip weiter und andererseits bei aufwendiger Grafikverarbeitung auch kein schneller Prozi, solange die Grafikkarte Mist ist. Finde es nur schade, dass sich Hardwarehersteller nun auf dem gleichen Niveau begegnen wie manche Flame-Trolle in irgendwelchen Foren und Diskussionen (halte das jetzt bewusst allgemein).
 
@ffx: Doch! Genau dann ist ein HE-Grafikchip die deutlich bessere Lösung.
 
@roidal: Na, aber nur dann, wenn du der GPU softwaremäßig mitteilst, was sie tun soll. Ich glaube, dass das aktuell - zumindest im Mainstreambereich - noch nicht passiert ist.
 
@ffx: Das stimmt, und im Mainstreambereich ist es noch nicht verbreitet aber langsam im kommen.
 
@roidal: Siehe zukünftige Physikberechnung...bisher im Bereich der CPU angesiedelt, kann diese bei entsprechenden Treibern von der GPU wesentlich effektiver berechnet werden.
 
@ffx: Grundsätzlich KANN eine Grafikkarte mehr Berechnungen durchführen. ABER um das im Mainstream nutzen zu können, müssten die Programme portiert werden. Frag mal Google nach "CUDA"
 
Und bei welcher Software war das Nvidia Notebook doppelt so schnell? Wohl nicht beim booten bzw. kopieren von Dateien?
 
@ratho: Das meinst du jetzt nicht ernst? Du brauchst ne HE CPU um zu booten oder Dateien zu kopieren am besten noch ne Quadcore? Schon mal was von DMA gehört? oO
 
@root_tux_linux: Aber bitte nicht das ISA-DMA der Floppy-Controller ja. Diese DMA controller haben 4 Mhz takt, und können nur die ersten 16MB? addressieren. UDMA und so weiter ja, billig DMA nein(da ist fast schon PIO besser).
 
@Dr_Tod: Ich red vom Grundprinzip DMA sprich direkter zugriff auf den Arbeitspeicher ohne zutun der CPU und nicht von den verschiedenen Standards. Aber war klar das sich jemand meldet. :)
 
Der Witz schlechthin! Es ist zwar nicht völlig undenkbar, aber dafür müsste doch einiges getan werden. Denn nicht jeder PC Nutzer braucht Grafikleistung, sondern Rechenpower. Wenn nun die nötige Softwareimplementierung dafür sorgt, dass meine Berechnungen von der GPU statt der CPU getätigt werden, dann soll es mir recht sein. Aber momentan sieht das doch noch nicht so aus. Viel Interessanter wäre eine Kooperation der CPU und GPU um die potenziell vorhandene Leistung der GPU auch in Bereichen zu nutzen, wo es nicht um Grafikberechnung geht. Hier liegt die Leistung der GPU ja aktuell nur rum.
 
@legastheniker: ähm, eine GPU rechnet nach dem selben Prinzip wie eine CPU. Allein die Befehlssätze entscheiden darüber was ein Prozessor kann und was nicht.
 
@severance: "ähm, eine GPU rechnet nach dem selben Prinzip wie eine CPU" Nicht wirklich. Eine GPU wendet 1 Rechenoperation gleichzeitig auf viele Daten an. Eine CPU arbeitet eher nach dem Prinzip 1 Rechenoperation auf 1 Datum.
 
@TiKu: Wenn ich das höre, wird doch der Vorteil der GPU offensichtlich, eine Cpu wiederholt sich ja sogesehn auch nur^^
Neulich ist doch der größte europäische Supercomputer durch die Medien gegangen, der bestand doch zu zwei dritteln auch nur aus GPUs.
Iwie hab ich schwierigkeiten mir das vorzustellen, denn alle Aufgaben der CPU kann die GPU ja nicht übernehmen, dh. iein bauteil bleibt später als rückstand der cpu zurück (sowas wien chipsatz) oder die beiden chips werden zu einem gemacht, damit der alle aufgaben übernehmen kann. Dann wärs aber keine reine GPU mehr. Also allein die Namensgebung irritiert mich hier^^
*btw: ich hasse es dass umbrüche in den kommentaren hier immer entfernt werden, ich glieder das damits angenehmer zu lesen ist und am ende kommt wieder so ein zusammengeschobener text raus *grml**
 
@estes: "Wenn ich das höre, wird doch der Vorteil der GPU offensichtlich, eine Cpu wiederholt sich ja sogesehn auch nur" Ja, wenn man viele Daten hat, auf die man 1 Operation anwenden will (Single Instruction, Multiple Data bzw. kurz SIMD), dann ist eine GPU prinzipiell im Vorteil. Aber wie oft hat man so eine Situation? Sowas ist eher ein Spezialfall.
Bei Supercomputern auf GPUs zu setzen, macht durchaus Sinn. Denn der Aufbau einer GPU ist mit dem eines typischen Supercomputers vergleichbar, nur dass die GPU das eben auf 1 Chip zusammenfasst.
GPUs, die auch für andere Dinge als Grafik genutzt werden können, werden übrigens auch als GPGPU (General Purpose GPU) bezeichnet.
 
@TiKu: Da ham wirs doch^^ (namenstechnisch bin ich wieder entwirrt) thx für die aufklärung :) Also sogesehn is da auch iwie nix dahinter ws nvidia redet. vllt hat man sie ja falsch verstanden?
 
"Jeder PC-Kauf, inklusive den Eigenschaften der verbauten Komponenten, ist eine Entscheidung des Kunden. Sie basiert darauf, was er mit dem Computer erledigen will". Die meisten Entscheidungen basieren eher auf den Verkaufspreis ... :-)
 
@emantsol: Mal abgesehen davon wäre ich vorsichtig, Dingen oder Leuten ihr Ende vorherzusagen. Da haben sich schon ganz andere geirrt, Stichwort "Gott ist tot", gell?
 
ATI ist Stromsparender, günstiger & Leistung reicht aus
 
@merkur_5: So stromsparend und Leistung ohne ende, dass deine Graka den blauen Pfeil nicht darstellen kann. Nice
 
@merkur_5: Leistung reicht aus. Also ist nVidia Leistungsstärker? Dann wäre es auch normal dass sie mehr kostet und mehr verbraucht.
 
@bstyle: Nein. Nvidia hat schlechte Treiber und alte Technik. Damit sind die hinten. Auch in der Leistung ist es der Fall.
 
@merkur_5: Ja ATI ist nur für Leute die Harz 4 haben und sind natürlich dieser Meinung das ATI super ist.Normal dürfte ATI nicht mehr als 10-15 Euro für den Schrot verlangen.NVIDIA ist einfach das beste was es auf den Markt gibt!
 
@albertZX: Und du bist so dumm und gehst damit auch noch hausieren! Und übrigens ich hab auch ne Nvidia Grafikkarte und finde diese besser, aber so eine Aussage zeigt mir deine Intelligenz!
 
@merkur_5: nvidia ist besser, weil sie einheitliche Treiber haben. einfach installieren und du hast ausgesorgt. Und bei absoluten High-End krakas ändert sich sowieso alles zu schnell um zu beurteilen, was besser ist.
Chrissy
 
@albertZX: Zufälligerweise hat im Moment eine ATi Grafikkarte den höchsten, je erreichten 3DMark, den es gibt. Siehe http://www.futuremark.com/orb/
 
@ chrissy1988:

sind bei ATI auch einheitlich, "ausgesorgt": naja hin und wieder sollt man die schonmal aktualisieren
 
Die Stenkerfritzen von Nvidia mal wieder. Wenn die sich ma nich um Kopf und Kragen reden. Gute Produkte anzubieten heißt noch lang nicht sich alles erlauben zu können. Aber deswegen auf ATI umsteigen....ne, da müsste schon was sehr schlimmes passieren.
 
@Fintsch86: So gut sind die bei Nvidia nicht. Schlechte Technik zu hohen preisen verkaufen zeigt die geringe Intelligenz der Firma.
 
@jediknight: Das zeigt die geringe Intelligenz der Kunden...zumindest deiner Theorie zufolge. Was ist denn falsch daran, die schnellere Karte (nVidia) zu bevorzugen? Es gab Zeiten, da war es andersrum...ATI besser als nVidia. Bei den Prozessoren sieht es genauso aus...momentan ist Intel vorn.
 
@ jediknight: Komisch nur, dass die "veraltete" Technik und die "schlechten" Treiber jeder ATI-Karte in den Sack stecken! Guckst du: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3650/22/$abschnitt_performancerating
 
@Rollo: Komisch, warum die Treiber bei NV so schlecht sind. http://www.winfuture.de/news,38363.html
Auch die Leistung der Grakas ist schlecht. Erst die 9800GX2 kommt an die ATI ran. So toll kann Nvidia nicht sein.
 
Der Man hat irgendwie Recht. Man könnte heutzutage problemlos eine hochwertige GPU und CPU in einer hochintegrierten Schaltung unterbringen bzw. intelligent kombinieren, was schaltungstechnisch viele Vorteile mit sich brächte.
 
@Der_Heimwerkerkönig: Wenn es so problemlos möglich ist, warum macht man es dann nicht?
 
Hmm, witzig, AMD und Intel arbeiten daran, die GPU in die CPU zu integrieren. Weiß Roy Taylor das?
 
LOL was ne geile ansicht. Haun wa alle mal ne High-End und High-Price Graka in den rechner und freun uns dann über die tolle grafik. Das Computer zum ARBEITEN erfunden wurden und hauptsächlich dafür eingesetzt werden interessiert ja nich. Der Typ hat wohl einen getrunken und seinen Frust wegen Intel losgelassen. Ich seh das mal als schlichten Gehirnpfurz und nu weiter Arbeiten.
 
@datalohr: Man kann auf Grakas auch Nicht-Bildberechnungen durchführen :)
 
@roidal: Richtig, aber nicht alles was eine CPU kann.
 
@TiKu: Weshalb man auch nicht ganz darauf verzichten kann. :)
 
@roidal: ja sicher kann man das aber wenn ich das richtig verstanden habe gings hier nich darum neue techniken einzusetzen sonder lediglich ne Nvidia Graka zu benutzen. Ich hab auch eine, sind ja auch super, aber deshalb kann man doch aufm Teppich bleiben.
 
Hm, habe gerade versucht eine Excel-Kalkulation auf meiner Nvidia-GPU auszuführen... hat mir zwar viele bunte Torten-Diagramme gebracht, aber keine Lösung in Form einer Zahl... mache ich was falsch? :) Grundsätzlich sollte es wohl möglich sein, über die GPU auch Operationen der CPU abzuarbeiten, ob es aber sinnvoll ist? Spielt Nvidia damit nicht ATI in die Hände, die schon seit einiger Zeit ankündigen, CPU und GPU zu verbinden? Oder haben die Trendforscher von Nvidia herausgefunden, dass die Pisa-Kids von heute in ihren Computern von morgen eh nur noch bunte Bildchen ansehen wollen bzw. verstehen können - auch dann wäre eine CPU überflüssig... Für den Büroalltag konnte ich mit besserer CPU und mehr RAM bisher mehr erreichen als durch stromfressende und laute High-End-GPUs.
 
@Tyndal: Wenn man Programme hat welche die Berechnungen auf die GPU auslagern dann sollte das um einiges schneller gehen. Gibt ja schon Programme welche z.B. Videos auf nVidias GPU's konvertieren.
 
@Tyndal: Gibt's für ATI GPU's seit der X1 Serie auch schon. Den wirklichen Performanceunterschied merkt man jedoch bei folding@home. wenn man mal die GPU gegen die CPU Variante antreten lässt. Ausserdem wird im Serverbereich mittlerweile auch GPU Power immer häufiger eingesetzt.
 
@roidal: "Wenn man Programme hat welche die Berechnungen auf die GPU auslagern dann sollte das um einiges schneller gehen." So pauschal ist das völliger Blödsinn. Zum einen ist der Datentransfer von und zur GPU relativ langsam, sodass die GPU eh nur für langwierigere Berechnungen taugt. Zum anderen kann die GPU weniger Rechenoperationen als eine CPU und auch da nur bestimmte richtig gut.
 
@TiKu: "Zum anderen kann die GPU weniger Rechenoperationen als eine CPU und auch da nur bestimmte richtig gut." Das ist falsch! Eine HE-GPU ist bei Flaotingpoint-Operationen wesentlich schneller als eine HE-CPU.
 
@roidal: Du sagst es doch selbst: "bei Flaotingpoint-Operationen". Floating Point ist nicht alles.
 
@TiKu: Selbst Integerberechnungen kann man als Floatingpoint ausführen, wobei wir dann bei allen berechnungen wären :)
 
@roidal: Integerberechnungen kann die CPU sehr schnell. Es stellt sich also die Frage ob die GPU Fließkommaberechnungen so viel schneller kann, dass auch bei Integerberechnungen noch ein Geschwindigkeitsvorteil besteht. Davon abgesehen gibt es noch viele weitere Operationen. Die lassen sich zwar auf Integer-/Fließkommaoperationen zurückführen, aber sind als nativer Befehl in der Regel deutlich schneller.
 
naja... für den kleinzocker oder 0815 user is es egal welche cpu.. - für einen Gamer brauchts auch keine high-end cpu - wozu auch, die langweilt sich mit den lächerlichen aufgaben - brechnet ja alles die grafikkarte... - und die spieleherstellen setzen dann auch noch mehr und mehr auf die grafikkarte (mag auch an den sponsorings von zB nVidia liegen^^)... so sollen bald spiele kommen, die für max spielgenuss ein SLI-System vorraussetzen. Anstatt mal ein bisschen von der übrigen cpu leistung für zB physikberechnungen zu verwenden - und nein, die physX bringt nix - kP warum ich das teil noch nen Slot belegen lass^^ -> noch ist sowas noch nicht Denkbar, weils ja noch leute mit Gammel alten CPUs gibt... aber wenn die entwicklung der letzen sechs Monate anhält, sind in nem halben Jahr bis Jahr die billigsten CPUs so stark, dass man mit spielen vl. 15-20% cpu last erreicht, da könnte man dann tatsächlich physikberechnungen auf die cpu ausweiten...........................................................
 
??? Das wundert mich doch ein wenig, da ich bisher immer der Meinung war das die CPU die Graka versorgt und in vielen Foren geschrieben wird, das eine z.B. 8800GTX nicht mit einem Pentium 4 voll ausgelastet sein würde. Irgendwie hängen die beiden Prozessoren doch zusammen. Wie es hingegen bei Spielekonsolen aussieht, weiß ich überhaupt nicht, da wird wahrscheinlich eine 1A Graka drin stecken, wobei die CPU wahrscheinlich nicht so entscheident ist. Alles sehr merkwürdig.
 
@KlausM: Da hast du vollkommen recht, daher kann man auf die CPU auch nicht verzichten.
 
@KlausM: Ich sag bloß Van Neumann Architektur bzw. Van Neumann Flaschenhals.
 
@KainPlan: ...und ich sag nur "von".
 
:D Year Let´s Rock !
Nvidia baut ne Konsole :p
 
Nvidia überschätzt sich und sollte aufpassen, dass die in diesem Jahr nicht von AMD/ATI überrrollt werden. Nach dem Geforce 9-Nepp-Reinfall zeichnet sich ein schwieriges Jahr für Nvidia ab ...
 
@holom@trix: Was für ein Nepp? Geforce9 = Geforce8 mit höherem Takt und kleineren Strukturen. Der nächste neue Chip kommt erst wenn ATi auch einen bringt. Den hätte nVidia schon längst ausgebracht wenn ATi mit den neuen Karten an die GeForce 8+9 rangekommen wäre. Sind sie aber nicht. So verkauft nVidia also weiterhin die älteren GeForce-Karten. Betriebswirtschaftlich sehr sinnvoll.
 
@DennisMoore: Geforce9 = Geforce8 mit höherem Takt, kleineren Strukturen und ohne kleinere Strukturen.
Die 9er Reihe war echt ein Reinfall, aber das kennt man von nvidia.
Geforce 2 - jedem ein begriff
Geforce 3 - gabs das überhaupt?^^
Geforce 4 - legendär
Geforce 5 - So dagewesen
Geforce 6 - Der durchbruch
Geforce 7 - Ein bischen mehr Leistung
Geforce 8 - Hammer
Geforce 9 - Wie gesagt Reinfall^^

Das wird ein schwieriges jahr :)
 
@estes: Eine wunderschöne Beschreibung der Geforce-History :-) Genau meine Meinung.
 
Unglaublich. Als ob die sich im Kindergarten befinden. Erst pöbelt Intel das man mit Raytracing auf der CPU die Grafikkarte in Rente schicken will und jetzt trollt nVidia gegen CPUs. Ob denen das nicht auch ein bißchen peinlich ist?
 
Die kriegen wohl schon Panik. 2009 und Fusion und Co. kommen immer näher. Wenn AMD und INTEL 8 Cores und mehr mit Grafikkern anbieten wird wohl Nvidia auf der Strecke bleiben. Wohl nicht bei High End Grafik. Aber nur mit High end lässt sich keine Kohle machen. Ich sehe Nvidia auf VIA niveau schrumpfen wenn sie dem nix entgegenzusetzten haben.
 
Mag sein, dass man bei NV der Meinung ist, dass eine CPU nur noch grundlegene Funktionen erfüllt. Nur leider funktioniert kein Computer ohne diese grundsätzlichen Funnktionen. Die CPU wird es weiterhin geben, sie ist das zentrale Bauteil eines Computersystems.
 
HD2600XT PCI @ Pentium 166 FTW :D
 
Ich habe mir jetzt eine Nvidia-Graka gekauft. Irgendwas mit 9800. Das Teil braucht vier (!) Stromanschlüsse zum Netzteil. Ich möchte nicht wissen, wie hoch meine nächste Stromrechnung ausfallen wird.
 
@Michael41a: Wie jetzt haben die dir nicht das Atomkraftwerk mitgeliefert? Sry. ^^
 
@KainPlan: *Ironie an* Ne das Patent auf "Atom inside" hat leider auch Intel weil "nuclear power plant" wäre nicht marketingwirksam*Ironie aus*
 
Also sorry aber ich verstehe das nicht so ganz.
Hat Intel nicht Nvidia gekauft ?
Wenn ja wie kann dann ein Mitarbeiter sein (mehr oder weniger) eigenes Pordukt so schlecht reden ?
So eine Nachricht stand hier doch vor ein Paar Wochen schon mal ?
Klärt mich bitte auf ich bin nicht immer so auf der höhe wer nun wen gekauft hat und wieviel er gekauft hat :D

mfg

GoZ
 
@GoZ: bisschen luft im hirn oder??? AMD kaufte ATI - und nicht Intell Nvidia. was aber kommen könnte ist das Nvidia AMD aufkaufen könnte - dann aber wäre Intel komplett angeschissen.....! - - - - - - und nur zur info - das ist nicht irgendein ein szenario was ich mir irgendwie so ausgedacht habe - sondern ernst zunehmende markt-analysten rechnen mit solch einem schritt sollte AMD weiterhin solche pannen passieren wie im letzten jahr!
 
@bilbao: Sorry aber kannst du mir mal erzählen warum du mich so scheiße dumm von der Seite anmachst ?
Ich habe nur eine Frage gestellt und, hättest du meine Frage komplett gelesen, hättest du auch gelesen, das ich geschrieben habe das ich da nicht so wirklich durchblicke, wer wen gekauft hat. Ich Arbeite noch und kann mich nicht darum kümmern ich muss mich um meine Sachen kümmern.
Naja hast ja wenigstens meine Frage beantwortet aber auf was für eine Art und Weise is mal wieder Typisch Internet, jeder mein hier einen auf dicke Hose machen zu müssen echt schlimm....

mfg

GoZ
 
Früher wahr ich voll Fan von ATI bis zur Radeon 9200 danach bin ich auf Nvidia umgestiegen weil die Treiber für Linux von ATI (fglrx) einfach nur beschi*en waren. AMD soll endlich gute Treiber entwickeln oder die Spezifikationen komplett offenlegen. :)
 
@root_tux_linux: Dann schau dir das mal an: http://www.winfuture.de/news,38363.html
 
@ jediknight: Ich red von den Treibern für Linux und nicht Windows Vista. Da ist Nvidia noch immer besser als ATI's fglrx. Davon abgesehen würd ich nie im Leben Vista einsetzen. :)
 
@root_tux_linux:

seit der Übernahme soll sich aber deutlich gebessert haben, das du kein Vista einsetzen würdest ist uns klar wobei das aber wohl die ganze Windows Reihe betrifft
 
also wenn meien CPU tot ist ist mein PC auch tot grafikkarte hin oder her OHNE CPU geht halt nix....der typ soll net so labern eher sein gehirn ist tot und sein pc ist tot aber net unsere , das is müll , kann ja gern ma in meien cpu hämmern ob ich Win XP dann noch hochfahren kann ist ne andere frage, ich glaub eher net...
 
Also früher oder heute wie auch immer, aber wer viel Power braucht kauft sich eine Nvidia und wer auf Bildqualität setzt der kauft sich eine ATI Karte so einfach ist das.
Aber da muss jeder selber seine Erfahrungen sammeln.
MfG
 
@Carp:

wobei in beiden bereichen aber nur minimale Unterschiede sind und es für die meisten wohl kaum eine Rolle spielt ob ATI oder Nvidia, für viele ist dann auch der Stromverbrauch wichtig...
 
Baut IBM dann bald Großrechner mit 6.000 Grafikkarten statt CPUs?
 
Was für ein Blödsinn. :-)
Die CPU ist zum Rechnen und zentralen Steuern da, die GPU zum Malen, und so wird es auch bleiben. Wenn ich sehe, wie lang mein Dual Core zum Entpacken großer Archive, Brennen von DVDs und Konvertieren von Videos benötigt, während natürlich noch BOINC läuft, dann wird das wohl kaum eine nicht aufs Rechnen spezialisierte GPU übernehmen - neben ihrer sonstigen Aufgaben.

Was ich mir aber als Entwicklung vorstellen kann, ist eine Unterstützung der CPU durch die GPU, wenn die grad nix zu tun hat. Also quasi wie ein Mehrprozessorsystem.

Denn wie es bisher läuft, ist es Verschwendung. Da hat man schon mehrere Prozessoren im PC (GPU, Soundproz. etc.) und dann faulenzen die die meiste Zeit nur rum. Hier sollte was getan werden.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles