AMD: Grafikkarten werden ab 2010 zu Alleskönnern

Hardware Bei Nvidia und AMDs Grafiksparte ATI arbeitet man derzeit daran, Grafikprozessoren zu einer echten Allzweckwaffe zu machen. Die Chips sollen künftig auch Berechnungen aller Art übernehmen können und mit ihrer Leistung die bisher verwendeten ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wird doch schon eine Weile in diese Richtung geforscht. An alle "Nividia-Hasser": Auch Nvidia schläft nicht und wird bereits in diese Richtung forschen. *g*
 
@didaa: Mein Problem ist daß ich sowohl AMD-Fan als auch NVIDIA-Fan bin,
für meinen Geschmack haben die grausamerweise den falschen Graka-Hersteller gekauft ^^
Was mach ich denn nun, ich hasse ATI ^^
 
@didaa: ist bei mir ebenfalls so, nur: schau dir mal die aktuellen intel-cpus an, die sind der absolute oberhammer! lechz... schade um amd, aber ati war das schlimmste was ihr mir antun konntet :(
 
@didaa: Die forschen nciht nur. Die haben schon was fertiges. http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/juli/nvidia_software_gpgpu/
 
@Athelstone:

hindert dich doch keinder dran eine Nvidia Karte zu verbauen
 
@DennisMoore: Da hast du schon recht, aber die Forschung wurde dadurch nicht eingestellt. :-)
 
Ey... lasst mich doch erstmal DX10 testen, bevor hier über DX11 und revolutionäre Grafikchips blafaselt wird :( Aber ok... das die GPUs schon heute in einigen Punkten die CPUs übertreffen sollte Allgemein bekannt sein... nur nutzen müsste man es halt können
 
Oh Gott , ein Reizwort für 2009 ist schon gefallen, DX11 :) Das wird wieder ein Theater werden wenn die User nicht verstehen wofür das da ist und lassen ihrem Unverstand freien Lauf.
 
@~LN~:
die user verstehen sehr wohl, wenn man ihnen versucht das geld aus der tasche zu ziehen.
 
@~LN~: Siehst du - da ist schon der Erste - und wir haben erst 2007. Aber ich hab die ERklärungsversuche was DX10 wirklich bringt abgebrochen - es gibt einfach zu viele Typen, die sich nciht wirklich informieren und dumm Stammtischparlen hinterherschwätzen!
 
@~LN~: Ich glaube, es kann nur der jennige genau erklären, was DX10 ist und wo der krasse Unterschied zu 9 ist, der auch mit der API programmiert. Für die Standardleser hier ist dies eh nix weiter, als ein .. nennen wir es Treiber ^^ Oder Feature..
 
@~LN~: also wenn man dx10 und den unterschied zu dx9 nicht in zwei oder drei einfachen sätzen erklären kann dann hat bestimmt nicht der user ein problem sondern das produkt bzw. derjenige der es nicht erklären kann. das mal so generell, ohne dass ich überhaupt etwas über dx10 weiss.
 
Ach Gott, kommt GAAAANZ zufällig DX11 wieder mit einem zwanghaft neuen Windows 2010, ist ja interessant :) Was für ein Zufall...
 
AMD: Grafikkarten werden ab 2010 zu Alleskönnern... WENN die nicht bald pleite gehen. Weil ausser verluste machen die im moment nicht viel und ohne geld wird das ganze sehr schwer :) ... das dreckskaff da xD ...aja gl amd
 
@revo-: Du bist dann der erste der Schreit, warum nvidia so teuer wird bzw Intel! Keine Konkurenz ,kein Preisdruck! Aber freu dich ruhig weiter das AMD bzw ATI deiner Meinung nach bald Pleite sind!

Die sollten lieber mal am Stromverbrauch Arbeiten .Mag kein 1000W Netzteil kaufen müssen, damit meine neue GraKa richtig läuft!
 
@Cyres ... Nur dumm, dass selbst eine 8800 Ultra und ein übertakteter X6800 keine 380Watt unter Volllast verbrauchen ...
 
Was sagt uns der Artikel neues? NICHTS.
 
Ich finde Grafikkarten sollten nicht alles können, sondern nur das wofür sie da sind, und zwar Bilder auf den Bildschirm zaubern. Es wäre schön wenn statt GPGPU einfach mal ne schnelle, effiziente GPU auf den Markt kommt die das was sie können muß perffekt kann. Dazu gehört schnelles Rendern genauso wie Bildqualität bieten und eine hohe Nutzung der Energie die sie verbraucht. Solch ein Produkt sehe ich momentan weder bei Ati/AMD noch bei NVIDIA.
 
@DennisMoore: so eine graka kann und wird es nicht geben. es werden immer neuere technologien entwickelt und höhere anforderungen an die grakas gestellt. vor 20 jahren hättest du sicherlich auch gesagt, dass eine GeForce 2-graka das perfekte ding wäre, wenn man es damals gekannt hätte...
 
@JeKyll: So eine Grafikkarte könnte es leicht geben. Aber wenn man der neben der Grafikberechnung auch noch zig andere Arbeiten aufbrummen muß ist es logisch das es zu einem stromverschlingenden Monstrum wird. Warum nicht einfach für Grafik ne Grafikkarte, für Physik ne Physikkarte (oder evtl. einen Extrachip auf der Graka) und für den Rest die gute alte CPU? Ich sag mal: Schuster, bleib bei deinen Leisten.
 
@DennisMoore: Ich denke, dass es eher um die Nutzung der brachliegenden Rechenleistung geht, wenn die Grafikkarte grad nicht fürs Spielen verwendet wird. Ich hätte auf jeden Fall nichts dagegen, wenn beispielsweise ich nen Film dank Nutzung der GPU Rechenleistung in der Hälfte der Zeit codieren kann.
Wenn man eine alte Graka auch einfach für Physikberechnungen bei spielen verwenden kann, sehe ich da auch einen Sinn. Man braucht sich dann erstmal nur ne neue Graka kaufen und durch die CPU-Entlastung spart man sich erstmal das CPU upgrade.
 
@TheNinja: Für die brachliegende Rechnerleistung weiß ich auch was. Takt runter, Shadereinheiten abschalten und Strom, Hitze und Lärm sparen. Ich bezweifel übrigens das es sehr viele sinnvolle Gebiete gibt wo die Grafikkarte entscheidend schneller ist als die CPU. Ein Grafikchip ist ja schon ein hochspezielles Stück Hardware.
 
bis 2010 ist es in der welt der Hardware eine lange zeit... mal sehen ob dann die deutschen mitarbeiter von amd nicht schon hartz 5 bekommen.hehe

@~LN~ bitte erleuchte uns, holde jungfrau...
 
bis dahin wirds wohl amd nicht mehr geben *rofl*
 
@Bazillus:

warte erstnal ab wie es ab November mit dem Phenom weitergeht, Intel hat Jahrelang nicht vernünftiges zustande gebracht, nur weil sie jetzt mal wieder vorn liegen geht AMD nicht gleich Pleite, sondern macht es richtig und bringt gleich einen richtigen 4Kern und holt sich seinen Vorsprung wieder zurück
 
@pakebuschr :

man junge entspann dich einfach...kein humor die kinder !
 
schade, dachte schon an Grafik und Sound Kombokarten. Das würde dann den umgang sehr vereinfachen, weil man auch die HDMI schnittstelle perfekt ausnützen würde. Wäre mal an der zeit wenn die lässtigen mehrkanal analog klinkenstecker bei den soundkarten wegfallen würden.
 
@thevoodoo: Und wo ist der Vorteil an Digital? Außer, dass es ungefähr 20 fache Bandbreite braucht und die Signale verfälscht wiedergibt, im Gegensatz zu Analog?
 
@voodoopuppe: wovon redest du da bitte? welche bandbreite? die bandbreite die zur übertragung zum endgerät (receiver) im bitstream anfällt? die hat noch nie ein problem dargestellt. Und was für "verfälschte signale"? du bist wohl ein anti-evolutions-gig der irgendwelche behauptungen in den raum stellt, die er selbst nicht erklären kann. Wenn signale verfälscht werden dann wohl die analogen durch einstreuungen bei der übertragung ans analoge endgerät... also bleib mal bei deiner veralteten analogübertragung solange es geht.
 
@thevoodoo: *hust* Hast du dir jemals überlegt, wie Digitale Signale übertragen werden? RICHTIG! Als 3-Bit-Folge über PCM! Das heißt für dich im Endeffekt - dein Gerät kennt exakt 8 verschiedene Zustände - 111,110,101,100,011,010,001,000. Alles was dazwischen liegt ist für dein Gerät UNINTERESSANT, da es in einer dieser Stufen übertragen wird. Beim Analogen ist das genau das Gegenteil - dort werden die Informationen exakt so übertragen, wie sie sind - vorrausgesetzt, dass beim Abtasten (sagt dir evtl. Sample and Hold was?) nichts schief geht, bzw. dass die Quantisierung (=Abtastrate) entsprechend hoch ist. Und bei der kurzen Leitung die man normalerweise zwischen Anlage und Soundkartenausgang hat ist es eigentlich so, dass keine Störungen auftreten sollten. Der einzige Vorteil von Digitalen Signalen liegt hier nur darin, dass die Signale vom Verstärker deines Soundsystems exakt so wiedergegeben werden können, wie sie die Soundkarte verlassen haben, da eben 1 und 0 exakt bestimmt werden kann und, dass der Verstärker auch keine Sachen a la Rauschen o.ä. mit verstärkt, im Gegensatz zum analogen. Das war's aber dann auch schon - die Information ist aber von Anfang an schon "verfälscht" - aus dem Prinzip ist das analoge Signal an sich dafür schonmal besser geeignet. Davon mal abgesehen, dass die Störungen die auftreten bei einer Länge von 1-2 Metern wohl zu vernachlässigen sind ...
 
@voodoopuppe: Wenn ich nicht falsch informiert bin werden bei der Audioübertragung von HDMI 24Bit verwendet. Das sind ca 16Mi (2^24) Zustände.
 
Richtig, das hätte ich natürlich erwähnen sollen - das ändert aber nix daran, dass analoge Signale trotzdem den Ton an sich "genauer" wiedergeben, und das mir mr. "thevoodoo" Sachen unterstellt, die so gar nicht stimmen...
 
@voodoopuppe: Ja klar, jedes Signal wird bei der digitalen übertragung in eine gewisse Bit-Auflösung zerlegt, aber wie ich schon sagte, stellte dies noch nie ein problem dar. Weiters solltest du überlegen woher der ton, den du wiedergeben möchtest stammt. ich nehme mal stark an von einem digitalen datenträger, auf dem er in digitaler form gespeichert ist. Ausser du hörst noch musik von Schallplatten, Bändern,... bei denen die ausgabe tatsächlich "direkt" über die verstärkerstufen erfolgt.

Wie auch immer, ich bleibe dabei, Grafik/Sound kombos mit HDMI-Schnittstelle wären IMO sehr wünschenswert. All connect in one, würde den Kabelsalat besonders bei den PC's wieder um einiges verringern, die übersichtlichkeit wahren und einen meiner meinung nach nichtbeanstandenswerten wunderbaren sauberen Klang übertragen. Aber da soll jeder selbst urteilen.

Und zu den von dir erfragen vorteilen bez. Digital-Audioübertragung im ersten Post, die du fast schon selbst beantwortet hast:
Übersichtlicher, einfach handzuhabender Anschluss, der Mehrkanaltauglich ist. Keine weiteren analogen einstreuungen (egal welche kabellänge). Der Receiver decodiert genau jenes signal welches von der Quelle digitalisiert wurde. (Für mich keine/kaum hörbaren qualitätsunterschiede der Klangfarbe zu Analog)
 
@thevoodoo: Du hast den kompletten Sinn meines Posts nicht verstanden - sicher gibt es imho keine hörbaren Unterschiede (und nein, dafür braucht man keine 70khz Boxen *lach*) - es geht darum, dass alle immer rumposaunen, dass Digital ja viiiiel besser ist als analog - das stimmt aber so ÜBERHAUPT NICHT, denn eigentlich ist das analoge Signal viel exakter. Und es ist nunmal so, dass Digitale Datenübertragung nichts göttliches es - im endeffekt ist es der letzte Dreck - man braucht viel mehr Bandbreite, man braucht schnellere Leitungen, hochintegrierte Schaltkreise, man bekommt eigentlich ein verfälschtes Signal wieder usw. usf. - aber erzähl das mal jemandem, die erzählen doch alle immer, dass digital = ganz tolle erfindung.
 
Erst mal zur gpgpu: zu Pentium Pro Zeiten hieß es auch:"Multicore-/Multiprozessorsysteme braucht kein Mensch!" - man merkt es...
"Es gibt auch gar keine Software dafür." - ja, auf einmal ist die von den Bäume gefallen ...
noch ne Idee: Warum können gpu's nicht wie cpu's behandelt werden. von der Technik der Grafikkarten würde ich gerne auch außerhalb von Vektorberechnungen profitieren. Man denke nur an die schnelle Speicheranbindung. Ohne ISA/PCI/AGP oder PCI + Schnittstelle, direkt am Bus, wäre die Performance bestimmt super. Zudem könnte man flexibel die GPU wechseln, andere Kühlkonzepte verfolgen und vielleicht sogar die Stromzufuhr besser unter Kontrolle bekommen.

Okay, klingt fast wie die GPGPU und zwei Chips auf ein Board kommt einfach nicht gut an, beim Kunden...
 
@pxa: Und dann nochmal extra RAM für die Grafikkarte nachkaufen, damit das ganze wieder an Sinn verliert, weil der RAM wieder langsamer angebunden wird?
Dann hat man 2x RAM aufm Mainboard ... super ....
Versuche mir grad vorzustellen, wie so ein Board mit 2 Towerkühler aussieht ... :)
 
@pxa:/voodoopuppe: Wieso nochmal? Fleißige Konsumenten haben doch schon 4GB auf ihrem Board. Designierter Speicherbereich sollte auch kein Problem sein. Anbindung über einen autonomen Bus? Geht das? Übrigens habe doch viele 2 "Riegel" auf ihrem Board. Das Geld für den RAM hast du doch auch bei der Grafikkarte ausgegeben.
Das mit den zwei Kühlertürmen ist genau der Punkt. Verbunden oder getrennt kühlen? Kann ich einen großen Kühler verbauen ohne drei Steckplätze zu opfern? Dafür dröhnt da kein 60mm Lüfter mehr. Mmmh, die Ingenieure ans Werk :-)

@MainFrame: Danke :-) ... ebenso.
 
@pxa: Nein, es geht darum:
Eine Grafikkarte verbraucht einfach nur einen, max. 2 Slots.

Wenn du jetzt 2 RAM-Riegel dazu kaufst dann geht schonmal mehr Platz auf dem Mainboard verloren. Die GPU dazu (wird wohl ähnlich wie eine CPU auf nem Sockel angebunden) wiederrum Platz - Platz, der meist gar nicht vorhanden ist, weil die modernen Mainboards meist schon ziemlich voll mit Leiterbahnen, Kondensatoren etc. sind.
Stell dir mal vor, dass da jetzt noch mehr Kondensatoren/Spulen usw. usf. hinzu kommen.
 
@voodoopuppe: Ja da hast du recht. Das ganze Getöns, das jetzt senkrecht auf dem Mainboard steht, müsste dann entsprechend untergebracht werden. Also für mini itx Barbones ist das nichts. Obwohl "lahme" onboard Lösungen gibt es wohl, gerade in diesem Sektor. Mir würde es reichen, aber ich spiele auch nicht mehr. Daher finde ich die in der Nachricht erwähnte Idee von den Jungs dort oben, schon recht interessant. Alles in einem und Platz sparen. Von der Performance gar nicht zu sprechen. :-)
 
@pxa: Naja, diese Onboard-Lösungen haben ja meist nur 64MByte RAM o.ä. direkt auf dem Board und genehmigen sich den Rest meist vom "richtigen" Arbeitsspeicher. Wenn man nicht zockt sind Onboard-Lösungen wie sie heute sind sicher ne Super Sache, aber ein richtiger Zocker braucht nunmal für hohe Texturauflösungen recht viel Grafik-RAM, und das können eben die Chips von heute (noch?) nicht bieten.
 
wenn amd aber so weiter macht ham se 2010 damit sicher nix mehr zu tun :D
 
@nixn:

was ist daran falsch es gleich richtig zu machen, einen richtigen 4 Kern zu bringen und sich so einen Vorsprung gegenüber Intel zu verschaffen
 
bis 2010 ist noch lang hin :) wer weiß ob die das geld bis dahin noch haben um es zu realesieren
 
bla bla, heute wieder besonderst kreative leute am werk...
 
Dass der Artikel nichts Neues beinhaltet, sieht man ganz gut daran, dass AMD ATi aufgekauft hat... in weiser Vorraussicht. Seit Unified Shader-Geschichten weiss man, dass die Aufteilung der Rechenabteilungen auf den GPUs komplett wegfallen (werden).
 
Hier, meine eingesendete News wird anscheinend ignoriert:

http://www.mdr.de/mdr1-radio-sachsen/4682576.html
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte