ATI: Grafik-Chips bald für andere Aufgaben nutzbar

Hardware Vor kurzem waren erste Gerüchte aufgetaucht, wonach ATI seine Grafikprozessoren auch für andere Aufgaben nutzbar machen will. Nun haben die Kanadier dieses Vorhaben bestätigt und ihre sogenannte "Stream Computing" Technologie angekündigt. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich meinte diese Technik hat eine andere Firma entwickelt und bietet es unabhängig von ATI an GPU, CPU und andere Ko-Prozessoren parallel für Rechenaufgaben nutzen zu können. Stand mal bei einer anderen Site glaub ich was.
 
noch keine programme bekannt?
http://www.anandtech.com/video/showdoc.aspx?i=2849
http://folding.stanford.edu/download.html
was is dann das? ein bisschen nachforschen könnte man schon erwarten, oder?
 
@nonyob: naja, dann zeich mir doch mal das programm, was das dann benutzt und das bei meiner (nicht vorhandenen) x1900 stream computing nutzt... dass es theoretisch möglich ist, ist schön, aber wo is der download?
 
@nonyob: http://www.stanford.edu/group/pandegroup/release/Folding@Home503.EXE
 
@nim: welche der 2 links funktionieren denn bei dir nicht? im einen artikel wird über das folding@home berichtet und die andere url führt dich zu der seite wo man es spätestens morgen herunterladen kann.
 
@nonyob: hehe gut gemacht und nun gibt e s sogar auch schon den cata 6.10 beta :)
 
oh weh.... ... mit mehreren Grafikkarten... dann kann ich mir auch so ne physikscheiXXe in meinen PC nageln. Ich hoffe das die endlich mal begreifen den DualCore CPU dafür zu optimieren und nicht als irgendeinen stromfressenenden Dreck in die Pcs stecken wollen. Dammned!!!!!!!!! Wacht auf und nutzt den 2. Kern. Bald gibt es 4 Kerne usw. aber ne Karte für Physik... Ja ne... iss klar... :-)
 
@vancleeve: bald gibts grafikkarten für bierflaschenberechnung, der mark boomt in der "grafikkarten für x-berechnungs"-branche !
 
@meierwella: Eine Bierflaschenberechnungsbeschleuniger Karte? Wird genug Kiddies mit reichen Eltern geben, die sich sowas kaufen werden. Ist nur noch eine Frage der Zeit, bis DirectBeer in DirectX 11 integriert wird :)
 
Die Hersteller sollten lieber einsehen, dass der Markt für Dual-GraKa-Lösungen einfach nicht wirklich da ist. Lieber zwei Co-Prozessoren auf den einzelnen GraKas, einer für Physik und einer für die KI. Oder es direkt alles auf dem DIE der GPU vereinen. Für Windows wird die GPU ja sowieso erst wirklich nützlich, wenn Vista und die GraKa WDDM 2.0 oder 2.1 unterstützen. Also ich kann manche Entwicklungen echt nicht nachvollziehen... SLi, CrossFire... nenene...
 
@BessenOlli:

Was heisst 2 Grafikkarten. Nvidia und ATI wollen dir allen ernstes drei Grafikkarten aufschwatzen. Zwei für ihre nichtnutzigen wenige Prozent Mehrleistung und die dritte für Physikberechnungen. Und dann schaut man sich mal die Marktanteile von Highendgrafikkarten an, die nicht mal 1% des Marktes ausmachen und man fragt sich, wer soll das alles überhaupt kaufen? Und lohnt es sich für die wenigen wirklich sowas überbaupt zu entwickeln?
 
Macht bitte nicht den Fehler, den immer und jedesmal jeder macht: unterschätzt nicht die Leistung, die da möglich ist. Ich wette, in 10 Jahren gibts Technik, ohne die keiner von euch mehr leben möchte "ohne das wären Spiele total scheisse, ohne das würde mein Berechnungsprogramm voll langsam sein, ohne das wäre der PC wie in der Steinzeit" - sowas wird kommen. War bei 3dfx als Addon-Lösung ja auch. Und man wird genau die Technik oder Ableger davon nutzen, die heute hier jeder scheinbar belächelt. Natürlich, für den Markt von heute ist das eher Blödsinn. Aber die Technik an sich ist eine Weiterentwicklung. Ist genau so, wie mit den ganzen Leuten, die meinen dass die ganze Hardwareperformance immer schwierieger ausgenutzt werden kann. Das ist sowas von falsch! Die ganzen Möglichkeiten und Ansätze sind noch überhaupt gar nicht erst angedacht. Von der Softwareseite wäre es am liebsten, wenn die Hardware heute ca. knapp 2Mio. mal schneller wäre. So würde man viele Ansätze erst überhaupt ausprobieren können. Ich rede gerade von single-PC Anwendungen, die sehr viel Rechenleistung brauchen, was nun mal in den meisten Fällen auf Spiele von Morgen zutrifft (auch wenn hier paar Klugscheisser sind, die gleich ihre Wetterdaten auf ihrem Home-Server berechnen wollen ^^). Ich finde es gut, dass man versucht immer mehr und immer verschiedenere Ansätze der Leistungssteigerung durch mehr-Transistor Lösungen zu bringen. Angefangen hat das ganze ja mit Hyperthreading, wo man zunächst nur die Register der Pipeline verdoppelte. Wo Hyperthreading also das Minimum ist, ist die Cell-Struktur das Maximum der Onchip Leistungsoptimierung. Die Dual/QuadCore (usw.) Lösungen sind irgendwo dazwischen. Ich freu mich schon auf die CPU mit nem freiprogrammierbaren genuggroßen FPGA onchip, wo den Teil der CPU nach seinen persönlichen Vorlieben "erschaffen" kann. Gibts zwar, aber ist ja nicht für den Massenmarkt. Physikengine komplett in FPGA auf der CPU :) mhhhh.. wer braucht da noch Zusatzkarten? Deswegen: die kommende Technik ist für heute unsinn, aber für die zukünftige Technik sehr wichtig.
 
@NEWSLESER: Öhmm.. yep! Seh ich genauso.
 
@NEWSLESER:

Adonkarten haben sich aber nie durchgesetzt. Oder hast du heute auch noch ein 2D Grafikkarte drinn stecken und zusätzlich eine 3D Beschleunigerkarte? Nein du hast beides auf einer Platine. Und warum wird immer mehr onboard verbaut (Sound, Netzwerk usw.)? Schade ist nur dass heute Hardwarepower mit immer schlechterer (weil objektorientiertes Programmieren) Softwarecodes verschwendet wird. Was kann ein heutiges Offices grossartiges mehr als ein Office vor 10 Jahren? Und dann schaut man sich die damaligen Anforderungen und die heutigen an. Da geht nach meiner Rechnung einfach etwas nicht auf.
 
@ JTR: Ich glaube du hast keine Ahnung was ist ein "objektorientiertes Programmieren"
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen