Grafikkarten bringen Forschern Leistungsschub

Grafikkarten Wissenschaftlern der Johannes Gutenberg-Universität Mainz ist es gelungen, eine bekannte Problemstellung aus der Physik auf einer Grafikkarte 60 Mal schneller durchzurechnen als üblich. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Und heute bei Wunderwelt Technik: Wie baue ich mir einen Handrasenmäher mit einer GPU!

Vielen Dank für diese Info :)
 
@Dr_Fu_Mahn-Shu: Gibts doch schon. Oder haste genau DIE Folge MacGyver verpasst ? xD
 
Tja, es lebe der Fortschritt! Und da der Grafikkartenmarkt ja auch deshalb boomt, weil die PC-Spiele immer aufwendiger u realistischer werden, ist es doch geschickt u klug von der CDU, diese zu verbieten! Denn eines ist mal sicher, werden diverse Pc-Spiele erstmal verboten, nimmt auch der Grafikkartenboom erstmal ab... oder holen sich die meisten Leute so eine, abgesehen von Videoanwendugen u Filmeschauen, um Tetris flüssig zu spielen!? Die eine Konsequenz wird eine andere Konsequenz hervorrufen!!
 
@marex76: Deine Ausage stimmt nur bedingt. Wenn, dann werden Diese Spiel nur in D verboten. Allerdings dürfte das die weltweite Entwicklung dieses Sektors nicht in dem Maße zurückwerfen wie du sagst. Da gibt es interessantere Märkte.
 
Ich find diese Traktor-Rasenmäher aber viel toller!
 
@nikivista2005: Dann nimmste halt davon 50 Stück. Weiß aber nicht genau ob die alle nebeneinander auf die lange Kante des Fußballfeldes passen :D
 
gpgpu computing ist so neu für euch , winfuture? ist doch nix neues.....
 
@omg: dieses Folding@Home, benutzt diese Technik doch auch schon lange wenn ich mich nicht irre oder? das ist ja auch ne Wissenschaftliche Berechnung
 
@omg: Es ist ja nicht die Rede davon, dass gpgpu computing als neu und bahnbrechende Sensation vorgestellt wird. Folding@home sollte auch den meissten Computerinteressierten ein Begriff sein. Spätestens, seit PCGH darüber regelmäßig berichtet. Vielmehr geht es in dem Artikel um ein Beispiel. Es ist einfach ein aktueller Bericht, wie dieses Verfahren an der Gutenberg-Akademie sinnvoll eingesetzt wird. Und wenn dieser Bericht neu raus kommt, dann kann man ihn doch als News bringen, oder nicht? ___ btw: Würde gern mal sehen, was Du (und solche wie Du) zusammen suchen und posten würden, wenn sie jeden Tag die Newsseite befüllen müssen. Wir hatten hier schon ganz andere Themen, welche z.T. nur gaaanz entfernt was mit dem PC und Co. zu tun hatten.
 
Da ist aber einer ganzschön begeistert. Wirkt irgendwie ein bißchen wie Werbung zur Imageverbesserung von Grafikkarten :) Die Milch macht's!
 
Hier nochmal die Heimseite von Tobias Preis: http://www.tobiaspreis.de/
 
@F98: "Heimseite" :-D Das hat mein Infolehrer auch immer gesagt...und der hatte nur so tolle Floskeln: "Ein klares Jein!" :-P
 
Denke, das wir noch ganz am Anfang stehen, was das GPGPU Computig betrifft. Bin gespannt, was DX11 dazu beiträgt.
 
@Dario: Ich denke da eher an OpenCL.
 
@Dario: Das Problem ist im Augenblick nur, dass es relativ (in Bezug auf die Rechengeschwindigkeiten der GPUs) lange dauert, irgendwelche Daten die zur Berechnung durch die GPU anstehen, in den Speicher der Grafikkarte zu schreiben bzw. die Ergebnisse zurückzuholen. Da gibt es noch einen "Flaschenhals", weshalb die Grafikkartenhersteller an diesem Punkt noch etwas verbessern müssen. Vielleicht bei den "Grafikkarten" die es schon gibt und die über keinen Videoausgang verfügen.
 
Forscher bringen Grafikkarten Leistungsschub wäre mir lieber...o_O
 
Schöne Illustration mit den Handrasenmähern. Nur leider lässt sich der überwiegende Teil der Berechnungen im alltäglichen Leben nicht so schön parallelisieren. Da kann der zweite Rasenmäher erst loslegen, wenn der erste seine Bahn fertig gemäht hat.
 
Schade, dass die bösen Killerspiele, die ja die meiste Leistung benötigen, in Deutschland verboten werden sollen. Naja egal, Die Jugend kann ja auch Politiker oder Geschichtsprofessor werden. Das ist ja viel wichtiger als Informatik oder sonstiges rumgetippe auf einer Plastiktastatur, ne Opa?
 
@kadda67: Wenn man die Arbeit, die in den letzten Jahren in die Perfektionierung von Tötungserlebnissen investiert wurde, in wissenschaftliche oder industriell genutzte Bahnen wie CAD, FEM, Mustererkennung, Forschung, Parallelisierung usw. gelenkt hätte, wäre die Menschheit wirklich weiter und die Rechner hätten sich ebenfalls in geeigneterer Richtung entwickelt. Daß es erst jetzt dahin geht, das Potential der wahnwitzigen Grafikkarten auch für anderes als Niederinstinkt-Geballer zu nutzen (wahrscheinlich in 2 Jahren mal endlich praxisrelevant), ist nicht gerade ein Ruhmesblatt der IT-Geschichte!
 
Geforce GTX 280 gegen Pentium III 733 Mhz oder was? Ist klar und auch schon lange bekannt dass Grafikkarten viel schneller in solchen Berechnungen sind, trotzdem wäre es nett zu wissen, welche Komponenten man hier gegeneinander hat antreten lassen.
 
Wäre nicht BOINC sinnvoller hier? o.O
 
@s3m1h-44: Denk ich auch... die nuten die Graka schon lange...
 
Vor einem Jahrzehnt habe ein Wissenschaftler seine Berechnungen... heute müsse zudem sein Bart im Wind des Lüfters vom GPU-Kühler flattern...
 
Bei meinem im "GPU - Lüfter flatternden Barte des Propheten"! Mein Handrasenmäher mit GPU ist fertig! :)
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.