Beschleunigerkarte für Künstliche Intelligenz in Arbeit

Hardware Seit einiger Zeit kann man mit den AGEIA PhysX Zusatzkarten eine speziell für die Verarbeitung von Physikeffekten gedachte PCI-Karte erwerben. In Zukunft könnte es auch für die Berechnung der Aktionen der Künstlichen Intelligenz (KI) in ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Also auf der einen Seite werden GPUs jetzt in CPUs integriert und auf der anderen Seite werden PhysX- und AI-Karten in Addons verfrachtet?
 
@TobWen: Stimmt ... irgendwie passt das nicht zusammen.
 
@TobWen: Das passt sehr gut, die GPU in der CPU ist eine Billiglösung, Die Zusatzkarten stellen aber einen optionalen Mehrwert des Systems dar.
 
Naja der Rechner wird immer voller
 
@lordfritte: jop bei 4 sind wir schon, wobei die slots dafür ja eigtl immer weniger wurden... wieviele grakas sollen wir denn noch einbauen o.O v.a. bestimmt wieder 500eur/stk
 
@lordfritte: Bei mir passt schon nach einer TV Karte, Soundkarte und Grakfikkarte nichts mehr rein. Die Steckplätze sowas von eng gebaut und die Karte viel zu groß. Habe übrigens ein Asus Board. Und dann noch diese Karten ? Wie soll das gehen ?
 
naja. ich bin ja mal spektisch. im c't hat man ein testbericht über diese "physik-beschleuniger" gebracht. es hat aber so gut wie 0 gebracht. daher bin ich bei dieser karte auch mal skeptisch ob dies dann was bringen wird.
 
@meiner.einer: du darfst aber auch nit vergessen das es noch nicht wirklich viele spiele gibt die Physik-Beschleunigung voll unterstützen, ich glaube das die Karte trotzdem potential hat, wird vielleicht noch ne Weile dauern, aber in Zukunft kann ich mir gut vorstellen das es zumindest für Physik bzw. KI vielleicht keine extra Karten aber zumindest extra CPU's geben könnte welche denHauptprozessors entlasten...
 
@meiner.einer: Lad dir mal das video von Spiel "Cell Factor" runter. Es unterstützt die Physikkarte und das was man da sieht, was man mit der Karte alles machen kann, is schon enorm. http://www.winfuture.de/downloadrubrik,89.html
 
@ S!nCEr: Also wirklich fettes Video, muss man schon sagen!
 
Die Spiele müssen die Hardware vorallem auch unterstützen können sonst bringt die Karte garnichts.
 
@Vista2007: eben. und da die lizenzen bestimmt was kosten, werden die meisten für multi-core/multi-cpu programmieren und nicht für solche karten
 
schlechte KI ist meist auf schlechte programmierung bzw mangelnde zeit/prioritässetzung der programmierer zurückzuführen, aber ganz bestimmt nicht auf mangelnde hardware O_o bis das wirklich 'gebraucht' wird, werden denke ich mal noch ein paar jährchen ins land gehn, denke aber das es noch einen moment brauchen wird bis man es mal wirklich _braucht_
 
@schischa: Ein weiteres Problem ist auch noch, dass die Leute keinen Bock mehr zum Spielen haben, wenn die Bots zu schlau sind.
 
@TobWen: die Bots sind nicht schlau, das waren wenn dann die Programmierer die diesen Bots geproggt haben, bzw. die "künstliche Intelligenz" :-)
 
@TobWen
Das Kennzeichen guter KI ist ja nicht, dass die Bots immer "besser" werden sonden, dass sie "menschenähnlicher" werden :)
 
Also ich sehe das richtig? Die Prozessoren bekommen immer mehr Kerne und Leistung, fast kein Spiel nutzt mehr als einen Kern, aber die Prozessoren sollen immer mehr entlastet werden? In meinen Augen nur Augenwischerei. In dem Moment, indem z.B. die KI mit einem eigenen Thread versehen wird, kann dieser auf dem zweiten Kern zum Beispiel laufen, da brauch ich net extra ne Beschleunigerkarte...
 
@TPW1.5: Genau meine Meinung. Wenn ich später einmal acht oder mehr Kerne in meinem Rechner habe, dann werden die eben flexibel zugeteilt. Einer OS, einer Sound, einer Physik, einer KI und vier machen die Graphik. Wozu hab ich die denn? Letztendlich kommt es doch nur drauf an, dass sie mit richtigem Code gefüttert werden. Ob CPU oder GPU oder sonstwas: 1+1=2. Bei allen. Moderne Mainboards haben ja auch Modem- und Soundlösungen onBoard, die zum Großteil über einen Treiber emuliert werden.
 
@TPW1.5: So wie ich das verstanden habe ist das nocht ganz richtig. Diese Erweiterungskarte wird, so stell ich mir das vor, vom Befehlssatz her extra für solche Sachen designed. Sprich, die kann das besser als deine CPU. Ich denke sowas funktioniert auch andersherum. D.h. die Erweiterungskarte kann auch "normale" Sachen berechnen, aber eben nicht so schnell wie die CPU. Korrigiert mich wenn ich falsch liege...
 
@ec-hasslau.de: Jein. Natürlich soll diese speziell auf J.I. optimiert sein, nur ist damit die Frage nach der Notwendigkeit nicht geklärt. Was hat man davon, wenn man 5 Zusätzliche Wärmequellen verbaut? (Soundkarte, SLI/XFire, Physik und KI beschleuniger) und dann andererseits parallel dazu Ressourcen brach liegen (eben die zusätzlichen Kerne auf der CPU, die zum Teil locker die KI Berechnung übernehmen könnten: achja richtig, das standard-scenario, wer recodiert nicht gleichzeitig filme, spielt ein anderes video ab, rippt eine cd (am besten mit kopierschutz) und spielt nebenher)
 
Hmm......2 Grakas, SCSI-Adapter, RAID5-SATA-ASdapter, ISDN-Karte,
gute Soundkarte, Physik-Karte, KI-Karte........ich brauch kein Board, ich brauch nen Backblech ^^
 
Bald ist die CPU überflüssig
 
@matterno: joar, aber dafür kannste auf nem 386er crysis flüssig zocken, weil alles in karten stattfindet...
 
@matterno: und wer gibt dann den takt an? :D
 
@ dReamcatcher: Andre Rieu mit seiner fidelen Geige ! :-)
 
Wozu?
In Zeiten von Daul- und QuadCore CPUs sollte es doch möglich sein die KI / Physik auf auf den 2., 3. oder 4. Core berechnen zu lassen.

Sollen die Spiele- und Anwendungsentwickler lieber mal auf die MultiCoretechnik eingehen. Die einzigen Games die ich kenne die SMP unterstützen sind die Games von iD Software (Q3-Engine, D3-Engine). Ob es was bringt habe ich mangels Zeit allerdings noch nicht probiert. ^^

[EDIT]
Im grunde das was TPW1.5 schon gesagt hat. :)
[/EDIT]
 
@TheKiller185: also wenn ich meiner G15 trauen darf nutzt HL2 und HL1 (und mods in aktuellen Verionen) ebenfalls beide CPU Kerne.
 
@unbound.gene: das ist nciht zwingend gesagt, es ist auch durchaus möglich, dass windows den prozess nur ständig vom einen auf den anderen kern schiebt um beide einigermaßen gleich auszulasten.
 
wenn dann die ki-karte mit der grafikkarte kommuniziert erzählen einem die spielfiguren "der geist (ki-karte) ist willig aber das fleisch (spielfiguren gfx) ist schwach" *lol*
 
Das ist Alt, daran hab ich schon gedacht da gabs noch nicht mal Agia, sie müssen keine Karte machen sondern ne neue K.I Inovation
 
@Corefice: wie willst du bei intelligenz bzw künstliche intelligenz ne inovation bringen? o.o bald ham wir dank der zsmmarbeit zwischen Technikindustrie und Pharmaunternehmen eh nen QuadcoreBrain mit richtig dickem L2Cache >_>
Macht uns des schlauer? >_>
Ne Innovation wärs wenn sich die KI selbst weiterentwickelt bzw von Grund auf selbstentwickelt, aber is ja Künstlich >> Von Menschenhand geschaffen :)
 
@nightryu: Ja, selbst weiterentwickeln, technisch-anatomisch gut verpackt in unserer Umwelt pflanzen und fertig ist der Weltuntergang: "i, robot and u are a big problem for my kind" :)
 
ouh man bald gibts für jede einzelne innovation von spielen eine sepperate karte...
warum versuchen die dsa nicht in einer karte zu verbinden :/....dauert dann zwar sicherlich in der entwicklung länger aber es wird "vernünftig"
 
ouh man bald gibts für jede einzelne innovation von spielen eine sepperate karte...
warum versuchen die dsa nicht in einer karte zu verbinden :/....dauert dann zwar sicherlich in der entwicklung länger aber es wird "vernünftig"
 
kaufen, kaufen, kaufen...

Achtung Forenbetreiber! Impressum erweitern: Kommentare dürfen nur mit aktiver "Beschleunigerkarte für Künstliche Intelligenz" abgegeben werden! Oder wahlweise nur ohne... :-))
 
@koech: *aga, blebb, düdl, gak....* ... Meine ist grad abgeraucht. Ich hab ihr den Auftrag gegeben die Logik der Windowshilfe zu analysieren :D Nö, mal im ernst: Mein PC is jetzt schon gerammelt voll. Daher befürworte ich jackiies Vorschlag. Packt die ganzen Extrachips auf eine eigene Karte (Die wird dann so groß wie eine VESA Graka^^) mfg Aerith
 
Wär doch einfacher die ganzen Addon-Karten zu Modulen zu machen. Es gibt ein Father-Board wo man 2 oder mehr addon-karten reinstecken kann. Die einfachste Variante ist ja wirklich die, dass die Entwickler mal anfangen alle Kerne zu nutzen die da sind und nicht nur einen.
 
@S!nCE: jaja, wenn der father in der mother-"board" xD mal sehen wie viele den verstehen :-)
 
@ TTDSnakeBite: LOL Jap so mein ich es :) Father "board" in der Mother und es kommen Module dazu :)
 
also der physikprozessor hat durchaus seinen nutzen nur haben die wenigsten games bisher eine unterstützung wobei es durchaus sachen gibt die nutzen ziehen könnten
echtzeit haarsim echzeit kleidungssim realistischeres wasser
geschoß flugbahn...
stellt euch ein mittelaltergame vor wo tausende nein was sag ich zehntausende oder noch mehr einheiten sich tummeln und diese einen pfeilhagel auf den gegner regnen lassen was braucht man um zehntausende einheiten realisieren zu können richtig gute gfx karte wegen geometrie gute physik für kollision und geschoßberechnung und ja richtig erraten gute ki für die steuerung
klar kling übertrieben aber was bei den meisten mittelalter games unrealistisch ist oder generell bei vielen strategiegames ist die einheitenzahl man kann zur zeit denk ich noch keine zehntausend einheiten auf den schirm bringen wo da die technischen grenzen liegen zurzeit kann ich net genau sagen aber wär schön sowas mal zu sehen sowas wie sie es bei massiv schon in herr der ringe produziert haben
k das game stammt von ea war auch ne starke überwindung es überhaupt zu kaufen aber ok doch was mich gestört hat war dass in helms klamm vieleicht 80 uruks eingetrudelt sind das is einfach fad wenn ich an den film denke das war schon ne andere liega und machbar wärs ganz sicher da hätt ich lieber ne bissel schlechtere gfx wenn ich dafür mit 10k einheiten rumlaufen könnt
 
Wers geld hat kanns sich ja kaufen , wer nicht klaut sich das so zur K.I

Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte