AMD: DirectX 12 wird endlich volles Multi-Core-Potenzial ausschöpfen

Mit Windows 10 wird Microsoft auch eine neue Version der Programmierschnittstellen-Sammlung DirectX veröffentlichen, für Version 12 verspricht das Redmonder Unternehmen auch zahlreiche Verbesserungen. Bekannt ist bisher, dass Entwickler dank ... mehr... Microsoft, Teaser, GDC, DirectX 12, GDC 2014 Microsoft, Teaser, GDC, DirectX 12, GDC 2014 Microsoft, Teaser, GDC, DirectX 12, GDC 2014

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wurde ja auch mal Zeit.. wie lange hingen wir mit DX11 in der Luft.
 
@Aaron 86: Ich will DX12 für Win7!
 
@daknol: kannste knicken, außer du upgradest auf die kostenlose Version von WINDOWS 10, sobald diese verfügbar ist! und ganz ehrlich, ich habe Win 8 benutzt und fand es nicht mal schlecht, besser wurde es mit dem upgrade auf 8.1! gut viele mögen das Modern/Metro Design nicht, aber naja, soll jeder für sich wissen! den vorteil den ich prinzipiell raus ziehe in neuen OS Systemen ist die Performance, kommt den Games zu gute, wenn ich schon vergleiche, XP zu Win 7 und dann zu Win 8 ist das riesen groß, in bezug auf Ram ausnutzung!

ich bin gespannt, inwieweit, das mit Win 10 ist, aber das habe ich selbst noch nicht ausprobiert, obwohl ich die TP nutze! aber ich kann schonmal sagen, das es sich nicht viel nimmt in vergleich zu WIN 8/Win8.1!

achso, ich wollte hier kein neun beitrag zu Win 8/8.1 abgeben, ich wollte nur damit sagen, das die Performance eine sehr wichtige rolle ist und spielt!
 
@daknol: nein du bekommst Windows 10 im ersten Jahr gratis. Was will man mehr? Die angekündigten und teilweise umgesetzten Features sind doch klasse.
 
@zivilist: Ja absolut, nicht abschaltbares TPM 2.0 sowie UEFI Zwang sind traumhafte Features, vor allem die UEFI Features welche sich im Hintergrund und außerhalb meiner Zugriffsmöglichkeiten abspielen (http://www.heise.de/newsticker/meldung/BIOS-Rootkit-LightEater-In-den-dunklen-Ecken-abseits-des-Betriebssystems-2582782.html ) sind sowas von genial, dass man meiner Meinung nach sofort und ohne groß zu hinterfragen, warum ein Konzern wie Microsoft seinen Kunden ein solch großzügiges Upgrade-Angebot kostenlos macht (wohlgemerkt, wir reden nach Microsoft Schätzungen von 1,5 Milliarden PCs, also kein Pappenstiel) einfach wechseln muss.
So etwas macht eine gewinnorientierte Firma nicht aus Nächstenliebe, nein sie rechnet fest damit, dass sich dieser Schritt für sie auszahlt. Und wenn man bedenkt, dass mit UEFI & TPM 2.0 es MS möglich ist in Zukunft zu bestimmen was für Software auf dem entsprechenden PC läuft und diesen auch ggfls. aus der Ferne abschaltet durch einfaches deaktivieren der Zertifikate, dann dürfte auch klar sein, woraus der Profit für MS besteht.
Aber was red ich, den Otto-Normaluser interessiert doch eh nur Startmenü, Kacheln und evtl. ein wenig DX 12, dass er bevormundet wird, ist ihm doch ganz recht.

P.S. Evtl. enthaltener Sarkasmus ist rein zufällig in den Post gelangt und absolut beabsichtigt.
 
@Antimon: Sei mir nicht böse aber du weist denke ich schon das die TPM und UEFI richtlienien nur für neu PCs gelten und Teilweise für herstellerfreiheit da sind, du wirst ja nich plötzlich aus einem Bios ein UEFI gemacht haben wenn du updatest. und software kann nicht nur MS blocken seit Xp, auch ein AV Hersteller kann sein Produkt ausnutzen.
 
@Antimon: Bisschen viel paranoid oder? Klar ist das ein gewinnorientiertes Unternehmen, aber der Schritt das Update zunächst kostenlos (das wird ja schon auch noch verkauft) als Upgrade anzubieten, ist rein aus Support-Sicht ja ein genialer Schritt! Viele werden aktualisieren und Microsoft hat eine breite Masse an PCs mit aktueller Windows Version. Apple fährt damit doch seit Jahren gut, Updates/Upgrades gegen einen kleinen Obulus oder komplett kostenlos anzubieten. Ausserdem möchte man evtl. mit diesem Schritt verhindern, dass das immer noch sehr beliebte Windows 7 zu einem 2. XP wird.
 
ich freue mich schon richtig auf dx12 und vulkan. das ist schon so lange überfällig.
 
@Mezo: Und beides haben wir der Firma mit dem Rücken an der Wand zu verdanken. AMD hat beide durch Mantle erzwungen. Ich hoffe auch, daß nun deutlich mehr vom Potential der Piledriver Architektur und evtl sogar noch der Bulldozer Architektur genutzt wird. AMDs Ansatz war schon gut, aber die Software war nicht so weit. Wir sehen ja mit der noch weiter erstarkten Dominanz mit Intel gibt es nur noch Fortschritt in der Energieffizienz und Fertigung. Innovationen wurden größtenteils von AMD durchgesetzt im bisherigen 21. Jh. Darum sollte man diese Firma auch belohnen. Die FX sind gute CPUs. Intel ist ein Saftladen. Mit einer 14 nm Bauweise und einem Entwicklungsetat, der doppelt so groß ist wie der gesamte AMD Konzern schafft es Intel gerade mal gleichzuziehen mit der Grafikleistung von AMD APUs. AMD sollte es machen wie Microsoft: Eigene Geräte auf den Markt bringen, die zeigen, zu was AMD Technologie in der Lage ist, wenn ein Gerätehersteller das wirklich will.
 
@Chris Sedlmair: Zur "verdanken"? High-Level-APIs wurden erfunden, um die mangelnde Kompatiblität durch Abstrahierung (auf Kosten der Performance) einzugrenzen. Aber wegen ein paar FPS begeben wir uns nun wieder in eine Situation, von der wir eigentlich dachten, sie mit dem Aussterben von Glide hinter uns gelassen zu haben. Nun dürfen die Entwickler wieder sehr viel genauer auf die einzelnen Chips optimieren. Trotz DX12. Und rate mal, wer da gegen den Marktführer sehr wahrscheinlich den Kürzeren ziehen wird?
 
@Niccolo Machiavelli: Sorry, aber das läuft jetzt schon so mit High-Level-APIs. Nvidia kauft sich in Spieleentwicklungen ein und läßt AMD künstlich ausbremsen. Leider konsumieren viele Gamer so, wie die Konzerne handeln: Gedanken- und Gewissenlos... für eine Hand voll TDP.
 
@Chris Sedlmair: Was nichts weiter als eine Behauptung deinerseits ist...
 
@Niccolo Machiavelli: Eine Behauptung Seitens ganz anderer Branchen-Kalliber... nicht meinerseits... Ich gebe es nur wieder. Der Verdacht hat neues Futter bekommen durch die PC Version von AC Unity
 
@Chris Sedlmair: Wow. AC Unity also. Und was ist mit der grottigen TressFX-Performance auf Nvidia? Nur Pech oder auch Böswilligkeit seitens AMD? Kannst ja mal zitieren, wo eine unabhängige Stelle mit Rang und Namen von einer böswilligen Benachteiligung AMDs spricht. Denn dass mit finanzieller Hilfe der GPU-Entwickler optimiert wird, ist nicht unbekannt. Genauso, dass Nvidia nicht für die Optimierung für AMD und umgekehrt bezahlen wird. Und da Nvidia hier nun mal deutlich mehr Geld in die Hand als AMD nimmt, braucht man sich bei AMD nicht wundern.
 
@Niccolo Machiavelli: Dir mag diese Art der Manipulation zusagen, mir nicht. Für mich ist das ein Grund, eine Firma zu meiden. Zu AC Unity: Das Spiel wurde parallel für die Konsolen, die auf AMD-Technik basieren entwickelt, dann schaltet sich Nvidia ein bei der PC Version und das Ergebnis ist das hier: http://www.pcgameshardware.de/Assassins-Creed-Unity-PC-258436/News/Benchmarks-GPU-CPU-AMD-Nvidia-Intel-1142535/
Und hier Richard Huddy:
http://www.golem.de/news/richard-huddy-im-interview-amd-verliert-einen-benchmark-den-nvidia-geschrieben-hat-1406-107523.html
 
@Chris Sedlmair: Was willst du mit diesen Link? Denn Gaming-Evolved-Titel laufen dafür auf AMD-Karten schneller. Betrug ist es offensichtlich aber nur dann, wenn Nvidia den Vorteil auf seiner Seite hat.

Kennst du denn die Performance von AC Unity, bevor Nvidia Hand anlegte? Denn die musst du kennen, bevor du solche Aussagen tätigst. Nein? Also doch alles nur pure Spekulation. Denn nur weil es parallel entwickelt wurde, bedeutet das noch lange nicht, dass es überall gleich schnell lief. Und es einfach mal anzunehmen, weil es in den Kram passt, macht es noch lange nicht zur Wahrheit.

Zum zweiten Link: Dass AMD gerne mal auf die Tränendrüse drückt ist ja bekannt. Müssen sie auch. Denn rational betrachtet gibt es nicht viele Bereiche, wo AMD noch glänzen kann. Welche Aussagen erwartest du von einem AMD-Manager?

Mir ist das ehrlich gesagt alles zu kindisch. Du kannst dir sicher sein, dass AMD dir die Grafikkarte bestimmt auch nicht günstiger überlässt, nur weil es dir mal nicht so gut geht. Wenn ich Hardware kaufe, dann schaue ich, wo ich das für mein Geld bekomme, was ich will. AMD ist ein kapitalistisches Unternehmen, genauso wie Nvidia und Intel. Und dabei keinen Deut besser und verdient deshalb auch keine besondere Rücksicht.
 
@Niccolo Machiavelli: Denk mal ein bißchen weiter als bis zur Nasenspitze. Man kauft nie nur die Ware, sondern auch ein Pigment des Bildes, das den Markt der Jahre darauf bildet. Willst Du wirklich, daß Firmen mit diesem Verhalten den Markt dominieren. Und wenn sie das Marktmonopol haben, willst Du dann solchen Geschäftstraditionen alternativlos ausgeliefert sein? Rechnest du wirklich alles mit ein in Deine Kostenrechnung? Was kriegst Du alles für Deinen Euro? Hast Du alles bedacht?
 
@Chris Sedlmair: leute von heute, ihr tut alle so als ob INTEL oder AMD, oder wie auch immer besser als der andere ist, wenn ihr mittlerweile oder sogar älter seid als ich, dann wüsstet ihr das ehemalige Mitarbeiter, AMD gegründet haben, früher liefen CPU's von Intel und AMD auf dem selben Mainboard!
Seid geraumer Zeit, nicht mehr! Dazu kommt, das diese beiden Unternehmen, einen Lizenz oder nur einen aussergewöhnichen Vertrag haben, der im grunde genommen nur aussagt, das wenn ein Feature set oder eine bestimmte Technologie sich im einsatz bewährt hat, wird Sie dem anderen zugute kommen!

Aber einige hier sind vlt zu jung, oder haben sich nicht informiert!

und dieses ist nur ein bsp!

es ist ja nicht so als ob nvidia nicht das gleiche macht bzw. fast das gleiche macht wie mit damals ATI was ja auch mittlerweile AMD ist, es gab vor ein paar jahren auch gewisse features, die wiederrum in beiden drin steckte!

es kommt immer darauf an, ob ersten die kaufkraft stark ist und zweitens ob das Feature sich bewährt, oder jedes andere stück architektonische bzw softwareseitige!
 
@Chris Sedlmair: Ich habe nachgedacht. Deswegen plappere ich nicht diesen Zeug nach, was auch pubertierende Gamer millionenfach in Foren von sich geben.
 
@OliverK1: Daß alle nur unser bestes (unser Geld wollen) ist mir auch klar. Nur hat das was mit Würde zu tun, daß man sich nicht alles gefallen läßt. AMD steht für eine andere, offenere Tradition. Mag sein, daß sie sich erst aus der Not heraus so entwickelt haben. Bessere Menschen sind es bestimmt auch nicht. Aber Methoden, wie Intel und Nvidia sie an den Tag legen, sollte man nicht belohnen. Dann bekommt man nämlich einen sich brutalisierenden Markt. Und wenn die Schlacht dann vorüber ist und nur noch der letzte steht - wenn überhaupt - wird dieser seine Investitionen mit Dividende zurückholen aus dem dann von ihm dominierten Markt. Und Dividendenerwartungen sind tendentiell nicht im Fallen begriffen. Man wird uns nicht als mehr als Konsumschafe ansehen, solange wir nicht aufhören uns wie welche zu verhalten. Ziel ist es nicht ein Intel-Monopol durch ein AMD-Monopol zu ersetzen, sondern Intel und Nvidia dazu zu zwingen, ihr Verhalten zu ändern. Das werden sie aber nur dauerhaft, wenn es Kräfte auf Augenhöhe gibt, die das kontrollieren können. AMD ist der letzt verbliebene Kontrahent von Intel und Nvidia sowohl im CPU-Markt als auch im GPU-Markt. Willst Du nach dem Recht des (Finanz)stärkeren direkt gegen Intel antreten, oder willst du das lieber doch AMD überlassen?

PS: Du hast Recht mit Deinen Anführungen, ändert aber nichts grundsätzliches an den Gesetzmäßigkeiten des Kapitalismus. Wären Arbeitsverhältnisse ein Grad der Verwandtschaft, dann wäre die gesamte Branche ein Inzucht-Dorf. Muss man wissen!
 
Aja - und selbst manche aktuelle Spiele kommen mit DX 9.0c daher - witzig.
Bis das zum "echten" Einsatz kommt, werden "Jahre" vergehen.
 
@Zonediver: Sieht ziemlich tot für mich aus: http://store.steampowered.com/hwsurvey
 
@iammaac: Es ging bei der Aussage von Zonediver nicht um Hardware.
 
@Toddi: Es wird auch das OS angezeigt: Windows XP 32 bit 3.73%. Das hing auch mit der alten Konsolengeneration noch zusammen.
 
@iammaac: Und was hat das alles mit der Tatsache zu tun, dass viele Spiele nach wie vor auf DX 9.0c setzen?
 
@Zonediver: Und meistens sind das beileibe nicht die schlechtesten.
 
@Niccolo Machiavelli: DX 12 ist nun nicht wirklich ein Grund, ein Spiel, das für DX 9.0c geschrieben wurde, nicht zu spielen. Es ist gut, wenn es Fortschritt gibt, aber es ist erst recht gut, wenn ein Spiel unabhängig davon lange begeistern kann. ein entweder oder kann ich da nicht erkennen. :)
 
@Chris Sedlmair: Doch, ein wenig schon. Denn ein Entwickler hat in der Regel ein Budget zur Verfügung, mit dem er auskommen muss. Fließt ein größerer Teil in die Grafik (Lizenzkosten und Zeit), bleibt ganz automatisch weniger für den Rest des Spieles. Und diese Korrelation merkt man um so heftiger, je besser die Grafik eines Spiels wird. Letztes Beispiel war Ryse, das mal wieder sehr viel mehr Grafik als Spiel bot.

Triple A kann man inzwischen getrost links liegen lassen, da verpasst man nichts.
 
@Niccolo Machiavelli: Ich spiele jetzt noch ab und zu gerne Neverwinter Nights 2. Schöne, neue Grafik ist nur ein Sahnehäubchen für mich. Aber ein bescheuertes Game wird nicht gut durch Spitzengrafik und ein gutes Game nicht durch schlechte Grafik schlecht. Ich habe kürzlich Halo 1 zum ersten mal durchgespielt als Teil der Master Chief Collection. Hatte ja 12 Jahre lang keine Konsole im Haus. Es ist zwar grafisch etwas aufgemotzt, aber immer noch das selbe 15 Jahre alte Game. Und es hat mich gefesselt. :)
 
@Zonediver: Und das macht bei den Optimierungen rein gar nichts, denn diese sind unabhängig von dem tatsächlich genutzten Feature-Satz des Spiels. Auch wenn das Spiel sich auf die Kommandos beschränkt, die auch schon DX 9.0c mitgebracht hat, werden diese logischerweise dennoch von der auf dem System installierten DX-Version umgesetzt und profitieren dadurch ebenfalls von den Optimierungen.
War übrigens früher auch schon immer so. DX 8.0 Spiele hatten z.B. auch einen Performanceschub erhalten, als DX 8.1 erschienen ist.
Bei ner DX-Version, die in erster Linie nur neue zusätzliche Features einführt, merkt man performancemäßig natürlich eher wenig und da profitieren dann logischerweise auch nur GPUs, die diese neuen Features hardwareseitig auch unterstützen.
Bei DX 12 hat man ja aber vor allem auch Bestehendes optimiert, konkret sprach MS schon davon, dass bei DX 10 und 11 - Titeln eine bessere Performance zu erwarten sein wird.
Spiele, die momentan noch mit DX 9.0c erscheinen, werden evtl. weniger profitieren, weil es da einfach wurscht ist - die Optimierungen wird man ja immer nur dann spüren, wenn die CPU ordentlich zu tun hat. Das wird also vor allem aktuelle Titel mit Top-Grafik betreffen.
 
@mh0001: Zitat " und profitieren dadurch ebenfalls von den Optimierungen." Ohne im Detail etwas von der neuen dx12 API zu verstehen, aber ich zweifle eher daran das auch ältere DX9c Spiele von DX12 profitieren. Muss das Spiel nicht auch angepasst werden um direkter auf die Hardware zugreifen zu können? Also wenn dann dürfte der Vorteil minimal sein aber wir werden sehen was passiert wenn Windows 10 rauskommt. Hab noch halflife 2 drauf was derzeit auf dem 7850k nicht wirklich flüssig in Full HD läuft, den Grund dafür hab ich auch noch nicht herausgefunden. Dx11 Spiele (Battlefield) sollen auf dem Kern ja schon wesentlich besser laufen. Wenn die Optimierungen zum Teil greifen sollte auch das alte Halflife laufen.
 
@Zonediver:
DX) ist soweit ich weiß schon an der grenze angelangt, wenn man sich indie spiele im vergleich zu AAA Spielen ansieht, haben Sie noch nicht das know how solche Grafik qualität zu zaubern, oder wollen das nicht, siehe z.b. counter strike Zombie an, oder wie auch immer das hieß.

Im grunde ist das schnell erklärt,

1. nicht jeder hat oder kann sich aktuelle/re hardware leisten, die meisten die ich kenne, haben noch ein Dual core system und dem zufolge maximal eine DX 10 Graka!
2. sehr wahrscheinlich, wenn du viele leute dein Videospiel verkaufen wilst, achtest du darauf das das auch jeder spielen kann, oder?
3. dadurch, bist du gezwungen bzw. kannst du nur DX9 benutzen!
4. Wenn man DX 9 so optimiert hätte, wie jetzt DX 12 oder vergleichbare, dann sehe das vlt anders aus, dann bräuchte man kein DX 12 oder vergleichbar!
 
Also nutzlos sind / waren die Multicores auch mit DX 11 definitiv nicht, es gibt mittlerweile genug Spiele, die erst mit 4(+) Kernen richtig gut laufen. Natürlich ist es aber zu begrüßen, dass nun noch mehr Aufgaben parallelisiert werden können.
 
@DeepBlue: Ein Mehrkern-System hat auch für Spiele schon immer was gebracht, auch, wenn nur ein Kern mit dem Spiel selbst beschäftigt war, denn der oder die anderen Kerne haben in der Zeit per Multithreading die Hintergrundarbeit am Windows-System übernommen.

Wenn das ganze nun mit DX12 tatsächlich auch direkt für das Spiel gilt (also es beschäftigen sich mehrere Kerne nun wirklich nur mit dem Spiel), dann umso lieber.
 
@departure: Vor allem gilt das nur für die Grafikberechnung. Andere Teile des Spiels wie KI, Physik, Sound, Wegfindung, usw. gibt es ja auch noch. Diese Teile laufen schon ne Weile in eigenen Threads und können damit auch mehrere CPUs nutzen.
 
Die Tatsache, dass man fast bei jedem Spiel einen unterschied zwischen Dual-Core und Quad-Core CPU merkt zeigt wohl, dass das so nicht ganz stimmt. Es gibt ja immerhin noch genug Dinge die eine CPU nebenbei machen muss außer Grafik (Physik, NPC-Wegfindung, KI-Entscheidungen uvm.) und dem für die Grafik benötigten Teil die Ressourcen wegfressen können.
 
@paul1508: Genau das zeigt doch auch die Grafik von AMD. Die lila Balken sind die vom Spiel und verändern sich zwischen DX 11 und 12 so gut wie gar nicht. Die Berechnungen vom Spiel können bisher auch schon auf mehrere Kerne verteilt werden, darum müssen sich die Programmierer des Spiels selber kümmern.
Es geht ja lediglich um die Aufteilung der grafikspezifischen Rechenoperationen auf mehrere Kerne. Und diese werden momentan nur von einem einzigen erledigt.
 
@mh0001: Mir ging es um diese Aussage: "Niemand will zugeben: 'Ach übrigens, kennt ihr Multi-Core-CPU? Sie war für eure Spiele nutzlos."
 
@paul1508: Im grunde haste recht, der einzige grund warum, die das jetzt mitunter bringen (DX12 usw) ist die bessere verlagerung. MT.

mir ist auch aufgefallen, das der erste kern trotzdem mehr benutzt wird als die anderen, könnte Architektonischer oder Softwareseitig sein, aber das lasse ich mal stehen.

ich wäre auch eher dafür das, das wirklich gleichmäßig ist, sprich alle balken bis max. 10 -20 ms bzw. s.

aber ich glaube, diese Art, hat was damit zu tun, das das OS ja auch noch eine rolle spielt, und so lange das OS noch keine 4 kerne oder höher nutzt, für sich selbst, bräuchten wir diese art von architektur/softwareseitige auslagerung, wie eingangs beschrieben, oder?
 
@OliverK1: Ich denke diese Benchmarks sind einfach extrem geschönt. Es gab bisher einfach noch nicht das Problem, dass das "füttern" der Grafikkarte so arg abhängig von der CPU war. Das hat viel mit den draw calls zu tun usw. wofür ja Star Swarm der ultimative Benchmark ist. Ich kann mir gut vorstellen, dass auch hier so ein draw call worst case zur Anwendung kam, weil wenn ich Battlefield 4 spiele ist bei mir kein einziger Kern auf 100 % Auslastung.
 
@paul1508: sehr wahrscheinlich. bei mir war es ähnlich mit THIEF!
 
Wenn ich so zurückblicke, dann hieß es doch das WGF 1.0, wie es damals noch hieß, bevor es wieder in DirectX 10 umbenannt wurde, das es eine komplett neu bzw. fast neu geschrieben API sei, oder?
In Wahrheit, war es bestimmt nur eine DirectX 9.5 oder etwas höhrere Version!

Aber, naja im grunde genommen, ist es doch eher wichtig, das es hoffentlich so funktionieren soll wie es hätte die letzten, keine Ahnung 15 Jahre funktionieren sollen,oder!

Also hoffen wir mal, das die sich da oben mal wieder einkriegen und mal versuchen vernünftige Software zu schreiben, alla GITHUB als Sinn Beispiel!
 
@OliverK1: Falsch. DX10 hat schon extrem viel über den Haufen geschmissen.
 
@Kirill: Ok, dachte das das nicht der fall war, weil man ja soweit ich weiß DX9 koppeln konnte mit DX10 bzw. DX10 mit DX11.

Aber Danke, jetz weiß ich bescheid!
 
Ich weiß ja nicht wie es euch geht, aber wennich mir die folien genauer ansehe, dann wird immer noch alles erst auf den ersten CPU Kern ausgelastet, bevor der rest oder wie auch immer ausgelastet wird, oder? Ich frage mich außerdem, ob das Architektonischer Natur oder Software basiert ist, das das So ist?! Ich frage mich was das für ein Sinn ergeben soll? Ich meine es würde, mehr Sinn für mich ergeben, wenn es genau so gemacht wird, wie bei den Konsolen, bsp. PS4 oder vergleichbar, da wird ein CPU Kern für das OS abgetrennt, zum rest! Wegen meiner, könnte man auch 2 CPU Kerne abtrennen können. Sodass der rest für andere offen stehen!

Gut, man hätte anstatt, 8 kerne, nur noch 6 kerne, aber die meiste Software ist sowieso noch nicht richtig bzw vernünftig MT optimiert bzw. kann überhaupt ausgenutzt werden.

Für AMD, wünsche ich mir das Programmierer, die AMD Befehlssätze nutzen sollten, würde mich mal interessieren, inwie weit da noch potenzial ist?

gerade aus dem grund, da die modul bauweise der Bulldozer, CMT ist und nicht SMT!

ich glaube, das CMT besser ist, aber das kommt auf die Software drauf an, die benutzt wird!

ich meine, warum sollte Software seitiges MT besser sein, gut. wenn mann das koppeln könnte, wäre das ein erheblicher sprung nach vorn, aber da kenn ich mich zu wenig aus!

Sind auch nur alles gedanken spielereien!

wünsch euch erstmal allen einen schönen Tag!
bis demnächst!

:P
 
@OliverK1: Also ich habe jetzt keine "Erfahrung bei Spieleentwicklung", aber in .NET hat der Hauptthread (UI - Thread) immer die meiste Auslastung, das lässt sich nicht verhindern. Er zeigt dir ja die Informationen an und hier läuft ja alles zusammen. In .NET kann ein anderer Thread nicht einfach die Oberfläche verändern. Ich vermute stark, dass das hier auch der Fall ist, sprich das beim ersten Thread alles zusammenläuft, also egal wie viel man optimiert, er wird immer prozentual die meiste Auslastung haben.

In .NET ist es bspw. so, das bei einer Fortschrittsanzeige die Aktion in einem anderen Thread läuft, dieser benachrichtigt dann den UI - Thread, der die Information entgegennimmt und eben nur dieser UI - Thread passt die Oberfläche (zählt 1% dazu) an.
 
@JackSlater91:
Erstmal danke für deine Antwort. In der Spieleprogrammierung, läuft das mehr oder weniger genauso ab. ich weiß nicht ob du dich mit Flash bzw. eigentlich Scaleform auskennst, basierend auf Flash, aber da ist das genauso wie du beschrieben hast, es ist im grunde immer eine frage, wieviel du für den einen process/ Quelltext zu sprechen möchtest. Allerdings, muss ich dazu sagen, das ich kein Programmierer bin. ich hab hier und da mal was gelesen, bin aber nicht direkt ins detail gegangen. brauch ich auch nicht, wirklich, da ich Gamedesigner bin, aber ich mache das nur hobbie mäßig. im grunde schreibe ich nur, damit die anderen sich dann duch lesen können um zu wissen, was genau ich möchte. Plus Minus verbesserungen bzw. komplett ändereungen.

Ich gehe auch nur irgendwie davon aus! kann selber nicht viel dazu sagen, dafü bräuchte man enen Programmierer, der sich in dem Bereich sehr gut bis Perfekt auskennt und es für normalos einfach erklärt!
 
aha..verkaufs werbung...dx12..wird ehr dazu führen das vieles inkompertible wird...obwohl das ja wohl gewollt ist..da man hardware verkaufen will.
wirtschaft denkt nunmal nicht resource schonend...haptsache verkaufen...wie sinlos das im endeffekt ist sieht man daran..das selbst 5 jahre alte rechner alles sehr gut erledigen und "neue" computer keiner lei realen leistungs schub haben (bei gleichwertiger hardware).

zB meine gtx 650 ti..ist real nix besser als meine uralt karte: gt 9800.
 
@anonymous0315: Äm also die 9800 war als sie neu war eine Karte im oberen Leistungssegment. die 650ti war als sie Jahre Später erschien eine Lowend Karte.
Das beide die gleiche Leistung bringen liegt daran das eben die Grafikleistung weiterentwickelt wurde und du nun zum Preis einer Lowend Karte die Leistung einer Hingehend Karte von vor einigen Jahren erhältst.
Wenn du heute eine vergleichbare menge Geld wie damals für die 9800 ausgibst bekommst du deutlich mehr Leistung
 
@anonymous0315: Leistungsschub bei gleichwertiger Hardware ist irgendwo ein widerspruch. Den Schub gibts nur mit überlegener Hardware.
 
@anonymous0315: Du hast den Sinn bzw. die Verknüpfung zwischen Wirtschaft und Wohlstand nicht verstanden. Warum z.B. eine leichte Inflation unglaublich wichtig ist, und eine hohe Inflation oder andersrum eine Deflation schädlich. Wenn die Industrie nix Verkauft (Produkte/Dienstleistung), dann sackt die Wirtschaft ab und es drohen Entlassungen, Steuer Erhöhungen, Kürzungen der Sozialausgaben usw. usf. Der Gesellschaft und den Menschen geht es dann immer schlechter siehe Russland oder Griechenland.
 
@anonymous0315: Zu Inkompatibilitäten hat das bisher doch auch nur in Einzelfällen geführt wenn nämlich ein Spiele DX** Hardware voraussetzte. Die Spiele werden zum allergrößten Teil abwärtskompatibel sein, bisher wird nichtmal die aktuelle DX Version vollständig ausgenutzt/vorrausgesetzt.
 
@anonymous0315:

"zB meine gtx 650 ti..ist real nix besser als meine uralt karte: gt 9800."

Selten so ein Blödsinn gelesen...
 
Mich würde brennend interessieren ob DX12 der Xbox One zugute kommt.
Und wenn ja, wir auch die PS4 davon profitieren?
Ansonsten könnte sich ,leistungstechnisch gesehen, das Blatt zugunsten der Xbox One wenden.
 
@Sichel: Die XBox One bekommt DX 12, wird aber wegen der älteren HArdware nicht alle Features von DX 12 nutzen können. Die PS 4 bekommt auch neue APIs. Ob Vulkan (Open GL Nachfolger) oder was eigenes ist mir nicht bekannt. würde aber auf Vulkan tippen. Aber die Hardware bleibt auch da die selbe.
 
@Chris Sedlmair: richtig und vulkan bietet genau das gleiche was dx12 in diesem fall bietet. von daher brauch man sich da keinerlei sorgen zu machen.
 
@Sichel: Ich habe einen Artikel gelesen, indem stand, das die Xbox kein DX 12 unterstützen wird, da erstens niemand weiß was für weitere features dazu kommen und zweitens, es hardware technisch gar nicht funktioniert. Allerdings soll Sie eine Update bekommen in Sachen DX11 undzwar wird das Update DX11.3 enthalten, es bietet, ebenfalls die Haupt fähigkeiten wie DX12, verbessertes MT und Besseren LOW LEVEL Zugriff!
 
Nein nur Xbox . Sony arbeitet ja mit Linux was ich weiss da gibt es kein DX
 
Der Zug ist bereits bei der Xbox One abgefahren. Immer mehr Entwickler spingen bei der Xbox ab.
 
@Hakan: *h*g**g*g**gg*g*g*g*g*g*g*g**g

da kann ich nur lachen
 
@Hakan: wer springt denn?
 
@Hakan: Hab keine Konsole aber dein Kommentar kann nur Blödsinn sein. Die Xbox mag nicht ganz so schnell sein wie die PS4 aber sie ist noch sehr sehr weit entfernt von einer nintendo wii. Also Ball flach halten.
 
@X2-3800: geb ich dir sogar recht, allerdings müssen die gamer unter den Xboxern, für das zusammen spielen bezahlen, was bei PS nie der fall war!

im grunde genommen, man muss doch auch mal so überlegen, warum sollte ich mir eine XBox kaufen, wenn ich das gleiche auf dem PC machen kann, und das zig tausend mal Leistungs fähiger, krass ausgedrückt?
 
Wenn man die News jetzt so liest und die Diagramme betrachtet stellt sich mir eine Frage:

Die ganzen DirectX Vorgänge die im Hintergrund jetzt Dank Version 12 nun besser verteilt abgearbeitet werden sind doch in dem Fall Anwendungsunabhängig? Ob die Anwendungen (z.B. Games) nun nur DX9 Features oder 12 unterstützen ist in dem Fall ja völlig egal?

Oder wird das ganze entsprechend so verpackt, dass ja nicht alte Spiele davon profitieren? Erst recht nicht das Schlusslicht der Grafikkarten die noch DX12 unterstützen (z.B. HD7000). Wo wären wir den, wenn etwas altes plötzlich mehr leistet und wir nichts neues kaufen müssen :D?

Ich meine .. Hey? Wer schenkt heutzutage einem noch was? Es dreht sich alles nur um Profitttttt$...

Edit:
Wird z.B. Crysis (2007) mit einer 4k Auflösung einem i7-3820 und einer HD7900 flüssiger laufen?
 
Das Gaming und Windows stark zusammenhängen erkennt Microsoft iwie sehr spät nach dem Windows 8 Debakel!
 
Also ich muss das mal kommentieren: Dass nur eine CPU mit der GPU kommunizieren kann, bedeutet noch nicht, dass man keine Vorteile durch Multicore in Spielen hatte.

- Erstens laufen neben dem eigentlichen Spiel ja noch zig andere Prozesse, die eben auch CPU-Zeit brauchen. Wer noch heute das Vergnügen hat (ggf. über BIOS Einstellung) ein 1 CPU/Core System zu nutzen, der weißt ja, wie sich das System anfüllt, wenn nicht mehr als nur 1 CPU Core die Arbeit verrichten.

- Zweitens Spiele und ihre Engines sind mittlerweile weitgehend auf Multi-Threading ausgelegt. Diese Threads werden gut auf die CPUs verteilt.

- Drittens: Mit DX11 kann man Commandoqueues erstellen, und zwar parallel auf verschiedenen CPUs. Das ist durchaus schneller, als auf einer einzigen CPU und es ist nun-mal echtes Multithreading. Zu behaupten, DX11 nutzt Multicore nicht effektiv, ist damit NICHT WAHR! Lediglich das zusammenführen der Queues in die Hauptqueue, die dann zur Grafikkarte geschickt wird, passiert auf der CPU Seite und damit in einem Thread und damit auf einem Core. Die ganze Grafikarbeit davor aber, der EIGENTLICHE FLASCHENHALS wird Multithreaded verrichtet. Das Abschicken der Commandqueue passiert aber sehr schnell und parallel dazu können bereits neue Queues erstellt werden. Dass jetzt alle CPU-Cores der GPU ihre Queues schicken können und die dann selbst diese serialisiert oder wie auch immer abarbeitet, das wird jetzt nicht den Unterschied machen.

DX12 hat nicht nur Vorteile: Der Programmierer hat die Möglichkeiten zu steuern, wie und wann CPU und GPU-Arbeit synchronisiert wird. Unter DX11 wurde das durchaus automatisiert. Bei DX12 muss man also etwas mehr Arbeit reinstecken, um am Ende das gleiche Ergebnis zu haben. Der Vorteil liegt aber darin, dass wenn man weißt, was man tut, und noch etwas mehr Arbeit reinsteckt, dass man dann die Operationen stärker optimieren kann, als es bei DX11 möglich ist.

DX11 wird auch nicht aussterben. Diese API wird auch DX12-Grafikkarten (sofern diese so getauft werden) ansprechen können. D.h. man wird DX11 oder DX12 mit der GPU reden können und auf alle ihre Features zurückgreifen können.
 
hmm und welche OS'ses werden unterstützt? Wird doch garantiert wieder dieselbe Kiste wie bei XP. Für Win7 wahrscheinlich theoretisch überhaupt kein Problem mit entsprechenden Bibliotheken, aber es wird nie kommen da MS das nicht will. Habe ich recht?
 
@legalxpuser: ist es nicht schon monaten klar, dass es nur windows 10 sein wird?
 
@legalxpuser: Warum sollte es für 7 kommen? 7 ist genauso wie XP aus dem Feature Support raus zum Zeitpunkt von DX10 bzw. 12.
 
@legalxpuser: Doch kommt für Windows 7. Du musst vorher nur das kostenlose Update auf Windows 10 einspielen.
 
@jus: ja, damit ist doch die aussage bekräftigt, das von legalxpuser, oder?!!!!

wir müssen sowieso erstmal abwarten, ob sich dass bewahrheitet, das DX 12 software seitig nur ein update ist , oder nicht!

Also, schlussfolgernd. Abwarten und Tee trinken!
 
Multicore war also völlig nutzlos? Ich wußte gar nicht, daß ein CPU-Kern für Berechnungen von zum Beispiel der Physik oder der KI auf die GPU zugreifen muß. Man lernt nie aus...
 
Endlich kann ich dann mal meine 4 Kern CPU richtig auslasten. Also reicht das Gepann mit einer GTX 750 TI noch lange...
 
Habe mittlerweile, viel hier gelesen und bin sogar teils schlauer geworden, mir ist aufgefallen, das es viele leute gibt, die sich eher am konzept der konsolen orientieren, in bezug auf CPU Cores. bei der PS 4 und ich glaube auch bei der PS3, war es ja so, das Sony sich ein Core für ihr OS abgezweigt hat, sodass sie den vorteil haben, viele Prozesse auf ein Core auszulasten! Der Rest, kann dann von anderer Software genutzt werden! Allerdings, weiß ich nicht wie es bei der Xbox war bzw. ist! Ich würde auch lieber diese art von System nutzen wollen, gerade für Desktop's, da es sehr wahrscheinlich effektiver arbeitet. IWenn sich eines tages, das OS soweit entwickelt, das es selbst MT nicht nur nutzt und automatisch auslastet, dann müsste demzufolge, das OS zwei kerne auslasten könen, aber ich denke, das Software seitig, da noch sauviel potenzial ist und vlt sogar noch brach liegt bzw. einige sachen noch unverbraucht ist. Allerdings gibt es immer Pro's und Kontras.

Reintheoretisch, könnte man auch ein Desktop system, vorzugsweise mit Linux bzw auf Linux basierend oder ein anderes OS nutzen, mit Offener Hadware bauen bzw herstellen lassen, allerdings ist dann die frage ob das dann ausreicht leute dafür zu begeistern, die dann diese art von system kaufen. Dann hätte man den Vorteil, das man selbst bestimmen kann, inwiefern welcher process abgearbeitet werden kann und Wo.
Oder sehe ich da etwa was falsch?

Im grunde liegt dann aber immer noch die Pro und Kontra seite vor!
Kommentar abgeben Netiquette beachten!

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles