DirectX 12: interne GPUs arbeiten jetzt mit Grafikkarten zusammen

Microsoft, Windows 10, Spiele, Build, Demo, Build 2015, unreal engine 4, DirectX 12, Multi-GPU, Direct3D 12 Microsoft, Windows 10, Spiele, Build, Demo, Build 2015, unreal engine 4, DirectX 12, Multi-GPU, Direct3D 12
Microsoft hat seine Arbeiten an DirectX 12 und Direct3D-12 beendet. Entwickler können jetzt damit beginnen, die Schnittstelle in ihrer finalen Version zu nutzen. Am Beispiel der Unreal-Engine zeigt sich, dass in Zukunft dabei sogar interne Grafikkarten Arbeit bekommen.

Schöne neue GPU-Welt

Neben den großen Änderungen rund um das Betriebssystem Windows 10 will Microsoft auch in Sachen Gaming in diesem Jahr einen Neuanfang starten. Mit DirectX 12 hat der Konzern eine neue Schnittstellen-Generation vorgestellt, die dafür sorgen soll, dass Grafik-Anwendungen möglichst effektiv auf Grafikkarte & Co. zugreifen können. Ohne ein Upgrade auf Windows 10 werden Nutzer aber nicht in den Genuss dieser Neuerungen kommen.

Welche Vorteile DirectX 12 bieten kann, wenn Entwickler die entsprechenden Funktionen in ihre Spiele und Engines integrieren, macht Microsoft bei seiner Build-Konferenz an einem einleuchtenden Beispiel klar: Unter der Übeschrift "Heterogeneous Multiadapter" haben die Entwickler der Unreal Engine eine Funktion in ihre Software integriert, die es möglich macht, neben der Grafikkarte einen Teil der Rechenarbeit an die interne GPU abzugeben.

Nicht gleich aufgeteilt

In Systemen mit separaten Grafikkarten wird die Leistung des internen Grafikchips meist wenig bis gar nicht genutzt. DirectX 12 macht es laut dem Beitrag der Entwickler möglich, die Leistung einer integrierten Intel GPU mit der einer Nvidia-Grafikkarte zu kombinieren und so die Performance in Spielen weiter zu steigern. Dabei kann die Arbeit naturgemäß nicht einfach gleichmäßig auf die beiden Grafik-Prozessoren verteilt werden.

Bei der aktuellen Implementierung geben die Entwickler vielmehr nur einige Aufgaben an die schwache interne GPU ab, die im Postprocessing anfallen - also am Ende der Berechnung eines Frames. So soll es möglich sein, die separate Grafikkarte früher für die Berechnung des nächsten Bildes freizumachen. Wie das Test-Video zeigt kann so eine Steigerung von knapp 36 Frames auf fast 40 Frames pro Sekunde erreicht werden.

Download
Windows 10 Insider Preview
Dieses Video empfehlen
Kommentieren73
Jetzt einen Kommentar schreiben
 
Bin schon sehr gespannt auf die ersten DX12 Spiele. Mal schauen wann für die Otto-Normalnutzer der erste kostenlose Benchmark kommt(Star Swarm etc.).
 
Und jetzt überlegt mal, was das für Möglichkeiten eröffnet, wenn man einen A10 7870K mit einer echt potenten iGPU (http://www.pcgameshardware.de/A10-7870K-CPU-260724/Tests/Test-Benchmarks-1163451) in dieses ITX Rig einbaut:

https://www.youtube.com/watch?v=eSq0eJ7JQeE

DX12's Auslagerung einiger Aufgaben an die iGPU sowie Vulkans Nichtnotwenigkeit einer High-Performance CPU (https://www.youtube.com/watch?v=llOHf4eeSzc) in einem ITX SFF, dürfte einige zum Nachdenken anregen, wenn nicht sogar den Gaming Markt revolutionieren! ;)
 
@MariusL: Naja der Prozessor ist aber nicht wirklich eine Konkurrenz zu einem i5/i7. Das die iGPU wirklich effektiv genutzt wird, wird auch noch ewig dauern. Ich kaufe mir da lieber einen Prozessor mit genug Leistung(mind. 6 Kerne) und ohne iGPU und einer starken dedizierten Grafikkarte. Vielleicht wird die ZEN Architektur von AMD interessant, jedoch ist Intel ziemlich weit vor AMD was CPU Leistung anbelangt.
 
@L_M_A_O: Natürlich nicht, brachiale CPU Leistung ist ja auch dank Vulkan in Zukunft vollkommen überflüssig: https://www.youtube.com/watch?v=llOHf4eeSzc

Gerade wenn die "AMD Popel-CPU/APU" für kleines Geld dann die selben FPS ingame abliefert dürfte das einige ziemlich beeindrucken wenn nicht sogar gewollt vor den Kopf stoßen/zum Nachdenken anregen, umso mehr, wenn dank der starken iGPU sogar mehr FPS dank DX12 erreicht werden, als mit einer doppelt oder 3x so teuren highend CPU... :)

Und die kommenden HSA/OpenCL Implementierungen darf man fern ab des Gamings auch nicht ausser acht lassen, wo dies bereits integriert ist, jedoch leider noch selten anzutreffen, sind die APUs schon heute echte Haswell Killer:
http://www.hardcoreware.net/kaveri-review-a10-7850k/13/

Aber klar, zum jetzigen Zeitpunkt verzichte ich natürlich auch auf eine APU/iGPU, mein Budget Gaming Rig (FX6300@3,8GHz, Turbo@4,2GHz @95W max., HD7850) stellt aktuell für mich noch den besten Kompromiss aus Preis-Leistung dar und dabei wirds dank Vulkan wohl auch bleiben, auf die Nutzung der iGPU Vorteile unter DX12 kann ich wohl auch in Zukunft verzichten, dennoch gewinnt die iGPU für den geneigten Gamer bei einer Neuanschaffung hiermit natürlich an Relevanz, ZEN wird vermutlich ohnehin auch mit einer extrem potenten iGPU ausgeliefert werden, freue mich auf das was die Zukunft bringt, gerade Softwaretechnisch werden aktuell Quantensprünge erzielt! :)
 
"möglich, die Leistung einer integrierten Intel GPU mit der einer Nvidia-Grafikkarte zu kombinieren"
- gute Sache aber mal abwarten ob/wie das dann in Kombination mit anderen Karten klappt.
 
Na toll. Nur Intel und Nvidia.
Hat jemand zufällg AMD wird da nicht draus oder was?
Und wieder eine weitere Zusammenarbeit um die lästige Konkurrenz zu beseitigen.
Ich kaufe seit Jahren nur AMD um die Vielfalt zu erhalten.
Macht mit
 
@Trabant: frisst zuviel strom, wird zu warm und zu laut. sowas kommt mir nicht ins gehäuse.
 
@walterfreiwald: Diese Vorurteile.
Ich bin seit Jahren zufriedener AMD (Grafikkarten) Kunde und habe keine Nachteile in der Leistung festgestellt. Außerdem sind sie zusätzlich noch im Preis-Leistung-Verhältnis besser als die Konkurrenz.
 
@Unglaublich: Ich bin erst diese Woche von der Sapphire r290 tri-x oc auf msi gtx 970 100me umgestiegen. Wer behauptet das Temperatur und Leistung nur vorurteile sind sollte mal selbst eine andere Karte ausprobieren. Hab die Karte nicht wegen der Leistung sondern wegen der Lautstärke und Hitze getauscht. Bereits bei HD Youtube Videos sind es 10-15°C weniger und dabei schaltet die MSI die Lüfter bis 60°C komplett aus. CPU ist jetzt auch ca. 5°C Kühler. Zumindest bei MINI ITX Gehäuse ist der Unterschied gleich spürbar. Für mich steht erst mal fest, das war meine letzte ATI Karte.
 
@sk-m: Dann hast du die falsche R290 genommen.
 
@Bautz: Die Sapphire ist vom Kühlkonzept schon klar eine der besten R9 290.
 
@grenn: das beste Kühlkonzept bei Luftkühlung ist immer noch das Exhaust-Prinzip. Sprich: die erwärmte Luft wird direkt aus dem Gehäuse geblasen.

die ganzen Umluftkühler sind absoluter Quatsch, da sie die Wärme an das Gehäuseinnere abgeben und sukzessive immer weiter aufheizen.

eine Wärmebildkamera kann sich zwar nicht jeder leisten, aber sie würde viele umdenken lassen.
 
@MahatmaPech: Die frage ist was man haben möchte. Ich kenne keine leise und zugleich kühle Exhaust Karte, daher ist für mich eben diese Lösung "Quatsch".

Die Umluft Karten können einwandfrei Funktionieren wenn man ausreichend Frischluft bereitstellt und die sollte eh immer da sein. Das es mehr sinn macht die Wärme gleich aus dem Gehäuse zu jagen ist klar. Nur zu welchem Preis.
 
@Bautz: Welche ist besser?
 
@sk-m: eine Karte, welche weniger aufgeheizte Gehäuseinnenluft ansaugt und sich die Innenluft nicht selber aufheizt wird im Dauerbetrieb definitiv kühler arbeiten.

bei mir sind nur noch die SpaWas der CPU im Umluftbetrieb, wobei ich hier an einer Lösung mit "Windkanal" dran bin.

und beim Zocken trage ich noch immer Kopfhörer, dagegen kann selbst ein 4waySLI nicht anstinken! ^^
 
@sk-m: Meine ist von HIS. Zusammen mit nem i5 2500k hat das ding im idle etwa die Lautstärke eines Heizkörpers.
 
@Unglaublich: habe auch weder was gegen leistung, noch preis/leistung gesagt. ich will mein rechner trotzdem lieber so leise haben, wie es geht und dabei etwas strom sparen, auch wenn ich dafür (für selbe leistung) etwas drauf zahle.
 
@walterfreiwald: Ja irgendwie wird zwar behauptet das dass Müll ist was geschrieben hast, aber ein Konkretes Beispiel oder Alternative kann keiner geben^^
 
@walterfreiwald: Bei den CPUs von AMD trifft das aktuell zu, aber nicht bei den Grafikkarten. Die sind super.
 
@Stefan1200: Ich hab es Ausprobiert und es trift auch bei Grafikkarten zu. Die Wärmeentwicklung ist extrem im Vergleich zur neuen Nvidia Karte.
 
@sk-m: Hmm, also meine Sapphire DUAL-X R9 270 läuft super bei mir, keine Probleme.
 
@Stefan1200: Meine R290 lief auch super, so ist es ja nicht. Sie wird nur trotz der drei Lüfter die mit mindestens 20% laufen wärmer als meine MSI 970 die die Lüfter komplett ausschaltet. Auch im Spiel ist die Kühlleistung besser und die Performance besser. Einfach mal ausprobieren, ich hatte eigentlich auch nur zum Test gekauft und mich drauf eingestellt die Nvidia Karte wieder zurückzuschicken bei der ruhe und den Temps werde ich sie behalten.
 
@sk-m: Gut, mag in der Preisklasse der R9 290 anders sein. Aber in der R9 270 Preisklasse herum hat NVidia irgendwie nichts, das bei Preis-Leistung mithalten kann (inklusive Stromverbrauch, etc.).
 
@sk-m: Hängt jedoch auch immer vom Kühlsystem sowie Design/Takt ab, das variiert auch von Hersteller zu Hersteller.
 
@sk-m: Dazu kommt dass die R290 schon 2 Jahre (oder so) auf dem Markt ist, die 970 fast neu.

Das ist ja immer Ping-Pong. Mal AMD, mal Nvidia besser.

Bei AMD kriegt man aber meist mehr pro Euro. Selbst wenn man den etwas höheren Stromverbrauch über 3 Jahre Nutzung umlegt.
 
@Stefan1200: Kann jetzt nur die beiden vergleichen, kann ja nicht jede Karte kaufen^^

@PakebuschR: Das Kühlsystem der Sapphire r290 tri-x oc soll eins der besten sein. Bei der GTX 970 weiß ich nicht welches das beste ist, aber die ZeroFan Lösung von MSI hatten mich Interessiert und das funktioniert super.

@Bautz: Und so fühlt sich die Karte auch an, nur hat man nicht viele Alternativen bei AMD da es, wie du schon sagst, seit Jahren nichts neues gibt. Die Stromkosten sind eine Sache, die Abwärme ist eine ganz andere.

Beim Preis muss natürlich jeder selber entscheiden. Aktuell sind es ca. 30-50€. Die von mir gekaufte Sonder Edition kostet 100€ mehr. Ich bin aber so zufrieden das ich sie behalten werde.
 
@sk-m: "Sapphire r290 tri-x oc" - mag ja das beste Kühlsystem haben, heisst aber nicht auch das es das leiseste ist, zumal die Karte von Werk aus übertaktet ist worauf zumindest das oc hindeutet. Im Highend Sektor wechselt die Krone oft von einem zum anderen, nicht nur was die Leistung betrifft, deshalb ist er eine Hersteller nicht gleich schlechter wie der andere.
 
@PakebuschR: die karte hat nen Umluftkühler! sowas ist niemals besser als exhaust. siehe oben O3.

schiet Umluft-blabla. keine Ahnung von der Materie, aber mitreden wollen.
 
@MahatmaPech: Ich kenne die Karte bzw. dessen Kühlsystem garnicht, war bloss allgemein gesprochen.
 
@PakebuschR: Wie gesagt, die AMD ist ja ok, wenn man kein Problem mit Wärme in seinem Gehäuse hat und Lautstärke nicht wichtig ist. Ich hab ein MINI ITX Gehäuse und das wird mit der AMD Karte extrem schnell warm und das obwohl die Karte einen riesigen Kühlkörper hat und die Lüfter auf min 20% laufen. Wenn ich aktuell 45°C bei 0rpm lese weiß ich aber das ich erst mal bei Nvidia bleibe.
 
@sk-m: Man kann aber von einer AMD Karte nicht auf alle schließen, noch dazu wo diese von Werk übertaktet ist.
 
@PakebuschR: OC kommt nur in 3D Anwendungen zum Einsatz. Sie hat aber weniger Leistung und wird selbst im Desktop Bereich wärmer, dabei wird dann runter getaktet. Man kann von einer nicht auf alle schließen, das ist richtig, aber ich kann für mich alle Aktuellen AMD Karten ausschließen denn die TDP ist bei allen vergleichbaren Karten gleich, nur der Kühler ändert sich. Oder kennst du eine Alternative zur r290 tri-x oc die leise im 2D Bereich ist und bei 3D immer noch gute Leistung hat?
 
@walterfreiwald: Vorurteile, die so nicht stimmern.
 
@walterfreiwald: Dein ernst? Harharhar.
 
@Trabant: "Macht mit" Wenn es doch nur eine alternative wäre, aber ich hatte als ATI/AMD Grafikkarten Nutzer sehr viele Treiberprobleme(meine benutzen Grafikkarten ATI 9200/9700/X700Pro/HD5770/HD6850). Seit dem ich NV Grafikkarten benutze, habe ich keinerlei großen Fehler mehr, wie bei ATI/AMD.
 
@L_M_A_O: Das war bei dir aber dann schon länger her oder? Wenn du von ATI redest.
Treiberprobleme sind mir bei AMD keine bekannt. Ich finde es bei AMD besser gelöst als bei nVidea. Man braucht nur den zentralen Treiber, nämlich das "AMD Catalyst Control Center", dieser verwaltet alles. Um mehr musst du dich nicht kümmern.
 
@Unglaublich: "HD5770/HD6850" Habe ich doch geschrieben und die AMD Treiber waren bei mir Fehlerhaft. Nur weil du keine Fehler hattest, heißt es nicht, das es die nicht gab... Und nur weil erst seit der HD6XXX AMD drauf steht, heißt es nicht das ab da alles anders war. AMD hat ATI 2006 übernommen und bis zur HD5XXX hieß es auch noch ATI.
 
@L_M_A_O: Welche Probleme hattest du mit der HD 5770? Die habe ich bis vor kurzem für 5 Jahre im Einsatz gehabt, nie Probleme gehabt.
 
@Stefan1200: Ich hatte mit der HD5770 einen Bug, der das Icon von dem Mauszeiger zu einem Kamm verändert hat^^ Trat sogar auch noch mit der HD6850 auf. http://www.bing.com/search?q=ati+mouse+cursor+bug&qs=n&form=QBRE&pq=ati+mouse+cursor+bug&sc=0-18&sp=-1&sk=&cvid=0db2456326ca415db409aa0c0e9d9923
Mein Vista ist irgendwann auch von der Schriftart total zerstückelt worden, nur weiß ich nicht, woran das lag(andere Schriftart und alles war wieder gut).
 
@L_M_A_O: Den Fehler hatte ich 2-Mal in den 5 Jahren. Also so schlimm war das nicht. ;)
 
@Stefan1200: Wirklich schlimm war es nur bei der HD6850, wo nur jeder dritte Treiber richtig funktioniert hat, ansonsten hatte ich seltsame Fehler in den Spielen. Zuerst dachte ich der VRAM hätte einen Defekt, aber bei einem älteren Treiber ging dann wieder alles. Glaube seit letzten Jahr läuft da wieder alles okay, aber der ganze Rechner ist jetzt eh zu einem Office/Videorechner geworden.
 
@L_M_A_O: "Nur weil du keine Fehler hattest, heißt es nicht, das es die nicht gab... " - nur weil du bei Nvidia keine Probleme hattest sind die Foren dennoch voll von Problemgeplagten, die Mehrheit fährt aber gut sowohl mit AMD als auch Nvidia.
 
@L_M_A_O: AMD hat sich softwareseitig stark verbessert. Spätestens mit Erscheinen des Catalyst Omega hat AMD den Vorsprung von Nvidia bei der Stabilität aufgeholt.
 
@call_me_berti: Ich hatte früher fast nur Nvidia
(davor Matrox und Voodoo 3 von 3dfx) irgendwann bekam ich mit den Treibern unter Linux voll Probleme, dass ich damals auf XP umgestiegen bin. Dann wieder einige Generationen Nvidia und ich wollte als 2. Betriebssystem Linux laufen lassen. Meine Karte wurde nicht richtig unterstützt. Dann bin ich zu ATI/AMD gewechselt und weg waren die Probleme unter Linux und unter Windows lief auch alles besser als mit Nvidia. Solange es AMD gibt, kommt mir nichts mehr von Nvidia in den Rechner.
 
@L_M_A_O: Und ich bin wegen der dauernden Treiberprobleme von Nvidia auf ATI umgestiegen. Seit ich ATI/AMD-Grafikkarten benutze habe keine Probleme mehr.
 
@L_M_A_O: Also meine HD5850 lief problemlos bis auf GTA 4 (da gebe ich aber RS die Schuld), und jetzt meine R9 280X OC ebenfalls.
 
@Trabant: Wer behauptet denn dass das nur mit Intel und Nvidia ginge, so wie es sich anhört eher mit allen GPUs für die es DirectX 12 fähige Treiber gibt.
 
@rAcHe kLoS: Denke, dass AMD nicht erwähnt wird, ist ein Seitenhieb für die Ankündigung von AMD, dass Windows 10 schon im Sommer raus kommt.
 
@M4dr1cks: entweder das ;-) .. oder eine Prognose, dass AMD zu schnell an Kapital und fähigen Mitarbeiter verliert, um nochmal mit vorne oder überhaupt weiter mitzuspielen :(
 
@Trabant: Bin dabei.... Schon seit sich PCs selbst baue bzw zusamenstelle :) NAchde dem was ich so gelesan habe in unterschiedlichen Portalen, ist der Zugewinn durch DX 12 auch wesentlich höher als bei Intel (CPUs, APUs) und Nvidia (GPUs). Es scheint, daß AMD mit ihren Ansätzen einfach nur zu früh dran waren oder man sie gezielt ins leere hat laufen lassen. AMD hat dann Mantle gebracht um die neuen APIs zu erzwingen. Mit DirectX 12 wird sich so mancher Ärgern, der von AMD zur Konkurrenz gewechselt ist ;)
 
@Chris Sedlmair: (Nachtrag) Das ist falsch, zumindest in teilen. Die jenigen die bereits einen fx8350 oder einen der x6 reihe haben, koennen dank DX12 wohl noch eine weile länger durchalten bis sie eine neue CPU kaufen muessen. Da DX12 lediglich die Mehrkern CPU Nutzung verbessert, welche natürlich auch bei Intelprozessoren mehr Leistung bringt. Nur ist der Zuwachs an Leistung bei Intel geringer da hier das Limit eher bei den Grafikkarten liegt und nicht bei der CPU. Bei den AMD liegt das Limit eher bei den CPUs und das wird es auch noch je nach Grafikkarte in der Zukunft so sein. Die Nutzung von Multicore entschärft lediglich die derzeitige Situation, was man sehr begrüßen muss.
Natürlich werden sich eventuell die Leute ärgern die vom FX8350 auf irgend einen Intel umgestiegen sind und dafür viel Geld sinnlos ausgegeben haben. >>>Trotzdem ist es nicht so das AMD mit ihren Ansätzen (Modulbauweise der CPU) zu früh dran gewesen ist, es war einfach ein Fehler die Resourcen so stark zwischen den einzelnen CPU Kernen zu teilen. Es war damals vermutlich notwendig um den Energieverbrauch im Rahmen zu halten. >>>
Das wird sich hoffentlich alles 2016 ändern, von der Modulbauweise wird abgelassen stattdessen eine art Hyperthreading eingeführt, welches auch einzelne CPU Kerne besser nutzen kann. Ich hoffe das AMD auch den 14nm Prozess konsequent durchziehen wird und nicht doch 16nm oder ähnlich einführen wird.
Ich bin sehr gespannt auf die Zukunft und finde das ganze negative Gerede über AMD ohnehin nur als bla bla. AMD ist 2015 recht gut aufgestellt und mit etwas Glück wird es 2016 einen kleinen Durchbruch geben im CPU Markt.
 
Durch die Modulbauweise hatte sich AMD vielmehr erhofft mit zwei Kernen einen Single Thread gleichzeitig abarbeiten lassen zu können und somit die ST-Performance zu steigern, das ist gründlich in die Hose gegangen, mit dem Energieverbrauch hatte das IMHO überhaupt nichts zu tun, denn Stromsparer waren die BD ja nun wirklich nicht... :D Chris bezieht sich vielmehr auf APUs und alles was man rund um HSA, OpenCL und Mantle damit erreichen wollte und dank Vulkan und DX12 nun auch erreicht, mehr dazu in Beiträgen von mir weiter oben... :)
 
@Trabant: Die Marktfüherer werden erwähnt. Warum sollte man bei so einer Präsentation auf AMD setzen?
 
@Smilleey: Der Vollständigkeit halber und um seine Objektivität zu wahren!
 
Endlich können die internen GPUs mal einen Zweck erfüllen.
 
@Jazoray: Als Benutzer von AMD APUs ab A6 aufwärts hatte man da auch bisher keinen Grund zu Klagen. ;)
 
@Chris Sedlmair: Nur haben die AMD APUs leider nicht viel Leistung im Vergleich zu einem aktuellen i5/i7.
 
@L_M_A_O: Und auch nicht viel Preis. Es geht um die LEistung des Grafik Chips. Da steckt eine aktuelle AMD APU deutlich teurere Intels in die Tasche. Eine aktuelle A8 APU ist schon für für gute 80 Euronen zu haben. Und warten wir mal auf DX 12... Da werden sich etliche ärgern, die von AMD abgesprungen sind. ;)
 
@Chris Sedlmair: Ich hoffe es. Das letzte wirklich konkurrenzfähige Modell war ja leider der Phenom X6.
Nach 3 AMDs habe ich nun nen I5 2500 werkeln. Nächstes Jahr steht Ersatz an, ich hoffe dann sieht man ob AMDs Strategie aufgeht. Würde gerne wieder nen AMD-Prozessor einbauen.
 
@Bautz: Bezieht sich alles auf die jetzige Architektur, nicht auf die, die für 2016 kommt. Trotz veralteter Fertigungsweise, wird diese zumindest nach den kursierenden Benchmarks eine ungeheure Steigerung bei der Ausnutzung ihres Leistungspotentials erleben. Und damit sind CPUs und APUs gemeint. Wenn sich das Bewahrheiten sollte wird bereits auf dem Markt befindliche AMD-Architektur schon konkurrenzfähig.
 
@Bautz: Ich warte gespannt auf AMDs Zen Architektur. Das, was bislang durchgesickert ist, verspricht viel!!!
 
@SpiDe1500: find ich auch, ich finde sogar den ansatz gut, er ist so ähnlich wie die modulbauweise, ich mein wenn man sich die zuletzt gezeigten, wenn auch nicht vlt richtigen folien, ansieht, kann man erkenn das sie in einem "Modul" 4 kerne unterbringen können, auf absehbarer zeit, freu ich mich schon jetzt einen 16 kerner zu bekommen. nur mit dem unterschied, das es mehr auf Singlethread performance abzielt.

ich frage mich zurzeit ob AMD die Bulldozer Architektur weiter entwckelt, ich mein sie sind sehr prädestiniert für den Server einsatz. schade das Sie die Singlethread leistung nicht noch etwas anheben konnten. Außerdem denke ich das es irgendwie eine doofe Strategie war keine weiteren FX zu produzieren, jedenfalls für den Sockel AM3+. hat mich geärgert, damals. wollte unbedingt einen FX auf Exquvator basis haben, aber naja. jetzt müsste ich einen 2 PC bauen um diese mit FM2+ betreiben zu können, aber hey die haben wenigsten eine iGPU integriert, also juchu..., weniger gut keine 8 kerne!

Schade fand ich auch, das es davon keine 8 kerner gab oder gibt, außer in Konsolen, naja Software muss erst geschrieben werden um das ausnutzen zu können, ist ja selbst bei meinem 6300 FX immer noch so.

hoffe, da kommt noch was Software technisches auf uns zu. Konsolen sind jetzt eine vernünftige art und weise um auf einer einheitlichen hardware zu coden, womit die Spiele industrie arbeiten kann um später einen PC mit 8 kernen aus zu nutzen. Sprich, das kommt später dem PC zu gute. Das bedutet im klaro text.

Selbst wenn jetzt jemand noch einen FX 8350 CPU hat, der kann gewiss sein, das das bald beachtliche leistungssteigerungen hervorbringt, also abwarten und tee trinken sag ich dazu nur.

Ich kann nur so viel dazu sagen, Intel ist nicht immer besser, nur wegen der Singlethread performance, die meisten die ich kenne, benutzen ihr System nur zum zocken, wobei es hier auch um ST geht, aber denen würde sogar ein Rechner von vor über 5 - 10 Jahren noch reichen. Schade das die Wenigsten keine Ahnung von Hardware haben, die meisten verwechseln GB GHz oder sonstigem, ausserdem kennen sie meisten nicht mal AMD, weil die meisten Fertig Rechner von Saturn oder sonstigen stehen. wenn überhaupt einer oder max. zwei Fertig rechner da stehen mit AMD Hardware, Naja kann ja nicht jeder wissen das es Unterschiede gibt und was es für Unterschiede sind.

Im großen und ganzen:
Hauptsache Die Leute können Auf FaceBook Surfen oder Word benutzen.
Von daher Leistung ist gut sofern man weiß we man Sie benutzen kann!

Naja aber das nur alles am Rande!
 
@Chris Sedlmair: (Nachtrag) Schneller sicher ein wenig wobei bei der APU leider der Hauptspeicher der limitierende Faktor ist und das wird sich mit dx12 allein nur bedingt ändern. Ich habe eine A10-7850K Speicher läuft am Limit 16gb mit 2400Mhz
 
Dann wird mein i7 4790K ja mal voll und ganz genutzt. Sehr schön, wenns den auch gut funktioniert.
 
dann die ganzen Foreneinträge ... ich sehe sie jetzt schon:

mimimi ... mein System/Prozessor ist instabil ... Grund: Die Kühlung reicht nimmer aus, um jetzt auch noch die sonst brach gelegene iGPU-Abwärme abzuleiten ODER die Spannungsversorgung auf den MBs ist nicht gut genug oder nicht ausreichend konfiguriert. und schon füllen sich die foren wieder mit fragen, die eigentlich mit ein wenig nachdenken gelöst wären.
 
@MahatmaPech: Spannungsversorgung auf dem MB? Bei Haswell hast du das doch auf dem Die. Ein Großteil der SpaWas sind doch in der CPU gewandert.
 
@frust-bithuner: ok, aber dann erhöht sich die Problematik ja noch. deren Hitze muß ja dann auch noch über die geringe Oberfläche des Heatspreaders mit abgeführt werden. früher war das ja immer "ausgelagert" und mit eigenen teils hanebüchenen Kühlmonstern versehen.
 
@MahatmaPech: Wie in der Mode kommt alles wieder... Ist es in der Technik, niedergeschrieben das es nicht so ist? vllt kommts wieder weil die Technik sich wieder ein Stück verändert hat. Ich kann mich an so ein Minilüfter erinnern. Kann bestimmt sein das es wieder kommt, weil irgendwie muss die Abwärme weg....
 
@awwp1987: wann war früher die Spannungsversorgung schon mal in der CPU integriert?bis zu Hasswell hats doch immer die SpaWas zu Hauf auf dn MBs gehabt. Haswell-E hat sie ja auch noch.

wenn die SpaWas extern sind, dann kann man darauf eigene Kühler mit großer Oberfläche montieren, sind sie jedoch mit unter dem CPU-Die, dann muß diese zusätzliche Abwärme über den Heatspreader abgeleitet werden -->> ergo mehr Watt pro mm²! das kann zu thermischen Problemen und Hitzestau in der CPU oder am Übergang zum Heatspreader führen.

man kann die Kurve der Wärmeübertragung sehr weit spannen, aber nur mit höheren Temperaturradienten. man kann also bei 25°C Raumtemp und 60°C Heatspreader mehr Wärme abführen, als bei nur 55°C. Die Wärme staut sich also mehr bei "mehr" unter der Haube. Die Instabilitäten unter der Haube können natürlich durch mehr Spannung hier und da kompensiert werden, was aber zu noch mehr Wärme führt ... ein Teufelskreis!
 
@MahatmaPech: meinst du nicht eher MahatmaPech?
 
@awwp1987: erkannt! ^^
 
wurde ja mal zeit, das die das mal einführen. Dachte ich würde wieder gefühlte 10 weitere jahre warten müssen. man die hinken hinken hinter und ich dachte die sind schnell in der tech. hahahhahahahahahahahahahahaha
:D

man man man.

:D

trinken die den ganzen tag nur Kaffee und essen donuts oder was? hahahahah
 
So dann mal ne Frage am Rande ab welcher Grafikkarten Generation reden wir? Ich würd die GTX 980 TiTan und GTX 980 Ti als Dx11/Dx12 zählen.... soll man jetzt also alles was unter dieser Grafikkarte fällt und sich Mittelklasse und Billigklasse Grafikkarte schimpft NICHT damit unterstützen können... Weil Die Art von Umgang sieht fast nach SLI/CrossFire aus, nur das die Interne Grafikkarte dazu in Einsatz kommt.. Eins was ich mir vorstellen könnte, denk ich aber mal unwahrscheinlich ist. Das die Nutzer älterer Grafikkarten ein neues Motherboard sich zulegen müssten. und eine Softwaretechnische Schnittstelle bekämen, damit das selbe Prinzip in Einsatz kommen könnte... Weil eine GTX 980 ist schon eine harte Investition.... und es wird nur von Dx12 gesprochen und wenn ich mich nicht Irre Leistungsstarke Grafikkarten, komme ich nur auf die 980er Reihe und R9 290... und aufwärts.. Oder was soll ich nun davon halten?
Kommentar abgeben Netiquette beachten!