Experte zum Kerne-Wahnsinn: PC-Hardware geht in die falsche Richtung

Die PC-relevanten Chiphersteller Intel und AMD versuchen sich derzeit mit Kernen zu überbieten, zuletzt hat beispielsweise AMD seinen Threadripper 2 vorgestellt, diese CPU hat sage und schreibe 32 Prozessorkerne. Doch ist diese Entwicklung auch sinnvoll? Nein, meint ... mehr... Prozessor, Cpu, Amd, Ryzen, Threadripper Bildquelle: AMD Prozessor, Cpu, Amd, Ryzen, Threadripper Prozessor, Cpu, Amd, Ryzen, Threadripper AMD

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Finde ich Unsinn was er behauptet. Das ist beides eine High End Plattform, dementsprechend muss dort auch Leistung zur Verfügung stehen. Bei der Mainstream Plattform bleibt es erstmal bei acht Kernen, was gut ist.
 
@L_M_A_O: da hat du recht, die thread ripper sind eher für produktive Anwendungen gedacht und nicht fürs zocken.
 
@L_M_A_O: Schon die 8 Kerne sind im Mainstream aber eher suboptimal, es lässt sich eben gerade in spielen nicht einfach alles gut parallelisieren und entsprechend skalieren spiele mit mehreren kernen häufig auch nicht sehr gut.

Allerdings eine überraschend uninteressante Persönlichkeit die hier vorgestellt wird
 
@0711: Das stimmt nicht so. Gerade bei großen AAA-Spielen, wo eine moderne Engine verwendet wird, skalieren die Kerne sehr gut. Und mit reinen vier Threads ist man da durchaus um einiges langsamer. Man könnte das mit damals vergleichen, als die vier Kerner aufkamen und viele die kritisiert haben, weil es noch nicht so einen großen Nutzen gab, da die Spiele meist nur Single-Core basiert waren.

Was vor allem hier betrachtet werden muss, ist der Markt. Den die Firmen optimieren ihre Spiele auf die Hardware mit großer Verbreitung. Da die Konsolen bereits seit längerem acht Kerne und acht Threads bieten, ist nur der PC, der, bei dem es eine große Verbreitung bei zwei und vier Kerner gibt.
 
@L_M_A_O: Den Gegenbeweis sieht man doch bei Ryzen 7 vs i7. Der i7 ist ansich die langsamere CPU, zieht den ryzen aber in fast allen spielen davon, trotz weniger kernen. Demgegenüber ist der ryzen bei stark parallelisierbaren Anwendungen wie z.B. packprogrammen (7zip) oder auch dem Rendering überlegen

Spieleanbieter haben ein Problem mit der Parallelisierung und ja mehr kerne werden zumeist einen Vorteil bringen aber ist der Vorteil 2 auf 4 auf 8 (als Beispiel) immer kleiner werdend
 
@0711: Nein, das Problem sind hier nicht die Kerne und nein, der i7 ist nicht die langsamere CPU ;) Der i7 hat eine etwas höhere IPC und z.b. eine niedrigere Cache Latency, dadurch leistet er pro Kern etwas mehr als der Ryzen 7.

AMD hat mit der Ryzen 2000er Serie den Abstand zu Intel aber noch einmal gut verkürzt, dennoch ist und bleibt die aktuelle Intel Generation hier weiterhin schneller, mal schauen ob die Zen 2 Architektur kommendes Jahr das endgültig wett macht.

Das siehst du übrigens auch daran das der Ryzen 2600X dem i7 8700k trotz gleicher Kern-/Threadanzahl in Spielen unterlegen ist.

@L_M_A_O Das die Engines großer AAA Spiele alle gut mit vielen Kernen skalieren würden ist unsinn, auch da profitieren die wenigsten von mehr als 4 oder maximal 6 Kernen.
 
@Shadi: Doch das Problem sind die Anzahl der Kerne und der i7 ist rein von der rechenleistung langsamer, das er als cpu in Anwendungen nicht zwingend langsamer ist, ist dabei nicht der punkt...denn das was der i7 auf einem Kern mehr leistet müssten die "mehr Kerne" locker ausgleichen bzw übertrumpfen, tun sie aber nicht - zumindest in spielen. So viel besser ist ein einzelner kern des i7 nämlich nicht um ein kompletten kern des ryzen wett zu machen.
Damit bleibt die Aussage die hier in der News gefordert wird richtig, schauen das die Kerne als solche effizienter und schneller werden, die Steigerung der Parallelität ist für spieleentwickler ein Problem.
 
@0711: "zieht den ryzen aber in fast allen spielen davon"
Auch das ist Unsinn, ja er ist schneller, aber marginal und nichts, was einem normalen Spieler ohne Balkendiagramm auffallen würde...

"Spieleanbieter haben ein Problem mit der Parallelisierung"
Weil es kompliziert ist, effizientes Multithreading umzusetzen, hat man es aber geschafft, kann man sehr viel daraus holen. Sieht man sehr schön z.B. bei der CRYENGINE und der Unreal Engine, die vom Grundgerüst hervorragend skalieren. Bei der FrostBeta 3 kann man das schwer sagen, weil die Engine an sich nicht frei verfügbar ist und man nur die Spiele testen kann.
 
@L_M_A_O: Naja vieles fällt ohne Balkendiagram nicht auf wenn man sich eh >50fps liegt, nichts desto trotz sind die unterschiede mit 5-20% beim beim i7 8700 vs ryzen 7 1700x meiner Meinung nach nicht marginal

Siehe z.B.
https://www.gamestar.de/artikel/ryzen-7-2700x-amds-neuer-achtkerner-im-benchmark,3328578,seite3.html#performance-rangliste-spiele
 
@0711: Der Unterschied in Prozent ist vor allem für neuere Spiele interessant, den dort ist es wirklich marginal (mehr Threads werden genutzt). Was ich nicht ganz verstehe ist, warum soll man sich nur an den Balkendiagramm orientieren? Vor allem man mit dem Prozessor absolut keine Probleme mit den Spielen hat und mit neueren Spielen der Prozessor auch den 6-Kerner von Intel wohl schlagen wird, so wie es bei den Anwendungen bereits der Fall ist.

Was besonders erwähnenswert für Spieler noch ist, das man bei AMD und der AM4- Plattform, eine Plattform hat, bei dem man nicht jedes oder jedes zweite Jahr bei Aufrüstungen auch ein neues Mainboard braucht...
 
@L_M_A_O: "mit den Spielen hat und mit neueren Spielen der Prozessor auch den 6-Kerner von Intel wohl schlagen wird"
Das sehe ich wie die Prophezeiungen die nie wirklich eintreten, wie so häufig bei diesen "wird sich in Zukunft auszahlen" aussagen.

Mir geht es gar nicht um Intel/AMD, ja AMD hat den benannten Vorteil was auch klar für AMD spricht in jedem Bezug, auch der Preis spricht für AMD...mir geht es um die Aussage das für "Spieler" die Aussage schlicht und ergreifend zutreffend ist das mehr pro core Leistung mehr bringt als mehr cores.
 
@0711: "mir geht es um die Aussage das für "Spieler" die Aussage schlicht und ergreifend zutreffend ist das mehr pro core Leistung mehr bringt als mehr cores."
Nein das stimmt nur in gewissen Szenarien. Skaliert z.B. das Spiel gut, dann sind mehr Kerne besser, ansonsten ist der Takt wichtiger. Wichtig ist auch, das die Prozessoren in einem Bereich des Taktes sind, bei dem man keine großen Schritte mehr machen kann und man nur noch über mehr Kerne + hohe Taktung weiter kommt.

https://www.computerbase.de/2017-09/intel-core-i9-7980xe-7960x-cpu-test/4/#abschnitt_die_spiele_im_detail
 
@0711: Kommt auf die Software oder das Spiel an wenn die Entwickler es auf einen Kern höchstens zwei ausgelegt haben ist es schon blöd.
Dann können natürlich Probleme auftauchen aber gerade bei Spielen speziell bei den AAA Titeln werden Heute die Engines so Entwickelt das Multi Kern CPU kein Nachteil sein.
Bei Software Speziell Video Bearbeitung und Entwicklungs Tools setzt man auch eher auf Mehr Kern Kompatibilität.
Natürlich kann man Streiten ob 8 Kerne mit je 1,4 ghz besser sind wie einer der dafür aber mit 4 oder 5 ghz läuft.
Es kommt halt auf die art und Weise an wie man etwas verwenden will allerdings sind Mehr Kern CPU in Verbindung mit Moderner in der Regel nicht schlechter wie ein Kerner.
 
@Freddy2712: nenne ein Spiel bei dem der ryzen 7 2700x den i7 8700 aussticht
 
@L_M_A_O: Klar ist das Unsinn, er ist ja auch nur ein Spielkind, was zu viel Hardware zum Testen hatt. Will ja nicht wissen wieviel der schrottet bis was klappt. Sponsor for the Win by PCGH. Da ist für mich Dancop (Rank 4) eher eine Koryphäe vorallem knapp 1000 Punkte über unserem B8uerchen =D. Also mit dem bischen Trockeneis und einem kostruierten gesponsorten Kühlblock für Cpu wäre jedes Spielkind bald in seinem Overclocker Ranking (Platz 15).
Ist ja nicht mehr als mal bischen an der Spannung gedreht und gut ist. Wir Privatler haben halt nicht das Geld und Sponsoren um das genau so Halbprofessionell und cool =D zu zelebrieren und sich mal paar Patzer leisten zu können um erfahrungen draus zu ziehen.

PS. der kann die Lian Li RGB schön zum Leuchten bringen =D darin ist er Koryphäe.
 
@L_M_A_O: Du sagst bei Mainstream bleibt es erstmal bei 8 Kernen und Roman sagt, dass Kerne-Wahnsinn nicht der richtige Weg ist. Widerspruch erkannt?

Er beschwert sich doch genau darüber, dass solche CPUs für Gamer auf den Markt kommen. Viele Kommentartoren hier behaupten, dass das nicht so sei und diese nur für Workstations gedacht sind, aber genau das ist eben nicht so. Es zeigt zwar, dass die User hier wissen wofür man solche CPUs nutzen sollte, aber vor allem AMD und Intel als Nachzügler bewerben diese CPUs ganz explizit für Gamer:
https://www.youtube.com/watch?v=4Z7EzcADIJM

Das Video erklärt dem Kunden sogar, dass Workstation und Gaming CPUs das selbe sind. Das ist ganz geschickt von AMD gemacht worden, damit AMD einen Markt bedienen kann, der vorher gar nicht existierte, da Intel zu dem Zeitpunkt seine Massenkerner eben nur im Serversegment anbot.
 
@mgutt: Aber nur Enthusiasten mit Geld kaufen sich einen PC mit dieser Plattform. Wenn die zu viel für ihr Geld ausgeben, obwohl sie nur Spiele spielen, sind sie selber schuld. Und die Kritik ist von ihm deshalb vollkommener Schwachsinn. Wenn er nur spielt, soll er beim Mainstream bleiben, nicht immer ist das teuerste auch gleichzeitig das beste für jedes Szenario...
 
@L_M_A_O:
Wenn Hersteller irreführende Werbung betreiben, dann ist Kritik üben schwachsinnig?!
 
@mgutt: Wo ist die Werbung irreführend?
 
@mgutt: "Du sagst bei Mainstream bleibt es erstmal bei 8 Kernen und Roman sagt, dass Kerne-Wahnsinn nicht der richtige Weg ist. Widerspruch erkannt?"

Der Mainstream ging bisher in IT Dingen und vor allem bei der CPU und GPU immer den Weg des Fortschritts. Vor wenigen Jahren war ein Kern normal und 4 Kerne reine Server-Hardware, heute sind 4 Kerne normal und in Servern 24, bald sind es dank AMD 6-8 Kerne im Home-Bereich. Oder siehe Mobiltelefone - das selbe Schema.

Kein Widerspruch zu erkennen: der eine sagt nur, was jetzt gerade Mainstream ist, Roman sagt, dass man nie mehr braucht. Und das ist Unsinn.
 
@DailyLama: Exakt meine Worte.
 
@L_M_A_O: Ist uch quatsch was der Bauerr da mal wieder erzählt. Fürher brauchte niemand mehr als 2GB VRam... immer dasgleiche gerede. Wenn 6 Kerne bei der Masse der Nutzer angekommen sind bzw. in der Konsolenhardware verbaut werden dann sind die auch für PC Gaming interessant. Und die werden nicht schneller dadurch verbreitet das man nur noch 4 Kerner baut die heute schon in einigen Spielen Nachteile aufweisen.
 
@Lowman316: Das ist totaler Unsinn. Du kannst eine Anwendung nicht auf beliebig viele Kerne skalieren. Je unterschiedlicher und variantenreicher die Berechnungen sind, desto kleiner ist der Anteil an Code, der sich gut parallelisieren lässt. Und bei Spielen ist genau das der Fall. Der Vorteil zusätzlicher Kerne sinkt somit mit jedem zusätzlichen Kern exponenziell. Genauso steigt der Aufwand, einen zusätzlichen Rechenkern auszulasten exponenziell mit jedem zusätzlichen Kern. Das ist ein Problem, dem wir rein mathematisch/logisch niemals Herr werden können. Ein Mathematiker hat dazu auch ein gesetz verfasst, dessen Name mir leider grad nicht einfällt.
Fakt ist, dass die Zahl an Rechnerkernen, die wir nutzen werden nichts mit Forschritt zu tun hat, da es nunmal auch Theoretisch nicht möglich sein wird, beliebigen Code auf beliebig viele Kerne skalieren zu lassen. Es geht weder theoretisch noch praktisch.
Deswegen ist das Rennen um immer mehr Kerne für die allgemeinheit definitiv nicht zielführend. Je mehr kerne, desto weniger Anwendungen profitieren davon. Das kann sich niemals ändern.
 
Ich hab mir mal seine 10 letzten Videos angeschaut. Fazit: Was der da treibt macht auch kaum ein normaler Nutzer. Was sollte man jetzt Ihm raten? :D
 
@Clawhammer: Vor allem kriegt man extremen Taktraten ja nicht mit allen Kernen hin oder sogar nur mit ausgeschaltetem HT. Vielleicht jammert er deswegen rum, weil sich diese Prozessoren eher schlechter übertakten lassen als 4-6 Kerner, aber deutlich prestigeträchtiger sind weil sie eben "Premium" sind.
 
Hört sich nach Influencer-Werbung zum Hypen von dem Produkt, das im letzten Absatz erwähnt wird. AMD und Intel beschäftigen unzählige Ingenieure, die seit Jahrzehnten an echter Halbleiter-Entwicklung beteiligt sind. Sie kennen den Markt und die zukünftigen Entwicklungen bzw. die technische und wirtschaftliche Machbarkeit mit aktuellen Materialien besser als jeder andere. Die Entscheidung auf mehr Kerne zu gehen wird eben eine Anpassung der Software benötigen. Was soll seine Aussage für einen Sinn ergeben? Die gegenseitige Ausbremsung? Weil Software noch nicht so weit ist, soll Hardware sich für einen schlechteren Weg entscheiden, und umgekehrt? Eine Erhöhung von 4 auf 5 GHz steigert die Leistung um 25%. Die Entwicklung von Quad zu Octa aber um 100%. Und dann in ebenso großen Schritten zu 16- und 32-Core CPUs. Bei GPUs hinterfragt niemand die Anzahl der Recheneinheiten.
 
@mil0: Recheneinheiten, was sollen das im Kontext eine GPU sein?
 
@Fallen][Angel: Shader Cores.
 
@Fallen][Angel: CUDA Cores, Tensor Cores, Stream Processors,.. Eben alle Komponenten in GPUs, die parallel Berechnungen ermöglichen. Die Brücke zu parallel processing in CPUs lässt sich doch leicht erkennen? Oder war das eine rhetorische Frage, weil mein Argument blöd ist?
 
@mil0: Nein, die Frage war nicht rhetorisch. Ich hatte deine Anmerkung nicht verstanden, da eine GPU grundsätzlich keine Recheneinheiten unter diesem Namen besitzt.

Du kannst die von dir genannten Elemente jedoch nicht mit einem Core gleichsetzen. Ein Core ist eine zusammengefasste Einheit. Eine GPU muss man als Single-Core-Komponente sehen, weswegen hier auch keine Probleme auftreten. Es gibt nur einen GPU-Core, wo all die von dir genannten Komponenten enthalten sind.

Bei einer CPU hast du jedoch mehrere Kerne, welche alle ihre eigenen Komponenten besitzen (z.B. FPUs etc.). Deswegen muss eine Applikation auch aktiv auf die Arbeit mit mehreren Kernen optimiert sein.

Das gleiche hast du auch sobald du mehrere GPUs in ein System packst (Stichwort SLI). Spiele können diese GPUs auch nur dann nutzen, wenn sie dies aktiv unterstützen. Und schon hast du ein identisches Bild wie bei der CPU.

Dein Vergleich ist somit nicht korrekt. Hätte eine GPU plötzlich zwei Kerne heißt es nicht, dass plötzlich alle Spiele diese auch nutzen würden. Das wäre nämlich nicht der Fall.
 
@Fallen][Angel:
Falls man mal z.B. eine Beschleunigung auf einer GPU bauen möchte (wissenschaftliches Rechnen usw) muss man auch massiv darauf achten, Caches immer zu befüllen und sich ein gutes Konzept für paralleles Arbeiten überlegen.

Die aktuellen Spieleengines erledigen das für einen, dass können Sie aber nur, weil Jahre lang massiv darauf optimiert wurde.
Es wird darauf optimiert was da ist, daher denke ich, dass in naher Zukunft deutlich mehr auf die Kerne verteilt werden wird.
 
@mil0: Das ding ist: Von Quad zu Octa steigt die Leistung um 0%, wenn es etwas ist das nicht parallelisiert ist. Vor allem wenn es gar nicht erst parallelisierbar ist, weil die Weiterverarbeitung einen Wert braucht der vorher berechnet werden muss. In solchen Fällen bringt Taktfrequenz halt mehr. Unter Umständen sinkt die Leistung sogar, wenn aufgrund der MultiCore-Architektur abstriche bei der SingleCore-Leistung gemacht werden (müssen).
 
@mil0: Jain, es kommt - wie immer - auf den Fall an. Wenn eine Anwendung alles seriell runter rechnet, nützen dir 32 Kerne gar nix. Dass heutzutage alles auf Skalierbarkeit ausgelegt werden sollte stimmt schon, allerdings ist es auch schwieriger als es den Anschein hat, das wirklich korrekt umzusetzen.
Manchmal scheitert es an ganz kleinen Dingen ... spreche da aus Erfahrung, weil wir gerade viele Dienst auf Async-Await umstellen. Da merkt man erstmal, wie falsch manche bisherigen Gedankengänge zur Programmierung waren bzw. dass man halt erstmal völlig anders denken muss, damit es vernünftigt skaliert und keine Fehler produziert. ;-)
 
@mil0: Woher hast du denn diesen Blödsinn ? Niemals steigert sich die Leistung vom Quad zu Octa um 100 % kann auch garnicht, schon der Aufwand und Overhead den du bräuchtest und auch haben wirst macht das wieder obsolet.
Er hat schon recht wenn er sagt "Nur für eine Hand voll Nutzer Interessant" man kann eben nicht alles Paraleliesieren zumindest macht es nicht überall Sinn, erst recht nicht in Spielen.
Deine Aussage mit den AMD und Intel Ingenieuren ist ebenso von gestern. Wenn der Chef sagt,er will 18 kerne,dann bekommt er die,ob es Sinn macht ist eine andere Frage.
Schon Anfang der 90er geb es Cpus die Intel 10 x umrundet hatten von der Geschwindigkeit her, da lag der tolle Pentium bei 60 MHZ und der DEC Alpha schon bei 150 - 200 MHZ mit mehr als der doppelten leistung bei gleichem takt,aber leider wollten die 08/15 user immer nur Windows...
 
@AndyB1: Die 25% waren auch als best-case Szenarien zu verstehen. Eine 25% höherer Takt heißt auch nicht immer 25% mehr Performance. 100% mehr Cores heißen nicht 100% Performance. Aber es ist einfacher, als alle Umweltfaktoren anzugeben, die diese theoretischen Werte nach unten ziehen. Parallel Computing macht gerade die ersten Schritte in Gaming Anwendungen. Aber das OS dahinter kann mit mehr Cores auch etwas anfangen. KI bei NPCs könnte in näherer Zukunft eine größere Rolle spielen bzw im noch intensiveren Strategiespielen. Aber man muss sich nicht zu sehr auf das Thema Games verbeißen, wenn es um das Thema Kernanzahl im Endkunden-Bereich geht. Das erwähnte Beispiel ist ein Argument für und gegen Intel. Zwar haben sie sich anscheinend gegen etwas Leistungsfähigeres entschieden, aber sie haben eben genau den Kundenwunsch getroffen. der8auer meint aber eben, dass Intel und AMD gegen Kundenwünsche setzen.
 
@mil0: Sicher, das OS dahinter ist in meinen Augen sogar wichtiger als viele denken, aber gab es hier nicht letztens nen Artikel über DX wo erwähnt wurde das es bis DX 11 fast nicht möglich war mehr als 2 kerne richtig zu nutzen ? Will jetzt nichts falsches behaupten,aber in vielen Dingen wird nicht wirklich an die Zukunft gedacht.
 
@mil0: Die Aussage, dass "Software NOCH NICHT so weit ist" ist einfach falsch. Parallelisierung ist kein Problem, welches sich durch weitere Entwicklung nach und nach beheben lässt, sondern ein Problem, das sich einfach nicht aus der Welt schaffen lässt. Das ist genauso, als wolle man mit Lichtgeschwindigkeit oder gar ÜLG fliegen. Der Energiebedarf geht gegen Unendlich. Genauso geht der Aufwand, immer mehr Kerne mit beliebigen Aufgaben auszulasten gegen Unendlich. Daran kann keine Entwicklung der Welt etwas ändern, denn dafür müsstest du die Gesetzte der Mathematik missachten und damit der allgemeinen Logik. Jemand, der behauptet, dass wir beliebig viele Kerne auslasten könnten, wenn wir unsere Programme nur darauf optimieren würden, der hat keine Ahnung von dem, was er redet. Beliebig viele Kerne kann man nur dann auslasten, wenn man einen Algorithmus hat, der eben x-fach berechnet werden muss bzw. eben per se parallel arbeitet. In der Spieleentwicklung gibt es aber aufgrund zeitlicher Abhängigkeiten eben nur sehr wenige Rechenschritte, die parallelisierbar sind.

Das kann man sich wie im Echten leben Vorstellen. Ein ganzes Haus können viele Arbeiter gleichzeitig aufbauen und sind dadurch schneller. Wenn es aber darum geht, einen Ziegelstein auf die Wand zu setzen, dann bringt es dir aber keinen Vorteil. 5 Leute können einen einzigen Ziegelstein nicht schneller setzen, als ein einzelner Arbeiter. Das sind eben die Schritte, die sich nicht parallelisieren lassen. Somit kannst du z.B. ein Haus in vielleicht 1-2 Tagen bauen, wenn du genug leute hast, aber du wirst es selbst mit 100.000 Leuten, auch nicht mit 1 Million Leute in 10 Minuten schaffen. Ich hoffe, die Logik dahinter ist klar...

Man kann jetzt natürlich hergehen und den Algorithmus für "Ziegelsteine setzen" parallelisieren, indem man eben 1 Mio. Arbeiter 1 Mio. Ziegelsteine gleichzeitig setzen lässt. Würde man die alle nebeneinander stellen, würde innerhalb von 10 Minuten vielleicht ne schöne, lange Wand mit Millionen von Ziegelsteinen stehen. Du kannst aber trotzdem kein Haus mit dieser extrem hohen "Arbeitsleistung" bauen, da du auf einem Grundstück nicht so viele Arbeiter unterkriegst und du Zeitliche Abhängigkeiten hast. heißt, der erste Stock kann erst gebaut werden, wenn das Erdgeschoss steht usw... Es lassen sich nicht alle Aufgaben parallelisieren. Punkt!
 
@Laggy: Danke für das anschauliche Beispiel. Es hängt halt doch von unserer Vorstellungskraft ab. Was heute nicht schneller geht, geht morgen eventuell mal doch. Das Beispiel Hausbau hätte ich persönlich nicht gewählt, weil es ja bereits möglich ist Menschen durch 3D Drucker zu ersetzen und da geht Parallelisierung etwas besser. Aber ich weiß worauf es hinauslaufen soll. Man kann da ruhig näher bei echten parallel processing Themen bleiben. Eventuell eine Gleichung, die einen Wert aus allen vorher bestehenden vorperioden benötigt. Das wäre ein Szenario, bei dem serielles Abarbeiten notwendig ist. Ich habe aber auch nicht behauptet, dass 100.000 Kerne das Ziel sein sollten. Lediglich etwas mehr als die 6, die erst für den Mainstream überhaupt angepeilt sind.
 
Ich frage mich, warum dieses Interview, das eigentlich die Standardaussage irgend eines Hinterhofnerds sein könnte, eine News wert ist.
 
@gutenmorgen1: Naja, Roman als Hinterhofnerd zu bezeichnen zeugt schon davon, dass du keine Ahnung davon hast, was der gute Mensch macht und welches Knowhow er besitzt.
 
@Fallen][Angel: naja er ist aber in erster Linie overclocker, und er hat denke ich keine Betriebswirtschaft studiert, denn sonst wüsste er, dass für die meisten anderen Bereiche wie rendering, streaming mehr kerne von Vorteil sind. Die thread ripper sind ja nicht fürs Gaming entwickelt worden, was auch an der tdp und dem gesonderten sockel zu erkennen ist.
 
@TobiasH: Dir fehlt der Weitblick. Du sprichst vom jetzt. AMD hat jetzt 8 Kerne für den Consumer-Bereich etabliert. Intel holt gerade mühsam auf. Roman spricht nun von dem Fall, dass der Fokus für Consumer nun nicht auf weiteren Kernen liegen sollte, da mehr Kerne keinen nutzen bringen.

Außerdem: derStandard ist die BILD von Österreich. Ein Schundblatt. Ich würde das dort abgedruckte Wort nicht 1:1 für voll nehmen. Aber das nur am Rand ;)
 
@Fallen][Angel: "da mehr Kerne keinen nutzen bringen." könnte vielleicht daran liegen das weniger Leute mehr als 4 Kerne haben und ergo auch nicht versucht wird die Spiele darauf zu Optimieren. Wenn sich das nun aber ändert weil mehr Leute +4 Kerne haben wird es irgendwann mal so sein das es eben sehr wohl etwas bringt bzw ist es sogar schon so in Spielen wie Arma.
 
@LMG356: Konsolen habe seit Jahren mehr als 4 Kerne und ein Großteil aller Konsolen-Spiele sind auch für den PC verfügbar. Wenn also wirklich die CPU limitierend wäre und man jeden Tropfen Leistung bräuchte, dann würden die Spiele die Kerne auch jetzt schon nutzen können.
 
@Fallen][Angel: Ich glaube du verwechselst den Standard mit der Kronenzeitung und Österreich, die beiden sind das österreichische Pendant zur BILD ;)
 
@Fallen][Angel:
Konsolen CPU != Computer CPU....
Konsolen Spiele != PC Spiele...

"Wenn also wirklich die CPU limitierend wäre und man jeden Tropfen Leistung bräuchte, dann würden die Spiele die Kerne auch jetzt schon nutzen können."

Die meisten Spiele sind nicht auf mehr als 4 Kerne Optimiert weil die meisten nur 4 Kerne haben. Würden die Mehrheit mehr Kerne haben, könnten devs das nutzen um eben auch mehr der CPU zu überlassen z.b Physik berechnen etc.
 
@Fallen][Angel: "derStandard ist die BILD von Österreich" Wohl kaum. Das ist Krone bzw. oe24
 
@LMG356: Oder KI berechnen. Gegner oder befreundete Einheiten berechnen etc...
 
@TobiasH:
Dafür macht AMD aber eine ganze Menge Werbung für's Gaming. Es gibt auch extra offizielle Blogbeiträge von AMD, die die Vorteile von TR aufzeigen. Da wird sehr wohl gezielt für Werbung gemacht. Die Kunden sollen entsprechend erzogen werden. Und das krisitiert Roman. Übrigens verkauft Roman Produkte aus eigener Entwicklung. Und das erfolgreich und nicht alles ist nur für Overclocking. Dank seinem Delid Mate ist mein 8700K nun passiv gekühlt. Und er entwickelt weitere Ideen wie die passive Kühlung mit 3M Novec. Das ist weltweit einmalig und ihn da als Hinterhofherd zu bezeichnen ist schön frech.
 
@mgutt: der delid-die-mate wurde aber fürs overclocking von ihm entwickelt, um noch mehr Leistung rauszuholen bei niedriger Temperatur... Wobei ich das Teil unnütz finde, da man vlt alle 2-3 Jahre mal eine CPU köpft und da reicht eine rasier Klinge, die günstiger ist...
 
@TobiasH:
Du kannst auch mit der Sense den Rasen mähen. Ob das effizient ist, ist eine andere Frage. Es gibt auch genug Unfälle und Beschädigungen durch die Rasierklingen-Methode.

Und nur mal so am Rande, Turbo, Scheibenbremsen oder Direkteinspritzung gäbe es heute auch nicht ohne den Formel 1 Sport. Zahlreiche weitere Beispiele aus der Weltraumforschung spare ich mir.
 
@mgutt: du vergleichst rasenmähen mit Köpfen? lol... Rasenmähen muss man mehrmals im Monat, und CPUs Köpfen vlt alle paar Jahre mal... Zumal Ryzen verlötet ist...
 
@mgutt: "Dank seinem Delid Mate ist mein 8700K nun passiv gekühlt."
Vielleicht solltest du an dieser Stelle auch Intel dafür kritisieren, das die billige "Zahnpasta" zwischen DIE und Heatspreader verwenden und es nicht mehr verlöten. Ich finde das ziemlich traurig, das man auf solche Verfahren zurückgreifen muss, um bessere Temperaturen zu bekommen. Vor allem wenn die "Zahnpasta" älter wird, wie bei meinem i5-3570k, sind die Temperaturen nicht besonders gut.

Das Unding überhaupt ist ja, das man mit der neuen Generation dies selbst für die weitaus teureren Enthusiasten Prozessoren durchgezogen hat...
 
@L_M_A_O: natürlich ist das kritikwürdig, geht jetzt aber am Thema vorbei.
 
@Fallen][Angel: Wenn ich dich mit Hardware zuwerfen würde die du gedankenlos schrotten kannst, würdest du diese Dinge auch nach einiger Zeit hinbekommen. Auf der Plus Seite würde ich jeglichh sagen hat er den richtigen Zeitpunkt gefunden um sich selbst entsprechend zu vermarkten/verkaufen.
 
@gutenmorgen1: Angeblich ist der feine Herr Mechatroniker und arbeitet in der Marketing Abteilung von Caseking. Soviel dazu. :) Spricht für sich.
 
Es ist eine Meinung und genau als das sollte man das auch sehen. Der Rest ist eine individuelle Entscheidung eines jeden einzelnen. Ich selber bin ein durchschnittszocker. Ich habe keine hohen Ansprüche, es müssen keine 60 frames sein... ich bin da nicht so leidenschaftlich bei. So lange das für mich einen flüssigen Eindruck macht, isses schick.
Ich zock mit nem i3, mir reichts. Ist nen i5 oder 7 besser? Zweifellos. Brauch ich es? Nein.

Und der Titel Experte, was macht ihn dazu? Der Kerl beschreibt sich mit " Overclocking and all kind of crazy pc stuff :) " auf youtube - wenn das mal nicht Eindruck macht.
An sonst, wie auf seiner Internetseite beschrieben, hat er keine Fachmennische IT Ausbildung. Der Kerl ist Mechatroniker und arbeitet bei Caseking.
Ich will ihm seine Kompetenz nicht absprechen, aber das hätte auch die Meinung eines irgend einen anderen youtuber sein können, der eine Meinung dazu hat.
 
@kkp2321: Die Meinung von Bibi zu einem Kosmetikprodukt zählt ja auch mehr als die von z.B. 200 anderen Frauen die 1000 mal hübscher sind :D
 
@kkp2321: Caseking lebt davon Übertaktete PC's für 9999 € zu verkaufen. Macht der8auer da gerade (Schleich)Werbung!
 
@kkp2321: Das ist keine Meinung, sondern ein Problem, das sich mathematisch belegen lässt.
Intel hat nicht ohne Grund seit ca. 10 Jahren den i7 als 4-Kerner verkauft.
Jetzt da AMD mit 8 vorgeprescht ist (irgend nen Bauernfang muss man als Alleinstellungsmerkmal ja bringen) musste Intel eben aus rein marketingtechnischer Sicht nachziehen. Aber man sieht immernoch, dass Intel beim i7 trotzdem "nur" 6 Kerne und keine 8 verbaut, weil es eben immernoch wichtiger ist, den maximalen Takt zu fahren. Sobald man die Anzahl der Kerne auf Kosten des Maximaltaktes erhöht, ist die CPU eine Kompromisslösung. Intels i7 sind mit 4 bzw. jetzt 6 Kernen diesen Kompromiss nie gegangen. AMD geht diesen Kompromiss schon seit 10 Jahren und zieht deshalb in z.B. Spielen immer den Kürzeren.
 
ich denke mal multicore kam extra WEIL zu viel takt auf die effizienz geht.

es würde vlt helfen wenn games auf mehr cores optimieren.
 
@My1: Dan fang mal an, Algorithmen zu parallelisieren, die nicht parallelisierbar sind. Viel spaß.
Kleiner Tipp: Ist nicht möglich...
 
@Laggy: sicher kann man nicht ALLES paralleliseren aber sicher einiges.
 
Unsinnig. Niemand empfiehlt einen i9 zum zocken, die sind für andere Sachen da ... toller "Experte".
 
@SpiDe1500: Das hat er auch nicht behauptet. Wo liest du das denn raus? Er meinte dass der i9 dem i7 beim Gaming unterlegen ist und das stimmt. Es gibt mehr als genug Menschen die glauben, dass mehr Kerne = besser ist. Und dies versucht er zu widerlegen.
 
@Ryou-sama: und ich glaube ohne ein experte zu sein dass du mit mehr kernen zukunfts sicherer bist. Als der i7 3770k raus kam wurde ich auch gefragt was ich mit dem will und das der ein gaming overkill ist und der hat mir bis 2018 gute dienste geleistet. So wird es auch 2024 sein... ich denke es geht mehr in richtung multicore an den ghz zahlen hat sich nicht wirklich viel getan in den letzten 10 jahren. Mein C2Q 6600 lief 2007 auch mit 3,6ghz 25% takt steigerung zu meinem 8700k der mit 4,8ght läuft. Dann sind wird bei 6ghz 2030 geil!
 
@wolver1n: Im Gaming-Bereich nicht zu sehr. Wie lange zieht es sich denn schon mit den empfohlenen 4 Kernen der Spiele-Entwickler? Ich glaube fast 10 Jahre, während wir bei einigen Spielen mit einer empfohlenen Taktrate schon bei über 4,6GHz angelangt sind. Ich denke, dass Gamer noch mindestens 5-10 Jahre mit den 4-Kernern gut versorgt sind. Gamer rüsten sowieso im Schnitt alle 5 Jahre ihre CPU auf.
 
@SpiDe1500:
Natürlich. Der Hersteller selbst tut das:
https://www.intel.com/content/www/us/en/products/processors/core/i9-processors.html
"New levels of single, multi-threaded, and mega-tasking performance for the latest AAA games and VR."

https://www.amd.com/de/products/ryzen-threadripper
"Erobern Sie Design und Gaming mit Ryzen? Threadripper?."
 
Der Typ will uns also weiß machen das Spezielle Workstation/Server CPUs nicht für den Normalen Gebrauch bzw. Normalen Nutzer nützlich sind...achso danke, hatte schon vor ne CPU mit 32 Kernen für +5000€ für Office Arbeiten zu kaufen....

"Hartung sagte, dass das Duell zwischen AMD und Intel eine Zielgruppe von gerade einmal einem oder zwei Prozent aller Nutzer anspricht." Ja und rate mal wer diese angeblich ach so mickrigen und unwichtigen 1% sind...Riesige Firmen die Tausende solcher CPUs für Millionen von Euro/Dollar auf einmal kaufen...und damit wiederum sehr viel mehr einbringen als Franz mit seiner 100-300€ 4-8 Kern CPU....
 
@LMG356: Er meint vor allem die Intel X und AMD TR CPUs. Die sind bezahlbar und deren Werbung richtet sich auch an Gamer.
 
@LMG356: Mit 2500 € bist du schon gut dabei, wenn der 32 Kerner tatsächlich nur 1700 € kosten sollte. Außerdem sollte man den Officebetrieb nicht unterschätzen, da auch hier sehr viele Arbeiten parallel stattfinden können und viele Kerne sehr hilfreich und nützlich sind.

Ich zum Beispiel scanne öfters 80+ Seiten ein, die während und nach dem scannen weiterverarbeitet werden müssen (optimieren, OCR + speichern als PDF-A). Die richtigen Programme können auch problemlos 32 Threads nutzen. Während dieser Zeit mach ich ja nicht Pause sondern arbeite weiter - zum Beispiel mit Diktieren von Text (Dragon), große Excel-Tabellen etc.. Da stoßen die üblichen Verdächtigen schnell mal an ihre Grenzen. Das passiert mit meinem 16 Kerner viel seltener ;).
 
na da hat der herr noch nicht mit der natur und ihren äpfeln oder melonen zu tun gehabt. die haben echt viele kerne :-)
 
Overclocking ist unnötig.
 
@Paradroid666: Wenn für dich 5-15 FPS mehr "unnötig" sind dann ja...
 
@LMG356: Kommt immer auf die Hardware an. Ich würde heutzutage auch die Hardware nicht mehr übertakten, sondern eher untertakten, um den richtigen SweetSpot zu bekommen.
 
@LMG356: Herrje, Performanceunterschiede gibt man in Prozent und nicht in FPS an. Und ja, wenn man 200 FPS hat, sind 5-15 FPS mehr oder weniger einfach wurscht. Wenn man nur 30 FPS hat, machen 5-15 FPS Unterschied viel aus. Merkste was?
 
Er hat recht, nennt aber nicht das relevante Argument:
Spiele werden auch in Zukunft nicht auf XX Kerne optimiert, weil es mit höherer Kernzahl immer komplizierter wird die Prozesse synchron zu halten und das ist elementar wichtig. Ein paar Infos dazu findet man im Interview mit den Metro Entwicklern (deren Spiel schon gut angepasst ist):
https://www.tomshardware.com/reviews/multi-core-cpu-scaling-directx-11,4768-4.html

Auch fraglich ob die GPU den Input überhaupt noch gerendert bekommt. Das muss ja auch passen.
 
Was heutzutage schon alles als Experte durchgeht.. Vielleicht sollten die bei AMD und Intel den am besten sofort einstellen. "Hartung sagt, dass 5 GHz pro Kern das Ziel seien, danach dürfte aber Schluss sein." das ist ein genauso sinnlose und vermutlich falsche Aussage wie sie der gute Bill Gates seiner Zeit über den Speicher gesagt hat.. 640kb seien auch das maximum :)
Vielleicht sollte dem guten Mann mal jemand erklären, dass die Reihenfolge so ist, erst müssen neue Systeme (hier mehr Kerne) geschaffen werden, erst dann kann es entsprechende Anwendungen geben, die diese auch vollends unterstützen und nicht andersrum.
 
@jann0r: ich denke man kann ihn durch seine Erfahrung auf diesem Gebiet schon als Experten bezeichnen.
Es gebe aber weitaus mehr Experten auf dem Gebiet wenn jeder Nerd auch so gesponsert werden würde. ;)
 
@UKSheep: naja ich würde ihn als Enthusiast bezeichnen, der durch seine Videos usw natürlich eine gewisse Bekanntheit erlangt haben wird und sicherlich auch ein gewisses Maß an wissen vorweisen kann. Aber ich glaube Expertenwissen auf dem Gebiet CPU Technik ist dann vermutlich normal etwas anderes. Ich denke davon haben die Ingenieur von Intel und AMD eher welche in ihren Reihen
 
@jann0r: Er macht doch nicht nur YouTube-Videos. Das tut er nur nebenbei. Seinen weltweiten Bekanntheitsgrad hat er durch diverse Overclocking-Wettbewerbe und -Meisterschaften erstanden. Er arbeitet auch mit diversen Mainboard-Herstellern zusammen denen er mit Rat und Tat zur Seite steht und darf sogar bei Intel hinter verschlossenen Türen deren neue CPU's bestaunen. Also der Mann ist nicht irgendwer und hat schon Ahnung wovon er spricht.
 
@Ryou-sama: Klingt für mich wie eine Werbefigur
 
@Clawhammer: Interessiert man sich nicht über Overclocking und Modifikationen, dann kennt man ihn auch nicht. Dementsprechend kann man auch viel lästern.
 
Aha... immer höhere Taktraten sind also die Zukunft, weil Game-Engines technisch oft veraltet sind und mit dem Horizontalen Wachstum (mehr Kerne statt höhere Taktraten) nicht mithalten können. Vielleicht, aber nur vielleicht liegt der Fehler nicht bei den CPU-Entwicklern, sondern den Spieleentwicklern, die stur sich weigern, mehr Kerne zu nutzen, obwohl dieser Trend seit den ersten Dual-Core-Prozessoren absehbar war... und dann noch von Energieeffizienz schwafeln, wenn das Höhertakten den Stromverbrauch erhöht und nicht mehrere Kerne. Was für ein Vollhorst!
 
Also ich benutze einen i5 4440 mit 4 Kernen mit 3,1Ghz und dass ist völlig ausreichend bisher, selbst Spiele wie Final Fantasy 15 reizen die CPU nicht zu 100% aus.
 
@Andre Passut: Warum kriege ich hier "-"? Nicht jeder hat überdimensioniert Geld um sich ständig neue CPU's und Mainboards zu kaufen -,-
 
intel plant einen risc-prozessor als konkurrenz zum qualcomm snapdragon 1000 und erhofft sich damit den lang ersehnten absprung aus der x86-architektur
 
Overclocking ist doch auch Schwachsinn denn was ist unsinniger als seine Hardware frühzeitig zu schrotten und den Stromverbrauch exorbitant zu erhöhen deswegen finde ich die Meinung eines Overclocker auch nicht gerade wegweisend weil er aus einer anderen extremen Ecke kommt. Das einzig richtige was er sagt ist die Effizients aber nicht die GHz.
 
@Menschenhasser: hängt von der CPU/GPU ab
Ein i5 2500k taugt selbst Heute, nach über 6 Jahren noch.
Liegt daran weil ihn jeder mit 2 linken händen auf >4,2 GHZ bringt (unter luft)
seinen Kollegen, den i5 2400 mit gesperrtem Multiplikator kann man in die tonne treten.
Da sind die 50 Watt mehr unter vollast zu Verschmerzen.
Und wenn es die Lebensdauer von 20 auf 10 Jahre verkürzt ist das auch egal, weil 2022 auch nichts mehr taugt

ebenso Spannungherabsetzten. Alte AMD Grafikkarten haben von Werk aus Immer viel zu hohe spannungen. -30mV im Afterburner und die Karte läuft nicht nur sparsammer, sondern auch kühler und taktet höher...
Dumm ist, wer nicht selbst hand anlegt
 
@Menschenhasser: Ich hab meinen 3570K gekauft 2012 seit 2013 auf 4.6OC'd. Von "vorzeitigem schrotten" keine Spur wenn man die Temperaturen unter 70°C hält.
 
In meiner Sicht, hat er Recht für das eine, für das Andere jedoch nicht. Es kommt sehr darauf an, für was es gedacht ist. Ich kann auch mit einem Bugatti Chiron ins Kino fahren, auch wenn ich keine 16 Zylinder dafür brauche.
 
Fürs gaming tatsächlich aktuell nicht so toll. ABER für mich super gut. Arbeite viel mit 3D Renderings und da bringt jeder Kern etwas. Geschwindigkeitsunterschied DEUTLICH vorhanden. Werden halt alle Buckets (Bildbereiche die gerendert werden, kann man sich wie Bildausschnitte vorstellen) parallel abgearbeitet.
 
Grundsätzlich korrekt was er schreibt aber(!) bei vielen Gamern wird auch noch im Hintergrund das Spielgeschehen aufgezeichnet was ebenfalls die CPU belastet. Ich merke das bei meinem i7 wo die FPS deutlich sinken sobald ich mein Spiel aufzeiche. Somit denke ich mit 8 echten Kernen ist man aktuell perfekt als Gamer aufgestellt. Mehr braucht man nicht und drückt nur die pro Kern Taktrate.
 
Der gute Herr Hartung hat wohl vergessen, wozu Computer überhaupt einmal gebaut wurden, kleiner Hinweis, Spiele spielen war es nicht!
 
@Dr. MaRV: Nein, aber Menschen mit vielleicht etwas mehr Fantasie und Lebensfreude als Sie haben schnell erkannt, dass er sich super dafür eignet. ;)
 
Da hinken die Softwareprogrammierer etwas hinterher. Vor gar nicht zu langer Zeit hieß es noch wer braucht überhaubt ein 64bit System. Die passende Software muss her um die Kerne besser auszunutzen wie z.B. 2 Kerne für Sound, 2 für Eingabegeräte Maus Headset usw. 2 für Netzwerk, 2 für Festplatten und USB 2 für Betriebssystem und die restlichen für Anwendungen und Spiele.
Der große Vorteil besteht das Programme dauerhast im Cache laufen können und nicht immer wieder neu aus dem langsamen Ram geladen werden mussen.
 
@Montag: In die 64k L1/Kern? Super Software. Dann brauchen wir ja nur mehr Cache statt mehr Kernen.
 
Gaming ist aber nicht alles. Es gibt einige Anwendungsfällt die von "moar coarz" profitieren.
Es stimmt aber, dass diese Entwicklung für 0815 user sinnfrei ist.
 
@Aerith: Sicher richtig, aber Kerne skalieren nicht endlos. Irgendwann gibt das schon die Anwendungslogik nicht mehr her und ab dann wird nur noch "mehrere Anwendungen gleichzeitig" interessant, die vor allem auch gleichzeitig arbeiten (können) müssen.

Spielen und Browser? Da können die Browserthreads schlafen. Ein Browser, viele Tabs? Da brauch ich die Threads für den aktiven Tab aktiv, der Rest kann pennen.

Und so weiter. Es gibt da zB Taskmanager, die auch Threads anzeigen sowie welcher Thread was tut. Jeder Thread kriegt einen logischen CPUkern und dann sieht man sofort, wie gut oder schlecht diese ausgelastet werden kann. Parallelisieren macht man wegen der Performance und der Threadisolation, nicht zum Spaß, und wenn AMD oder Intel mit 999cores kommen, dann kriegen die außer in spezifischen Umgebungen zeitlebens nie etwas zu tun.
 
@RalphS: Ich seh das ganz genauso, aber die Hersteller haben sich diese "Core Wars" nunmal als marketinggag ausgesucht.

Wobei mehr als 4 denke ich schon ein Fortschritt ist. Ich kann dir allerdings keine Zahl nennen bei denen der diminishing return einsetzt und mehr cores sinnlos werden. ^^
 
@Aerith: Guter Punkt, aber zumindest so wie ich den Fall überblicke, liegt er zwischen 8 und 32 Threads für den üblichen Privatgebrauch.

Klar, Simulationen profitieren stark von "viel Kern". Nur, wie sinnvoll das ist, sich für konkret diese Anwendung einen TR(2) einzukaufen, damit man einmal die Woche siedeln kann... weiß nicht.

Lustigerweise, wenn man der Argumentation so folgt, ist jeder Zweite ~50% des Tages mit Videobearbeitung beschäftigt und kommt daher NATÜRLICH nicht um 128 Kerne drumrum. :)
 
@RalphS: :D Haha, wie wahr.
Ich werd wohl noch ein paar jahre mit meinem 3570K rumeiern, da ich bisher nicht die Notwendigkeit für mehr CPU-grunt sehe.
 
Kann schon was dran sein.

Im Prinzip sind mehrere Kerne schon gut, es stellt sich aber die Frage ab wann es nicht mehr viel bringt.
Und das ist sicherlich sehr davon abhängig vom Nutzungs-Profil.

Viele Kerne müssen erst mal gemanagt werden, auch Hardware-seitig.
Außerdem brauchen auch nicht genutzte Kerne auch Strom.
Je nach dem kann das ein Thema sein.

Wenn man die Taktfrequenzen auf einem Chip dynamischer regeln könnte würde das etwas bringen.
I
.
 
Wie lustig das hier die Leute den ryzen 2600x mit dem i7 8700k vergleichen. Ist ja nicht so das der i7 mal ebend 120€ mehr kostet. Da tun die 5% nicht weh (die man eh nicht merkt)
 
Ich will euch ja nicht die Illusion nehmen, aber die Vielkern-CPus, die heutzutage im Highend-Gaming eingesetzt werden, sind entwicklungstechnisch eher Abfallprodukt der Serverprozessoren. Im Serverumfeld ist massive Parallelität mit möglichst vielen Cores der Renner, z.B. bei Datenbanken, Server/Desktop-Virtualisierung usw. extrem wichtig und erfolgreich. Dass manche Spiele von solcher massiven Parallelität profitieren, ist eher positiver Nebeneffekt als wie Absicht. Das wahre Geld wird im Server-CPU-Markt verdient. Wisst ihr, wer die größten CPU-Kunden (bei Intel) sind? Google, Facebook, Twitter, Amazon, NSA.

Man muss es mal so sehen. 1995 waren die CPUs noch bei etwa 200 Mhz (Pentium 200 MMX). 11 Jahre später, 2006, erreichte der erste Desktop-Prozessor die magische 4 GHz Marke, ein Pentium 4 "Extreme Edition 965" war das, der lief normal mit 3,75 GHz und konnte kurzzeitig auf 4 Ghz hochboosten.

Wir haben heute, also 12 Jahre später, wesentlich bessere Prozessoren, die vor allem mehr Befehle pro Takt verarbeiten können, das liegt zum Teil an der massiven Parallelität mit mehreren Cores pro Sockel, Hyperthreading, aber jeder einzelne Kern eines aktuellen Core i7 oder AMD Ryzen ist heute deutlich leistungsfähiger als der 4 Ghz P4 core, sprich kann mehr Befehle pro Takt verarbeiten. Selbst ein aktueller Prozessor aus der Atom-Reihe lässt selbst den schnellsten P4 schon locker stehen, sogar ein kurz darauf erschienener Core2Quad ist gegen diese Einsteiger-CPUs eine lame duck.

Aber, selbst 12 Jahre nach dem P4 EE 965 durchbrechen nur die wenigsten CPUs die 4 Ghz Schallmauer. Mit demneuen Jubiläumsprozessor i7 8086 und ähnlichen wird allerdins mit extrem hohem Aufwand auch 5 Ghz erreicht. Aber wenn sie es tun, verbrennen sie - trotz kleinerer Chip-Strukturen und niedrigerer VCore - noch genauso viel Energie wie dieser. Eigentlich müssten wir mindestens schon bei 10 Ghz Takt sein, wenn es so mit der Taktsteigerung voran gegangen wäre, wie von 1995 bis 2006. ABer Moore's Law iste heutzutage erstmal am Ende, eigentlich schon fst 10 Jahre.
 
Mein PC wird für's Gaming genutzt, aber auch zb zum Kodieren oder Umrechnen von Videos. Dank AMD kann ich nun beides gleichzeitig auf einem PC machen. Der Herr der8auer hat recht wenig Weitblick für eine "Hardware-Koryphäe" - das wesentliche Merkmal eines PCs ist eben, dass er viele Dinge kann, und nicht nur eine Sache. Und mehr Kerne helfen da (nicht überraschenderweise) dabei, einen PC mehrere Aufgaben gleichzeitig erfüllen zu lassen.
 
Gebe 8auer nicht recht. Aus heutiger sich mag das noch stimmen. Morgen aber schon nicht mehr.

Den meine Erfahrung ist das 4 Kerne nicht mehr ganz so reichen bei Spielen, vor allem dann wenn das Game schon mehr als 1 Kern nutzt. Da braucht das System nur im Hintergrund etwas Starten und schon stockt das Spiel. Ein Wechsel vom i5 6600 auf einen 1600X und weg war es. Bei Takten ungefähr gleich.

Sowohl AMD als auch INTEL haben angekungit Spielentwickler mehr dabei zu unterstützen Spiel auf mehr Kerne zu bringen. Genau so wird es auch kommen mit der Zeit wird man auch immer besser Techniken entwickeln um die Kerne auch in Games besser auszunutzen. Das ist alles nur eine Frage der Zeit.
Das wird auch dazu führen das Spiele dann immer mehr können. Es immer bessere Grafik gibt, so weit die GPUs halt mit der entwicklung mit halten.

Als es möglich war CDs auch auf Computern abzuspielen ( damals hatte ich einen Amiga) und die Titel auf die Festplatte zu ziehen, von so was wie mp3 war da noch nicht die rede, da sagte ich. Eines Tages werden die PCs die CD Player und auch die Videorecorder ersetzten. Ich kann mich noch gut errinnern wie dazumal so einige Profie gelacht haben. Na und was ist heute, heute tragen wir ganze Musiksammlungen schon in der Hosentasche am Handy rum.

der8auer ist auf seinen Gebiet ein Profie, was anderes zu behaupren wäre völlig Falsch. Doch wäre sein Vorschlag eine Einbahnstrasse. Was wenn diese 4-6 Kerne die 5GHZ erreichen? Ende der Fahenstange? Über die 5GHZ wird es nicht all zu viel darüber gehen so wie es aussieht.

Dazu darf man noch etwas nicht vergessen, die Systeme müssen immer mehr können. Seht auch mal einen alten Amiga oder andere aus der Zeit an was da an Traks gelaufen ist und vergleicht das mal mit heute. Auch das braucht immer mehr Leistung.
Ja für irgendeinen Test wo nur das nackte System läuft und das Spiel mag das alles schon noch reichen, aber bei den Usern drausen läuft meist nicht nur das nackte System.

und der8auer darf noch eines nicht vergessen, nur die wenigsen drausen betreiben OC.

Bei AMD und auch bei INTEL arbeiten keine Deppen. Die wissen selber auch das sie das Ende der Fanenstange bei den GHZ erreichen und nicht verlangen können, Leute hab heute nur mehr Wasserkühlung und ab Morgen nur mehr Stickstoff. Daher gehen sie eben den Weg über mehrere Kerne. Die wissen schon warum.

PS: Ich kann mich noch daran errinnern als so die ersten versuche mit 2 Kernen aufgetaucht sind, damal waren das meist 2 CPUs und nicht 1 CPU mit zwei Kerne. Ich höre es noch wie heute. Wer braucht den das und wo zu. Es gibt vielleicht nur einen Handvoll Leute die das brauchen können.
 
Er hat in sofern recht, als dass nur mit geeigneten Anwendungen so viele Kerne genutzt werden können. Betsehende Games sind darauf nicht optimiert - und wieso? Weil es nicht nötig ist. Die Kerne, wie sie sind, haben genug Power, dass eben 4 oder 6 Kerne ausreichen. Dann eben nicht die High-end-CPU kaufen, vielleicht tuts dann auch die Mittelklasse mit weniger Strombedarf. Der PC wird günstiger, ist doch top!

Klar, vielleicht sind mehr Kerne auch gar nicht sinnvoll Möglich, weil der Koordinierungsaufwand den Zugewinn übersteigt.

Warum haben wir denn überhaupt Multi-Core? Richtig, weil die zum Verkauf neuer Prozessoren notwendige Performancesteigerung pro Kern nicht mehr realisierbar war. Ob sich das mit 10 nm gegeüber 180nm (Pentium 4) sehr verändert hat?!
 
Bullsh*t ... Wie er ja selbst sagt, kommt es darauf an ob Spiele die zusätzlichen Kerne ausnutzen.
Das wäre genauso wie zu sagen ein Ferrari ist unnötig, weil du im Ort sowieso nur 50 fahren kannst.
Wir sind momentan ziemlich an einer Grenze angekommen, die nicht noch viel mehr Megahertz pro Kern zulässt. Irgendwann ist auf molekularer Ebene eine Grenze erreicht. Daher MÜSSEN sich die Chiphersteller auf mehr Kerne konzentrieren.
 
Warum haben die alle so einen begrenzten Horizont?
Es geht nicht immer nur ums Gaming.
 
@Frader: Richtig. Die aktuelle Technologie mit den vielen Kernen kommt ja beisplielsweise auch Server-CPUs zugute. Der Typ hat vermutlich noch nie einen Server gesehen. Eingesperrt mit Tunnelblick und Scheuklappen in seiner Gamerwelt.
 
Wer z.B. immer wieder größere Dateien packt / entpackt, Videos / Audio encodiert, große Bilddateien bearbeitet, intensive Verschlüsselungsmethoden oder gerne viele Programme gleichzeitig nutzt, wird durchaus einen Nutzen von so vielen Kernen haben, vorausgesetzt, dass diese auch eingesetzt werden. Dass nur 1-2% der User ein Interesse an so einem 32-Kerner haben, glaube ich nicht bzw. läge das ausschließlich am hohen Preis. Läge der in einer erschwinglichen und für gute CPU bislang üblichen Höhe, z.B. um die 500€, würde der sich wie geschnitten Brot verkaufen und die Begeisterung wäre groß. Zumal sich ja die Web-Last durch Javascript, 4K im Browser, ausuferndes Tracking immer weiter erhöht.

Der B8auer bezieht sich auf Gamer.... Viele Leute zocken heute auch mal mehr oder weniger aber richtige Gamer, die auf gametechnischn top-performante CPUs achten, sind das deshalb noch lange nicht.
 
Nur weil sich Softwareentwickler nicht in der Lage sehen einen brauchbaren Code für Multi-Core-Nutzung raus zu bringen heißt es nicht, dass die Kerne schwachsinn sind. Selbiges hat man übrigens auch damals zu den ersten Dualcore-Systemen gesagt - auch zu Speichergrößen... könnte die Liste noch weiter führen aber das sprengt den Rahmen. Ich denke mal anhand dieser beiden Beispiele kann man durchaus erkennen was ich damit sagen will ;)
 
@Stefan_der_held: Was hat denn die parallelisierbarkeit eines Algorithmus mit dem Speicherbedarf zu tun?? Dass Speicherbedarf ins Unendliche steigen kann bzw. niemals enden wird ist auch heute schon ersichtlich und war es auch schon vor 50 Jahren. Die parallelisierbarkeit eines Algorithmus ist aber ein je nach Algorithmus unlösbares Problem. Das hat nichts mit der Fähigkeit der Entwickler zu tun, sondern damit, dass die mathematik und allgemeine Logik es überhaupt nicht zulässt.
Ich versteh beim besten Willen nicht, warum jeder hier den selben Bullshit von wegen "die Entwickler müssen nur dafür optimieren" labert. Benutzt bitte mal für zwei Sekunden euren Verstand und denkt mal darüber nach, ob sich jeder Algorthmus unendlich prallelisieren lässt. Aber was rede ich. 90% hier wissen wohl nichtmal, was das ist, geschweige denn haben je einen Algorithmus bewusst entwickelt.
 
@Laggy: das sind zwei unterschiedliche Themen mit der gleichen Kernaussage "ach was ist das unsinnig..." so ein gejaule hast anfänglich immer... und hinterher fragen sich genau diese wie sie vorher mit weniger zurecht kamen.
 
@Stefan_der_held: Es ist nun mal signifikant komplexer. Threading ist nicht symmetrisch wie SMP, da startet man einen Thread und der macht dann was und das war's, den Rest muß man selber rauskriegen.

Ergo, es geht nicht nur darum, erstmal zu schauen, ob ich an meiner Aufgabe etwas asynchron ausführen kann, sondern ich muß auch noch die Ergebnisse wieder einsammeln.

Mehr Kerne heißt dann nur, daß es sich für längerfristigere Parallelisierbarkeit besser lohnt. Windowmanager sind schon seit Jahrzehnten auf Threads ausgelegt - sonst könnten die nicht gleichzeitig Fenster anzeigen UND einen damit interagieren lassen --- aber der Sinn von Multicore kann ja nicht sein, daß das OS sich schon drum kümmern wird. Als Verkaufsargument taugt DAS nämlich überhaupt nichts.

(Gut, "Multicore für Gamerz, einself!" taugt noch weniger, aber egal.)

Manche Dinge gehen parallel - manchen Dingen ist egal, was um sie rum passiert, sie müssen nur ihr eigenes Fleckchen bearbeiten können, was den links nicht stört und den rechts auch nicht. Manchmal geht das. Manchmal geht es nicht und man kann nur einen Schritt nach dem anderen tun und da kann es fünferdritteltausend Kerne geben, interessiert keinen, weil trotzdem nur eins nach dem anderen getan werden kann.

Und da reden wir noch nicht mal von der Option, bestehende Software anzupassen. Die muß dann erwartungsgemäß erstmal neu entworfen werden; ein simples "och Hotfix" geht da in 11 von fünf Fällen nicht.
 
So so, er bewertet Prozessoren wie den Threadripper nach den Maßstäben eines PC-Spielers, und möchte damit ernst genommen werden? Ja ja, das macht Sinn, TR ist ja schließlich DIE Gamer-CPU schlechthin, nich wahr?

Wieso sollte seine Meinung Gewicht haben, nur weil er Hardware außerhalb ihrer Spezifikation betreibt? Ich würde eher Leuten zuhören, die wissen wie man ein _ausgewogenes_ System für bestimmte Szenarien zusammenstellt.

Danke WF, für den Lacher zum Freitagnachmittag. :-p
 
"Hartung: "Wir brauchen nicht mehr Kerne. Wenn du einen (Intel Core i9) 7980XE mit 18 Kernen hast, wirst du beim Gaming immer gegenüber einem 8700K (Intel Core i7; sechs Kerne) verlieren.""
Es ist davon abhängig was man nebenher macht. dabei ist es egal ob AMD oder Intel. Zudem ist es bei den neuen Prozessormodellen so, dass die neuen Spiele diese Prozesoren so gut wie garnicht diese Kerne auslasten. Spiele mit weitläufigen Maps, die vorgespeichert werden, sind wenn dann eher CPU-Auslastend (EU4, Stellaris, usw.). Sind in solchen spielen die Kriegsnebel weg, kann es durchaus laggen, wenn viel auf der Map abgeht. Dann sind auch die Grafikkarten härter gefordert (z.B. GTA5, The Witcher 3, usw). Wenn man 4-6 Kerne für n Spiel braucht, dann kann man die anderen 12 für was anderes wie Videoencode oder zur Wiedergabe eines Videos an den Fernseher Zeitgleich machen. Was dieser Herr da redet ist der grösste Quatsch. Abgesehn davon sind GamerPCs anders konzepiert als Server-/Office/Multimedia-PCs. Das sollte dem Herren klar sein.

Greetz Nivi
 
Könnt ihr das "Experte" aus der Überschrift für "ein weiterer Modder raunzt" ersetzen, dann passt der Artikel!
 
Das Problem ist das im Software bereich nicht jedes Problem, beliebig Parallelisieren lässt.
Kommentar abgeben Netiquette beachten!
Einloggen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles