AMD: Core-Count-Wars mit Intel bald vorbei

Prozessoren Donald Newell, Technikchef des Chipherstellers AMD, geht davon aus, dass die Zahl der Rechenkerne in einer CPU in absehbarer Zeit nicht mehr der wichtigste Punkt im Konkurrenzkampf mit Intel sein wird. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"[...] dass wie am Ende dieser Dekade 128 Cores auf einem Server-Die sehen werden", sagte Newell. [...] Allerdings ließe sich der Energiebedarf eines solchen Chips kaum in dem Maße begrenzen, wie es die Kunden wünschen [...]" oh, würde man die entwicklung der Graphen (bzw. deren herstellung) vorantreiben, dann ginge das sehr wohl! Oder: ""Wir dachten, dass wir irgendwann 10-Gigahertz-Chips bauen", so der Manager." auch das ginge mit Graphen problemlos! sogar noch um ein vielfaches mehr, als nur 10 GHz! ABER NEIN... auch das wird es nicht geben. schließlich sind wirtschaftliche kurzsichtige interessen viel wichtiger... traurig unsere welt zu manchen teilen! ein anderes beispiel ist ja die immer noch vorherrschende x86 CPU in unseren PCs. Da gibt es und könnte auch einige bessere geben, ABER NEIN kompatibilität schreit die welt. Lediglich hinzugefrickelte erweiterungen gab es...
 
@larusso: recht hast du aber es müssen nicht nur die Prozessorenhersteller mitziehen sondern auch die Software hersteller. Ich persönlich finde das Intel Terascale Projekt gut, alles frei programmierbar. +
 
@larusso: Die Entwicklung geht nun schneller als die Leute das brauchen. irgendwo ab 2,4ghz (singlecore) und 2gb ram und seit der Einführung von full-HD ist schluss. Alles darüber hinaus bewegt sich deutlich über dem was sicher 90% Der Anwender nicht braucht. Ab hier kann man nur noch mit Energiesparenden Produkten bei den Kunden ankommen und auch da ist irgendwann eine Grenze erreicht.
 
@gibbons: Singlecore? 2GB RAM?!? Um Himmelswillen, damit kann man ja kaum Arbeiten, geschweige denn zocken. Nene, Quadcore Prozessoren sind schon was feines, auch für leute die nicht so viel am PC Arbeiten. Zumindest mit einem Kern kann man heute wirklich nur noch schlecht auskommen.
 
@cronoxiii: Solange man nicht spielt reicht auch 1 Kern. Selbst für Full HD Videos reicht es immernoch, solange man dedizierte Grafik hat. Das ist ein Irrtum, den viele begehen. Klar ist eine QuadCore CPU was feines, aber man kann immernoch mit Single oder DualCore CPUs super auskommen. Man muss dann nur auf paar Spielereien verzichten.
 
@Arhey: Und dafür gibts ein Minus? Weil mir die Leistung der für Privatkunden erhältlichen Einkern-Prozessoren zu wenig ist? Und Spiele sind eines DER Hauptanwendungsgebiete von Computern. Klar dass der Wohnzimmerrechner auch mit nem Atom nebst ION Klar kommt, aber versucht mal moderne Spiele mit Multicore-Unterstützung zu spielen - never. Ist mir klar dass nicht jeder Zocker ist, aber selbst wenn man am PC arbeitet (damit meine ich jetzt nicht mit Notepad) dann ist ein starker Dual oder Quadcore einfach viel viel angenehmer. Ich jedenfalls möchte nicht mehr mit nem Singlecore arbeiten und ich glaube viele sehen das genauso.
 
@cronoxiii: Minus habe ich nicht gegeben. Es ist aber Tatsache, dass Spielen auf dem PC eher ein Nischenmarkt ist. Jetzt zu Behaupten, dass es eine der Hauptaufgaben ist zeigt super, dass du nicht über den Tellerrand schaust. Nur mal so Computer werden heutzutage hauptsächlich zum Surfen/Arbeiten gekauft und nicht zum Zocken. Zocken ist eher eine Sache die gelegentlich genutzt wird, aber auch nur von bestimmten Zielgruppen. Vor wenigen Jahren hatte ich auch noch sehr aktiv gezockt, jetzt reizt es mich nicht mehr so und mir reicht es meist ein Spiel anzuspielen. Liegt villeicht auch daran, dass die Qualität der Spiele nachgelassen hat, aber das ist zuviel OT. Du solltest einfach vorsichtiger mit solchen Aussagen umgehen und nicht behaupten, dass jeder einen 6 Kerner braucht um zu überleben, denn das ist absolut nicht so! PS: Bill Gates sagte niemals, dass es nie jemand brauchen wird. Der sagte nur, dass 640kb für jeden ausreichen sollten. Das ist ein riesen Unterschied zu der Zeit hat die Aussage auch gestimmt. (wenn er das überhaupt gesagt hatte)
 
@Arhey: Ja du hast Recht, ich denke auch das der PC-Spielemarkt kleiner wird... mal abgesehen von Browsergames und MMOs... Wer will in Zeiten von DX10/11 oder xbox360/ps3 bitte noch DX9 LowEndGrafikmüll auf dem PC spielen, weil die Firmen meinen, es würde reichen billigen Grafikquark zu produzieren da sowieso noch fast die ganze Welt auf das Steinzeit OS XP setzt?
 
@Arhey: Ich hab NIEMALS gesagt dass man ohne 6 Kerner nicht leben kann oO Und ich weiß sehr wohl, dass prozentual gesehen natürlich eher weniger PCs zum zocken genutzt werden. Aber Gamer sind nunmal diejenigen, die immer mehr Leistung fordern und zum Teil auch wirklich brauchen. Nieschenanwendung evtl. ja, im Markt sieht es doch aber bestimmt anders aus. Schließlich sind wir Spieler die, die am meisten Geld in die Kiste stecken (ich rede von Privatanwendern, natürlich nicht jeder, aber sehr sehr viele) - Gerade in Deutschland sind wir da ganz vorne dabei. Und hättest du beim Arbeiten lieber einen Singlecore, der eher mal ins stottern kommt wenn man ein 12MP Bild ausm Urlaub bearbeitet oder einen in der Regeln "zu schnellen" Dualcore der halt ohne meckern seine Arbeit verrichtet? Die Kosten sind da heute nimmer ausschlaggebend, warum also nicht? Und sparsam sind beide im Verbrauch, als Otto-Normalverbraucher läuft die Kiste ja eh nicht den ganzen Tag.
 
@Ðeru: Erm, gerade wegen den Multiplatformtiteln dürfen wir PC-Gamer öfter auf DX10/11 verzichten! Und DX9 ist nicht low-end-Grafikmüll sondern durchaus noch für ansehnliche Spiele zu gebrauchen. Und was hat die Qualität der Grafik mit dem OS zu tun? Es gibt massig gut aussehende DX9 Titel.
 
@cronoxiii: Sehr geehrter Herr Cronoxiii!
Ich möchte dir ja jetzt nicht zu nahe treten, aber du hast vollkommen unrecht. Ein einfacher Bürger, der den Rechner für Word, Surfen im Internet oder einfaches Filme schauen braucht, benötigt keine 2 oder mehr kernigen Prozessoren. Da reicht ein einfacher Prozessor mit einem Kern. Ich habe mein Rechner schon 7 Jahre, hab einen Athlon 64 3200+ drin! Konnte bis letztes Jahr noch jedes Spiel mit diesem Prozessor spielen. Zwar nicht auf den höchsten Details, aber da kommt es dann drauf an, wo man den Wert drauf legt. Bei den Büroanwendungen jäglicher Art, die es Zurzeit auf dem Markt gibt, läuft es flüssig und ohne Murren. Somit ist ein Mehrkerniger Prozessor hauptsächlich für den spielebereich gedacht oder für Server, die aber ein normaler Bürger wohl kaum in großen Maß betreibt. Wenn du halt den Wert auf Spiele legst, dann kaufe dir einen merkernigen Prozessor, aber versuche hier niemanden einzureden, er braucht unbedingt so einen, weil die Büroprogramme sonst nicht flüssig laufen, das ist nämlich nicht so.
Gruß
Forster
 
@Forster007: "der eher mal ins stottern kommt wenn man ein 12MP Bild ausm Urlaub bearbeitet oder einen in der Regeln "zu schnellen" Dualcore der halt ohne meckern seine Arbeit verrichtet" so schwer ist das doch nicht zu verstehen, was er da geschrieben hat, oder?!? auf die beispiele, auf die du dich jetzt bezogen hast, darauf hat er sich doch gar nicht bezogen. und mit deinen beispielen hast du natürlich recht. aber cronoxiii hat mit seinem ebenso recht! und er gibt lediglich ein beispiel, das zeigt, dass man mit einem einfachen singlecore eben unter umständen auf eine getane arbeit doch schon mal länger warten kann, als mit einem "zu schellem" dualcore! das ist doch jetzt wirklich nicht so schwer nachzuvollziehen!!... und man muss das bild noch nichtmal bearbeiten. schon allein das laden beim einfachen angucken kann einen gewissen moment lang dauern! und das kann auch nervig sein! dafür brauch man auch nicht unbedingt 12 MP, da reichen auch schon 5 MP. also, wozu dieses sinnlose geplapper?!
 
@Forster007: Tu ich doch garned oO hört mal auf mir Sachen in den Mund zu legen, die ich nicht gesagt habe! Ich rede von vielen, nicht von allen! Klar, jemand der nur Word braucht ist natürlich mit nem Einkerner zufrieden (hab ja auch genug Beispiele geliefert, hättest sie nur lesen müssen). Aber wenn es dann an solche Dinge geht wie die 12MP RAW Dateien ausm Urlaub der Digitalkamera zu verarbeiten dann viel Spaß beim warten. "Konnte bis letztes Jahr noch jedes Spiel mit diesem Prozessor spielen." Jedes das DU spielst. Das kann jetzt von Mahjongg bis WoW alles sein. Wie ich schon sagte, jeder soll das kaufen was er braucht. Trotzdem ist es schön keine Wartezeiten am Rechner zu haben auch wenn mal was größeres ansteht. Ich bin jedenfalls (ICH persönlich, ich wills niemandem aufzwängen) sehr froh mir keine Gedanken machen zu müssen in Richtung "Läuft das bei mir? Packt das mein Rechner noch?"
 
@cronoxiii und larusso:
Es kommt natürlich noch drauf an, wie die anderen Komponenten sind. Aber ich hab es nun mit einem 10MP Bild versucht zu bearbeiten und habe deswegen auch mir die Wartezeiten genauer betrachtet, die ich komischer Weise, als normaler Bürger, nicht bemerkte. Sollte man nun Photoshop benutzen, was eher ein Betriebsprogramm ist, als für den Haushalt, dann gebe ich euch recht.
Aber noch ein Beispiel. Ihr kennt doch bestimmt AutoCAD. Dieses Programm läuft flüssiger auf einem ein Kerner. Ich habe in einem Betrieb gearbeitet, wo ich dieses Programm benutzt habe, Der Laptop hate einen Dualcore, 2gb DDR2 Arbeitsspeicher und war auch noch nicht so alt, wie mein Laptop . Aufdiesem läuft nur ein ein Kerner Prozessor mit 512 MB DDR Arbeitsspeicher. Was ja nach den Werten schlechter sein sollte. Das Betriebssystem war auf beiden gleich. Nun hat aber AutoCAD auf dem vermeindlich besseren Laptop ewigkeiten gebraucht um zu laden und selbst im Programm ordentlich ohne Ruckeln zu funktionieren. Beim älteren Notebook sah das viel besser aus, es hat zwar auch eine kleine Weile gedauert, bis es gestartet war, funktionierte dann aber tadelos und ohne ruckeln.
Deswegen braucht man sich keinen Rechner neu zu kaufen weil man Angst hat, dass ein Einkerner die normalen Hausprogramme oder Bildbearbeitungsprogramme nicht mehr funktionieren., und ich meine nur für Büroarbeiten. Wer natürlich spielen will, der sollte sich schon auf einen mehrkernigen Prozessor festlegen.
Gruß Forster
 
@Forster007: Was mir hier fehlt ist die Taktung und die verwendete Version, sowie die Information ob die Darstellungsoptionen bei beiden gleich waren etc.: War es eine "uralt" Version, die nicht für Mehrkernbetrieb gerüstet ist (denke mal schon dass Autodeskt da mittlerweile doch mitgezogen hat) läuft die auf einem schneller getakteten Einkerner natürlich besser. Hab ja auch nicht gesagt, dass ihr euch alle einen neuen rechner kaufen sollt oO Ich persönlich freue mich über die immer schneller werdenden Computer :) Die Hauptsache für mich ist: Abwärtskompatibel. Solange ich meine Daten/Programme weiter nutzen kann ist mir die Art des Prozessors relativ egal, Ob er nun in Zukunft höher Taktet oder mehr Kerne hat ist mir gleich, solange die Leistung stimmt.
 
@larusso: Danke ^^
 
@cronoxiii:
Es war AutoCAD 2009 Mechanical Versionsnummer weiß ich nicht. Bei dem älteren Notebook läuft ein AMD Turion mit 1,8GHZ Taktung drin. Bei dem Dualcore weiß ich nur, das es ein Dualcore war. da die meisten dualcore Prozessoren von intel bei 1,8GHZ anfangen, vermute ich, das so einer drin war.
Ich wollte ja eigentlich auch nur klarstellen, dass man sich keinen neuen rechner wegen eines einkerner kaufen muss, wenn man den schwerpunkt auf büroarbeiten gelegt hat.
Bei spielen gebe ich dir, wie auch schon in meinen vorrigen kommentaren, recht.
Gruß Forster
 
@gibbons: und deswegen darf man jetzt nicht auf neue fortschrittlichere technologie setzen, weil heimanwender schon genügend leistung haben?!? was ist mit den womöglich neu entstehenden Erkenntnissen aus diesem bereich? diese könnten doch in ganz anderen bereichen, von denen du sicher auch schon gehört hast, hilfreich sein. nicht, das dort nicht auch fortschrittlichere technologien eingesetzt werden sollten. aber aus mehr, holt man evtl. auch mehr!
und davon mal abgesehen. was heißt den genügend leistung für heimanwender? und wer definiert das? auch wenn man kein zocker ist, wäre es doch schon interessant und reizvoll, einen PC zu haben, der vielleicht notwendige und häufige aufgaben quasi instantan, also augenblicklich, ausübt und zum ende kommt? das sollte der reiz bei dem ganzen sein, die die entwicklung haben sollte. nicht z.b. das sortieren einer gewissen datenmenge in 1 sekunden, sondern vielleicht auch einfach nur quasi sofort. ich weiß ist ein schlechtes beispiel, aber da gibts sicher noch mehr. was ich damit sagen will ist, dass wir neuen herausforderungen gestellt werden, die zwangsläufig noch mehr leistung beanspruchen werden. wenn man aber erst dann anfängt dahingehend zu forschen und entwickeln, kann das große negative folgen haben. warum sollte man generell nicht schon im voraus entwickeln und forschen?! "macht doch nichts", wenn wir PCs haben, die mehr leistung bieten als benötigt wird. in zukunft, wenn natürlich die entwicklung nicht schläft, wird es auch nicht dazu kommen, dass wir eine zu lang arbeitende sanduhr sehen, weil die herausforderungen gestiegen sind und die entwicklung geschlafen hat. damit wären wir im voraus immer schon ein stück gewappnet. was ist daran bitte so verwerflich?! lieber habe ich durchgehend "zu schnelle" PCs, die auch immer weiter entwickelt werden, als einmal einen PC in ausreichender Leistung, der schnell zum engpass wird, wenn mal was neues kommt. denn dann muss erst wieder was neues her. PS, würde man so denken, und zwar alle, dann gäbe es vielleicht z.b. beim release von Crysis keinen "highend" PC, der mit dem spiel überfordert gewesen wäre. ABER NEIN, so hat wieder alles nur hinterhergehumpelt. Aber an den ganzen minus-punkten sehe ich, dass hier einige gar keine leistung brauchen und auch nicht wollen, dass diese vorankommt. nur verständlich...
EDIT: und was ist mit den restlichen 10%. dürfen die nicht hoffen und von neuen entwicklungen profitieren? da kommen wir wieder zu den wirtschaftlichen interessen... und auch energie sparen kann man mit graphen. warum , wieso, weshalb einfach mal darüber informieren. mein beitrag ist eh schon zu lang.
 
@larusso: So ist es! Ums mal mit Bill Gates Worten zu sagen: "Niemand braucht mehr als 640kB RAM in seinem PC." Zum Glück hat er nicht recht behalten :D
 
@cronoxiii: http://www.usnews.com/usnews/biztech/gatesivu.htm _____ Q. Did you ever say, as has been widely circulated on the Internet, "640K [of RAM] ought to be enough for anybody?" No! That makes me so mad I can't believe it! Do you realize the pain the industry went through while the IBM PC was limited to 640K? The machine was going to be 512K at one point, and we kept pushing it up. I never said that statement–I said the opposite of that.
 
@klein-m: Hui, eines seiner berühmtesten Zitate ist gar nicht wahr ... das erschüttert mich jetzt ^^ Naja, wieder was gelernt.
 
@larusso: graphen wird auch mit noch so viel mühen in den nächsten 10 jahren nicht als grundstofff für massenproduzierte cpus taugen ...
 
@maxfragg: und aus der linken hosentasche heraus, posaune ich jetzt einfach mal hier so rein, ohne irgendetwas genauer zu erläutern, nur damit ich mal was zu sagen habe, dass Graphen eben >doch< als grundstoff für massenproduzierte CPUs taugen wird, sofern man eben dahingehend arbeitet. Vorher kann man viel schwallen und erzählen, wie es letztendlich sein wird (bzw. könnte, was man mit leuten wie dir sicher so beschreiben müsste, weil du dem potenziellen gewinn der neuen entdeckung negativ gestimmt bist), wird man nur sehen, wenn mans macht. also welcher experte hat dir denn bitte erzählt, dass wir uns das alles abschminken können und sollten?!? hier auch mal was für dich: http://goo.gl/o38R
 
@larusso: Gabs nicht anfang 2010 nen Transistor von IBM mit ~100GHz? Sind doch aufn guten weg imo.
 
@reZss: ja IBM. IBM spielt aber nicht im Homebereich mit. Und IBM setzt auch ganz sicher nicht gerade besonders auf x86 und, und und... hier gehts um AMD unt Intel. IBM spreche ich damit auch meinen höchsten respekt aus, aber AMD und Intel sind mal wieder so zwei... naja
PS: ich hoffe mal du weißt, womit IBM dies realisiert hat.
http://goo.gl/o38R
 
@larusso: In 10 Jahren will man Silizium Quanten CPUs (http://science.orf.at/stories/1651842/ ) bauen, was willst dann jetzt auf Graphen umsteigen und alles bisher erforschte und Erfahrungswerte über den Haufen werfen?
 
@Antimon: und jetzt darf man nicht auf einer neuen basis aufsetzen, die einiges mehr verspricht, als es mit silizium je möglich sein wird?!? darf so etwas denn etwa nicht auch mit graphen gemacht werden??? oder geht sowas mit graphen nicht?!? das glaubst du doch hoffentlich selber nicht! was sind das denn hier für tolle argumentationen...
 
@larusso: Die Rechnung ist einfach: Silizium ist über Jahre hinweg hervoragend erforscht und halbwegs prozessierbar. Halbleiter aus Kohlenstoff (In welcher Modifikation auch immer) sind zu schwer herzustellen und das Investitionsvolumen für Massenproduktion ist zu hoch. Hinzu kommt, dass man nicht wirklich abschätzen kann, ob eine Hochintegration wie mit SI möglich ist. Weiterhin müsste man quasi jedes Design grundlegend ändern, weil andere physikalische Eigenschaften. Es ist einfach rumzumeckern, wenn man bloß "schneller und noch schneller" will...
 
@plankalkuel: nein, es ist lediglich einfach alles auf die wirtschaftsecke abzuschieben. klar kostet sowas geld und mühen. aber wozu macht man das geld? und natürlich hat man mit silizium mehr erfahrung. aber nochmal! graphen verspricht einiges mehr, als silizium! soll man jetzt jedes neue potenzial gleich aufs abstellgleis stellen, nur weil man ja schon soo viel erfahrung mit bisheriger technologie gemacht hat, obwohl die neue technologie noch viel mehr bieten kann?! versteh ehrlich gesagt diese argumentation nicht. sollen wir jetzt bis ans ende auf nichts neues, besseres umsteigen?! silizium hat auf lange sicht eh nicht mehr viel zu bieten, was mit graphen natürlich ganz anders ist. was ist also bitte so verkehrt daran, auf graphen zu setzen?! und ich weiß selber, dass graphen schwieriger herzustellen sind. aber genau ziel ich doch ab. es müssen methoden gefunden werden, dies eben einfacher in größerem umfang und wirtschaftlicher herzustellen, wenn es denn schon nur um wirtschaftlichkeit geht... klar ist es jetzt noch schwierig. ist eben neu und man hat nicht so viel erfahrung. Aber neue erfahrung wird man doch wohl noch sammeln dürfen, oder darf man im leben nur einmal eine erfahrung machen und alles neue kategorisch ablehnen?! guckt dir doch nur mal die techniken von z.b. intel an. was die alles an hirnschmalz in silizium investiert haben. wer hätte von solchen dingen damals schon geträumt? diese abweisende haltung gegenüber neuen entwicklungen kann ja schon nur von nicht-technikern und -wissenschaftlern kommen. schau dir nur mal den link an, den ich hier bei einem anderen beitrag gegeben habe. 100 GHz transistor! was schaffen wir denn heute mit silizium?! mehr als das, was wir jetzt haben, geht nicht, weil silizium in der hinsicht schon ausgereizt ist und einfach bei höheren taktraten viel zu warm wird. und dieser 100 GHz transistor ist erst der anfang! was meinst du wohl, wohin die reise gehen kann, wenn wir uns weiter darauf konzentrieren. was wollen wir dann bitte noch mit silizium?! hat dann eh ausgedient! es gäbe einfach mehr und neue möglichkeiten! ich frag mich ehrlich gesagt, ob hier die ganzen minusklicker und die, die der ganzen sache negativ gestellt sind, überhaupt wissen, wovon ich rede, also was diese graphen (von mir aus auch die kohlenstoffröhrchen) überhaupt sind?!? kann man nur den kopfschütteln über diese experten, die sich mal wieder in auf winfuture rumtaumeln!!! das sind dann die selben, die hier fragen, ob bei nem dual betrieb von IPv4 und IPv6 "mein router das auch kann, oder muss ich mir einen neuen kaufen?"... sehr technikinteressierte leute hier... und wenn einer mal etwas schwallt, was "ich" nicht versteh, dann hagelts minuse... lächerlich hier!
 
@larusso: Du hast leider völlig Recht! Leider ist das heute ein allgemeines Problem und nicht nur auf Computertechnik beschränkt. Nirgendwo wird mehr wirklich geforscht und wirklich Neues entwickelt. Nicht weil man keine Ideen oder Ansätze hat, sondern weil das Entwickeln einer neuen Technik ja so teuer und unwirtschaftlich ist. Wir können heute echt nur von Glück reden dass man nicht schon immer so gewirtschaftet hat, sonst würden wir wohl heute noch Postkutsche fahren!
 
@OPKosh: es gibt hier ja doch noch leute, die sich nicht auf gefährlichem halbwissen (oder auch gar keinem wissen) eine Meinung gebildet haben und wissen wovon sie sprechen. :) Dass sich die ganze Problematik nicht nur auf die Computertechnik bezieht, da hast du natürlich leider auch recht.
@cronoxiii: kein Problem ;) Kann Forster's beispiele nicht nachvollziehen. aber pauschaliesieren ist natürlich immer gut... ohne genau zu wissen was drin ist, kann man viel erzählen. erfahrungen habe ich andere, mehrere auf unterschiedlicher basis gemacht und kann seine behauptung nicht bestätigen. aber ein einfaches laden eines hochaufgelösten bildes mit z.b. der windows bildanzeige, hatte mir auf verschienden komponenten gezeigt, dass selbst die darstellung des bildes einen moment lang dauern kann! und man hat doch sicherlich nichts dagegen, wenn schon allein diese darstellung >sofort< und nicht >gleich< erledigt wäre. aber einige scheinen das nicht zu verstehen. ;)
 
"Core-Count-Wars"? Ist der bekloppte Ausdruck eine WF-Kreation oder nur geklaut?
 
@emantsol: naja AMD nennt das so. WF hat da nichts geklaut.
 
Ich finde es ja generell gut das man die Möglichkeit sein eigenes PC-System nach Lust und Laune und nach dem eigenen Budget zusammenzustellen. Leider wird es durch das immense Angebot an verschiedenen Hardwarekomponenten für die Software- und Spielentwickler immer schwerer Produkte für den PC-Bereich auf den Markt zu bringen die aus dem Stand heraus auf allen Systemen laufen. Was nützt mir immer mehr Leistung, wenn ich sie letztendlich nicht nutzen kann da das Produkt xy auf meinem Rechner nicht läuft. Gerade im Gaming-Bereich sehe ich da, das der PC irgendwann von den Konsolen komplett abgelöst wird. Da es für die Entwickler wesentlich wirtschaftlicher ist für einheitliche Systeme zu entwickeln anstatt auf jedmögliche Konfiguration Rücksicht zu nehmen.
 
@leviathan11: Ja, es gibt eine Menge Hardware und nein, es es gibt sie auch wieder nicht. Wenn man das ganze mal nüchtern betrachtet, gibt es im Endeffekt 2 CPU- und 2 GPU-Hersteller. Diese Chips sind gewissen Spezifikationen unterworfen und stellen dem Nutzer und Programmierer eine gleichbleibende Grundbasis zur Verfügung. Dazu kommt noch, dass man auch im PC-Bereich letztendlich auf eine API programmiert. Diese nennt sich DirectX und ist auf allen Systemen gleich. Was die Leistung angeht, kann man sogar zu Konsolen Vergleiche ziehen. Ein Spiel sieht auf einer PS2 hardwarebedingt eben bescheidener aus als auf einer PS3. Das ist beim PC genauso. Ab einer gewissen Leistungsgrenze hat man die volle Pracht und darunter eben Grafik wie vor 5 Jahren. Wer zocken will, sollte sich auch das entsprechende System kaufen und von einem Trabant keine Beschleunigungswunder erwarten.
 
@tommy1977: DirectX gibt es aber nur für Windows, da die Spiele neuerdings auch gerne für Mac portiert werden, nennt sich diese universelle Schnittstelle OpenGL, wie sie auch in Spielekonsolen außer der XBox vorhanden sind.
 
hm wie wärs mit nem 128-Core 10-Gigahertz-Chip? :D
 
@m @ r C: Gern, wenn er nur ~30 Watt verbraucht ;)
 
@cronoxiii: und hyperthreading xD
 
@Sebush McChill: Ganz wichtig, ja ^^ Zumindest fürs Marketing. 256 hört sich einfach besser an :(
 
@cronoxiii: Pro Core, oder komplett? ;)
 
@Ðeru: Das ist den debilen Kunden glaube ich ziemlich egal :D Hauptsache sie kaufen!
 
@m @ r C: Würde bei Microsoft doch wieder 30 Jahre dauern bis die unterstützt werden.
 
@Sheldon Cooper: Windows Server 2008 R2 unterstützt 256 Prozessoren.
 
@Sheldon Cooper: Tut Windows schon mit dem Windows Server 2008. Selfowned?! :D
 
Als ob Iraq- and Afghanistanwar nicht schon genug wär... jetz braucht man auch noch einen Core-Count-War >.<
 
währe auch viel interessanter wenn es irgendeine Software gäbe die mit 6,12,24+96 Kerne etwas anfangen könnte....habe seit 2 Jahren nur 4 aber nur wenige Programme gefunden die die auch ausnutzen....
 
@LaBeliby: Leute die mit 3D Max arbeiten würden sich sicher drüber freuen. Ich denke auch mal: Sollte es wirklich zu solchen Kernzahlen kommen ziehen auch die Entwickler mit.
 
@cronoxiii: Ooooohhh ja, würde ich!!! ;-) Max for ever! ;-) Das Problem ist nur leider dass sich nicht alles so leicht parallelisieren lest wie das Rendern einer 3D-Scene! Renderer haben da auch einen gewaltigen Entwicklungsvorsprung, schließlich skalieren die schon ewig über mehrere Rechner, weil anders war die nötige Rechenleistung früher garnicht aufzubringen. Die Anpassungen auf mehrere CPU-Kerne waren da ein Leichtes!
 
@OPKosh: Joa, nächster Schritt wäre mal das ganze per Cuda zu rendern. Hätte für mich als Privatanwender durchaus Vorteile.
 
@cronoxiii: Ich weiß nicht ob CUDA tatsächlich so ein Brüller ist wie oft behauptet wird. Es ist doch, zumindest für mich, recht erstaunlich dass keiner der Renderer (MentalRay, V-Ray, ...) auch nur auf die Idee gekommen ist CUDA zu implementieren, bzw statt auf der CPU auf der Grafikkarte zu rendern!? Immerhin haben die von Skalierbarkeit am meisten. Selbst bei den neueren Echtzeitrenderingsystemen, wie in Modo und jetzt im kommenden Lightwave 10, läuft das ohne CUDA. Lightwave 10 rühmt sich damit dass der VPR selbst auf nem zwei Jahre alten Laptop ohne größere Probleme und Einbußen funktioniert.
Wenn CUDA tatsächlich so toll wäre wie immer behauptet hätte ich zumindest erwartet das die Renderer die Ersten wären die sich darauf stürzen.
 
@OPKosh: Naja, ich sehs halt bei mir hauptsächlich an zwei Dingen: Videokonvertieren mit Badaboom und Seti@Home. In beiden Fällen ist die Leistung des Prozessors im Vergleich zur Grafikkarte ein Witz. Mit meinem leicht übertakteten Q6600 dauert ein Film ca. 1,5-2,5 Stunden, mit GPU Unterstützung 15-30 Minuten - Für mich ein ganz gewaltiger Unterschied und vor allem auch Zeitersparnis (Abgesehen davon, dass ich den Computer während dem Konvertieren normal nutzen kann). Von daher könnte ich mir durchaus vorstellen, dass auch Raytracing-Renderer mit GPU Unterstützung um einiges schneller wären als ein (einzelner) Hauptprozessor. Ich muss allerdings sagen: Ich hab keine Ahnung wie das in Firmen aussieht, was die für Hardware haben oder womöglich die Rechenkraft von mehreren Rechnern über Netzwerk oä. nutzen. Vielleicht warten sie aber auch nur noch auf einen einheitlichen Standard, den es in 10 Jahren auch noch gibt.
 
@cronoxiii: 1,5-2,5h mit nem Q6600? Ich hab nen Q9950 und brauchte nie länger als 45min. Aber ok. Zu den Renderern: Die sind im professionellen Umfeld allerdings auf Server (Renderfarmen) und Netzwerkrendering ausgelegt, das ist wohl wahr. Aber Nvidia bietet mit Tesla da ja auch Möglichkeiten an und trotzdem wird es von denen nicht genutzt. Und ob man beim Netzwerkrendering nun die CPU oder die Graka der anderen Rechner nutzt ist auch egal. Das Standard-Problem kann natürlich eine Ursache sein, allerdings könnten sie dieses Problem durch Nutzung und Unterstützung auch beheben. Also für mich ist das Ganze nicht so recht nachvollziehbar.
 
@OPKosh: Vielleicht will man sich nicht auf eine Seite der Grafikkartenhersteller schlagen? Gibt ja auch noch ATI-Karten, aber solange es eben keinen breit unterstützten Standard gibt und in entsprechenden Firmen eh alles für das Rendern per Prozessoren im Netzwerk ausgelegt ist, solange gibt es wohl keine entsprechende Unterstützung.
 
@cronoxiii: Max ist eher für Hobby Designer gedacht.
 
@Sheldon Cooper: Auch die würden sich doch freuen, oder nicht? Und Hobby ist in der Regel auch privat. Und nicht jeder wird nen 1000€+ i7 im Rechner haben und vielleicht noch nen zweiten im Netzwerk der mitrendert.
 
@Sheldon Cooper: Du kennst dich ja richtig aus, was?! Max für Hobby-Designer? Ein 4000,-€ Programm für Hobby-Designer? Was ist denn dann bei Dir was für Profi-Designer? C4D? Max gehört zu den drei Großen der 3D-Industrie - Maya, Max, Lightwave - und streitet sich dabei mit Maya um Platz 1. Nur mal so als Info. Bevor man solche Kommentare zu Programmen abgibt sollte man mehr als nur deren Namen kennen!
 
@Sheldon Cooper: ja na kla. nur was für hobbits: http://www.groundzerofx.com/maxinfilm/ oder http://de.wikipedia.org/wiki/3ds_Max#Filmproduktionen ;)
 
@exqZ: Hobbits ist auch schön! ;-) Man muß aber auch zugeben dass es wirklich sehr wenig Informationen darüber gibt wo Max alles zum Einsatz kam und kommt, wie Dein erster Link schön zeigt. Lightwave z.B. hat ne nette Liste auf der eigenen Seite. ( http://www.newtek.com/lightwave/projects.php )
 
Erstaunlich!
Lange vor Intel postulierte AMD Fusion, die Integration der "Grafikkarte" in die CPU, und jetzt, wo Intel "Fusion" in Form von Clarkdale und Sandy Bridge noch vor AMD draußen hat, war das alles ein Fehler und die Lösung ist die "Zerhackung" der CPU in einzelne Chips?!
Und was die Debatte weiter oben über neue Technologien (Graphen, IBMs Kohlenstoff-Technologie) angeht: Die Zerlegung der CPU wird sicher kein wirklich kleineres Problem für die Kompatibilität?!
Kosh
 
@OPKosh: Informiere dich mal was mit SoC gemeint ist und dann überleg noch einmal was du hier geschrieben hast.
 
@Fonce: Ich weiß was ein SoC ist! Das was im Artikel beschrieben ist bedeutet aber eben INHALTLICH nichts anderes als das was ich beschrieben habe. Bis hin zu Fusion war die Bestrebung immer mehr zu integrieren. Das fand nicht nur bei CPUs statt sondern auch bei Board-Chipsätzen. Jetzt reißt man es wieder auseinander, baut SoC für spezielle Aufgaben und kombiniert sie nach Bedarf. Meine Formulierung von der "zerhackten CPU" mag technisch nicht korrekt sein, wenn Du aber aufmerksamer glesen hättest, hättest Du bemerkt dass ich es oben bereits in " " gesetzt habe. Du weißt was diese Zeichen bedeuten, oder?! Falls nicht informier Dich doch bitte mal! Deren Bedeutung geht nämlich über die wörtliche Rede hinaus.
 
@OPKosh: Das was Intel hat sind nicht Fusion-Chips wie AMD...es sind lediglich eigene GPUs neben der CPU die für die Grafik zuständig sind. Fusion wird aber die GPU einsetzen um Aufgaben der CPU zu übernehmen und diese so teilweise extrem zu beschleunigen...
 
@bluefisch200: Also grundsätzlich ist Fusion erst einmal nicht mehr als die Integration eines Grafikprozessors in die CPU, ähnlich wie man sie einst in den Chipsatz integriert hat. Das AMD das Ganze noch weiter treiben will und diese GPU (wenn möglich) auch zur Unterstützung der CPU heranziehen will ist fraglos eine geniale Sache. Das habe ich aber auch nicht geleugnet, oder? Mir ging es, dem Artikel entsprechend, auch um das Grundprinzip. Und was diese Fusion-Chips tatsächlich bringen bleibt auch noch abzuwarten!!! Wobei ich es AMD durchaus wünschen würde mal wieder einen richtigen Wurf hin zu legen!
 
@OPKosh: Das will AMD nicht weiter ziehen, das haben sie schon getan (gibt einige detaillierte Berichte im Internet zu Bulldozer und seinen kleinen Brüdern bzw. halt den APUs...Bulldozer selbst ist ja keine). Fusion APUs nutzen die GPU für Fliesskommaoperationen und andere aufwändige Aufgaben. AMD hat gegenüber Sandybridge aber auch etwas anderes demonstriert, ein Low-End AMD Prozessor mit dem Verbrauch von 1-10 Watt (Atom Level) ist fähig DirectX 11 Titel auf angenehmer Grafikstufe zu spielen... bei Intel kann man davon wohl nur Träumen und hoffen dass sie irgendwann mal das GMA950 Niveau überschreiten...
 
@bluefisch200: Sorry aber, nein, sie WOLLEN! Denn noch ist nicht eine dieser CPUs raus, nicht mal Bulldozer, oder?! Bisher sind das leider alles nur vollmundige Ankündigungen. Was diese am End tatsächlich bringen bleibt ab zu warten. Die Ankündigungen klingen vielversprechend aber wir alle kennen diese 50-100% Leistungssteigerungsversprechen von Grafikkarten, von denen dann maximal 20% übrig blieben. Wie gesagt würde ich es AMD wirklich wünschen! Ich bin kein Fanboy. Ich hasse jegliche Glaubenskriege (AMD/INTEL, ATI/NVIDIA, WINDOWS/LINUX ...). Ich setze momentan sowohl AMD als auch Intel ein. Aber bei großen Ankündigungen habe ich gelernt ab zu warten. Was Intel im Bezug auf "Fusion" (benutze das mal als allgemeine Abkürzung für diese GPU-CPU-Kombinationen) angeht war ich doch sehr überrascht. Das die überhaupt auf diesen Zug aufgesprungen sind, und sich auch noch "beeilt" haben AMD zuvor zu kommen (wobei das wohl eher an AMD liegt, die reden ja schon seit Jahren von Fusion und wurden nur leider nie fertig mit)?! Sie haben lediglich ihre Chipsatzgrafik, die, wie Du richtig sagst, nicht wirklich was taugt. Und diese einfach nur vom Chipsatz in die CPU zu verlagern kann nicht wirklich viel bringen.
 
"Den künftigen Trend sieht er in der Entwicklung von heterogenen CPU-Designs. "
PS3, XBox360 und Wii. Alle sind mehr oder weniger SoaC. Hat für Kunden, Hersteller und Entwickler immense Vorteile: Für den Kunden geringere Kosten denn für den Hersteller sinds geringere Entwicklungs und Herstellungskosten, für die Entwickler, denn es wird weniger unterschiedliche Systeme geben, also kann mehr optimiert werden - der Aufwand sinkt, die Performance steigt. Außerdem brauchen solche Systeme in der Regel weniger Strom und Platz. Win Win sag ich da mal.
Nachteil wäre halt die Aufrüstbarkeit denn man muss immer mehr als eine Systemkomponente tauschen. Aber mittlerweile ist aufrüsten eh auf dem absteigenden Ast. Neue Komplett PC oder Notebooks sind so billig, dass man es sich zweimal überlegt, selber Hand anzulegen und nur ein paar Mark Fuffzich zu sparen.
 
Für mich klingt das eher danach das es kaum "Neuerungen" in der Architektur geben wird wenn er nach Multicore nurnoch hier und da etwas reinbauen will.
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Beiträge aus dem Forum

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles