Entwickelt AMD ein umgekehrtes Hyper Threading?

Hardware Laut der französischen Newsseite X86-Secret arbeitet der Chiphersteller AMD an einem neuen Prozessor, der eine Art umgekehrtes Hyper Threading unterstützen wird. So wird es möglich sein, mehrere Cores als eine CPU darzustellen. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Back to the roots^^
 
Dann bin ich mal sehr gespannt was daraus wird. Intels neue Prozessoren sind wirklich sehr gut, ich habe mir sowieso vorgenommen in diesem oder nächsten Jahr meinen Rechner nachzurüsten, wenn die Prozessoren dann draußen sind und Vista, dann habe ich eine schöne Auswahl an neuen CPUs.
 
@-=©Tiger-X©=-: die mobilen sind gut aber die anderen sind viel mehr als eizung als als CPU zu gebrauchen und zudem auch nicht schneller.
 
@unbound.gene: wir sprechen hier nicht von den p4 prozessoren, sondern von intels neuer prozessor architektur, die auf dem mobile prozessoren aufbaut. die sind sehr leistungsfähig und sehr sparsam
 
@Maniac-X: Genau das meine ich sehr leistungsstark und zugleich sparsam. Auf Golem gibt es die Intels Architektur im Detail: http://www.golem.de/showhigh2.php?file=/0603/44043.html&wort[]=intel&wort[]=architektur Auf PC Welt gibt es einen Test von dem Intel Core Duo T2500 (Vielleicht hat Intel da sein Handwerk mit drin aber der Test ist trotzdem Interessant, wie Intels Prozessor da gekrönt wird :-) http://www.pcwelt.de/tests/hardware-tests/prozessoren/131254/index.html Ist sehr interessant die Entwicklungen der beiden Unternehmen ihrer Prozessoren zu verfolgen.
 
Da weiss doch auch keiner mehr, was er will.
Erst das GHz-Rennen - wurde zu teuer und zu heiss...
Da muss was neues her: 1 Kern simuliert 2 CPUs - is' nicht so doll.
Dann kommen echte 2-Kerner - hm...brauchen wa aber nicht oft....
Die werden dann wieder zu einem "zusammengefasst", zumindest virtuell...
....und 64bit gäbe es dann auch noch - braucht man zur Zeit auch nicht.

Jedefalls haben wir bald alle denkbaren Versionen von CPUs. Und was braucht die Masse? Ein einfacher 1GHz Rechner tut es für die meisten immer noch. Meinetwegen soll man dann noch ne Playstation 3 oder ne XBox 360 dazustellen, dann kann man auch daddeln. Und billiger als ein neues System geschweige denn ner HighEnd Graka ist's dann insgesamt allemale.

Irgendwann werden Anwendungen gleich mit passender CPU ausgeliefert. Will man dann Photoshop nutzen, steckt man just den passenden Prozessor rein. 18 Kerne, Hyperthreading, Anti-Hyperthreading, 64bit mit Halbierung und Verdoppelung (virtuell) und in passender Farbe zur Adobe-Karton-Box....

Herrschaftszeiten - was "die" sich immer einfallen lassen....
Wenn's doch endlich auch mal in der Praxis was für den Mainstream bringen würde....
 
@Xionic: Was heute den Profis dient und sich bewährt, dient in einigen Jahren der Masse! Ich weis noch wie Gates sagte "200 Mhz werden für immer reichen"! oder so :D
 
@Xionic: ^^
 
@Xionic: Damit hast du ja auch Recht. Aber je mehr die raus bringen und deren kleinen Krieg führen desto besser ist es für den Anwender. Es werden ja erst später die ganzen Anwendungen an den Prozessoren optimiert, da kommen auch bald die neuen Betriebssysteme inzwischen raus und werden ebenfalls optimiert. Es wird eine Zeit lang dauern bis die Programme, Spiele ect. optimiert sind. Aber sinnlos ist das ganze nicht, je mehr die herumentwickeln und um Marktanteile kämpfen, desto besser ist es für uns, wir haben ja was davon.
 
@Xionic: @mcbobo: Nein, Bill Gates sollte angeblich gesagt haben: ,,Nobody will ever need more than 640 KByte RAM". Das kann aber keiner beweisen und Gates selber sagt er hätte das Gegenteil gesagt. Also was solls, ich glaube nicht das er für so einen Mist lügt. Hätte er das gesagt, dann würde er heute sagen: ,,Ja, aber das waren darmals andere Zeiten, da konnte man sich das nicht anders vorstellen.". Also wird er das wohl nie gesagt haben (kommt warscheinlich von der richtung Linux etc, obwohl die noch in den Windeln lagen als Gates am Altair 8800 saß).
 
Ich kann mir schon vorstellen, dass das mit den 640KB RAM aus dem Hause Microsoft kommt, schließlich haben die den Hauptspeicher so konzipiert! Will sagen: 640kB frei verfügbarer Speicher, und oben drauf das, was sich das System nimmt. Ich kann mich noch gut an die Zeiten des "lh" und der Bootbenüs per Autoexec.bat und Config.sys erinnern, nur um ein Spiel dazu zu bewegen, sich doch starten zu lassen!
Die Ataris hatten die Speicherverwaltung übrigens vernünftiger geregelt: Erst das System von Adresse 0 an, und dann oben drauf alles Andere... ABER es braucht ja keiner mehr als 640kB Hauptspeicher =)
 
@Boh: Ich würde mal eher sagen, wenn Bill Gates es gesagt haben soll, dann hat er 100Pro den Konventionellen Speicher gemeint und wenn ich mich nicht irre, ist der max 640kb groß :) Schon zu lange her, als ich das letzte Mal mit DOS gearbeitet habe *an die guten alten zeiten denk*
 
@onki hoerb: war es nicht genau 1MB? Mit Segment + Offset konnte man doch 1MB adressieren?
 
"Did you ever say, as has been widely circulated on the Internet, "640K [of RAM] ought to be enough for anybody?" __
No! That makes me so mad I can't believe it! Do you realize the pain the industry went through while the IBM PC was limited to 640K? The machine was going to be 512K at one point, and we kept pushing it up. I never said that statement–I said the opposite of that."
 
@Xionic: Man sollte die Aussage, wenn sie den real ist, auch vor dem damaligen Hintergrund sehen. Die CPUs konnten gar nicht mehr als 1 MB Speicher addressieren und virtueller Speicher gab's nicht mal in der Theorie... es wäre sehr gut denkbar, dass die Aussage mit den 640 kB sich vielleicht auf den 1 MB Speicher bezogen, den die CPUs damals nutzen konnten. Ich hab zu ATI Rage-Zeiten auch gesagt, ich werde mir nie eine ATI-Grafikkarte kaufen... Dinge ändern sich nunmal, und das ist auch gut so.
 
Sprich: Wenn ich nen 2 GHz Dual-Core Prozessor hab, arbeitet der mit "Anti-Hyperthreading" ungefähr so effektiv wie eine 4 Ghz Single-Core CPU?
 
@Potty: So wirds denk ich nicht sein das es sich verdoppelt... eher 3 Ghz bei deinem Beispiel.
 
@mcbobo: Gut, käme mir auch spanisch vor, wenns wirklich so "einfach" wäre. Aber immerhin ein enormer Performancegewinn für Dual-Cores bei bestimmten Anwendungen.
Schade nur, dass dafür wieder ein neuer Prozessor her muss. Aber ich schätze mal wenn das über Software Anti Hyper Threading geregelt wird, wäre der Performancegewinn dahin. Und so verkaufen sich neue Prozessoren besser :-)
 
Software unterstützt einen bis 2 Kerne. Mehr hat man nur bei Serveranwendungen. Für den SOHO Bereich macht es Sinn die nutzbaren Kerne auf in bis zu zu reduzieren. Wenn dann QuadCore kommt hat man statt 4 gute Kerne 2 sehr gute oder einen extrem guten. Ich finde die Bündelung der Energienen gut. Auch wen die x86 Welt da wieder 30 Jahre hinterher hinkt.
 
@Chuck: "Auch wen die x86 Welt da wieder 30 Jahre hinterher hinkt." Wie meinst du das? Wegen der abwärtzkompaktiblität (oder iwe das heißt ^^). Also ich persönlich finde die sehr gut. A20 etc. da ich ASM Programmierer bin, fine ich die schon wichtig. Sonst könntest du z.B. DOS heute nicht auf deinem Pentium D laufen lassen (gut das will man warscheinlich auch nicht, aber du weißt was ich mein).
 
@bitmaster: Nein, ich meine DualCore, MultiCore und die verschiedensten Arten diese als Cluster oder als Virtuelle gebündelte CPUs ausnutzen zu können. Ich sehe dass Ganze nicht als Abwärtskompatibilität sondern schon als neue und vor allem gute Entwicklung... finde es nur schade dass es im Customer Markt so eledig lange dauert bis man sowas bereits vorhandenes realisiert.
 
hoffen wir ma das sie das fertig haben bis ich mir ein neues system hole , den lange weird mein AMD 3000+ @3500+ nicht halten :D
 
harr, ich würd mir auch gern so n neues system mit vista und allem dann holen, aber leider leider läuft mein xp noch zu fein auf der alten hardware, das is es die nächsten 2-4 jahre das geld nich wert :D
 
Das dürfte sehr interessant werden ab Quad/Octa Cores.

Dual Core empfinde ich heute als Pflicht. So könnte man immer 2 äusserst starke (je nach dem wie viele cores effektiv vorhanden sind) simulieren.

Also einen Co-Prozi der die Aufgaben verteilt.... irre *g*
 
Das verstehe ich nicht, Intel ist doch inzwischen auch bei DualCore-Prozessoren angekommen, und mir kann doch keiner sagen das ein SingleCore einem DualCore überlegen ist wenn die Software das unterstützt, ganz im Gegenteil. Daran sieht man mal wieder wie bescheuert die sind, anstatt das sie die Softwareschmieden einfach dazu animieren ein paar Veränderungen in der bestehenden Software vorzunehmen so das diese DualCore unterstützt. Übrigens gibt es doch schon ewig und drei Tage die HT-Technologie, bei der dem System 2 CPU vorgegaukelt werden. Ist das denn im praktischen Sinne nicht das gleiche wie 2 Kerne (denn dem System kann es ja egal sein ob simuliert oder real)? Wenn nicht, dann hat irgendwo jemand gewaltig gepennt.
 
@Islander: Überleg nochmal was du da sabbelst. Die wollen allgemein aus zwei Kernen virtuell einen Kern machen, damit jede Software schneller läuft etc. Zwei-Kern-CPUs gibt es mittlerweile massig und werden auch viel gekauft. Aber leider hat die Software-Industrie kein Interesse daran ihre Programme, wenn es denn nötig sei, auf zwei Kerne umzustellen. Was soll WinRAR etc. mit zwei Kernen? Sowas is höchstens für CAD und Bildbearbeitung interessant und da gibt es sowas schon.
 
@Qnkel: Genau das meine ich. 2 Kerne gibt es sogar virtuell schon seit Jahren, jetzt auch physisch. Trotzdem schert es die Softwaremacher nicht und sie machen Ihre Programme für einen Kern. Und die grossen Firmen geben klein bei. Es sollte genau anders herum sein, keine Software mehr unterstützen die für einen Kern konzipiert ist, sogar XP kann doch mit 2 Kernen umgehen. Und was, bitteschön, nützt es denn wenn in 2 oder 3 Jahren eine CPU auf den Markt kommt die Anti-HT hat??? Bis dahin läuft 80% der Software dann doch mit 2 Kernen. Eine Treiberlösung hingegen, für jetzige CPUs, das wäre was tolles. Wenn sie das hinkriegen ohne das der Performanceverlust zu gross ist, dann ist das eine gute Idee. Und nur dann.
 
@Qnkel: Was WinRAR mit 2 Kernen soll - dann schau dir mal die Ergebnisse der letzten Beta mit DualCore-Unterstützung an. Wen du da keinen signifikanten Leistungssprung siehst, dann hast du was verpasst. Entsprechend programmiert, kann jedes Programm davon profitieren.
 
@Islander: Es ist oftmals nicht grad einfach, Software so zu schreiben, dass sie wirklich von mehreren Kernen profitiert. Manche Aufgaben lassen sich einfach nicht parallelisieren. Und nein, HyperThreading und DualCore kommt nicht aufs gleiche raus. Bei HyperThreading sind (anders als DualCore) einige wichtige Komponenten der CPU nur 1x vorhanden. Deshalb ist DualCore erheblich besser als HyperThreading.
 
So neu ist das ganze doch eh nicht. Bei richtigen Computern (Super Computer) werden doch auch viele tausend CPUs mittels Cluster zusammengefasst. Aber schön wenn sie sowas für den PC entwickeln. Vieleicht lässt sich das noch ausbauen und ich kann meine 4 Rechner zu einem Super Computer Clustern. :-)
 
@andreas726: so neu ist es eben schon. nur eben auf stinknormale desktop pc bezogen. alles andere ist hier gar nicht relevant. ich bin froh, dass es endlich auch mal einzug in die wohnzimmer findet und nicht nur in großen server-hallen vorzufinden ist.
 
@andreas726: Das siehst du falsch. Ein Cluster ist viel eher mit einem Mehrkernprozessor zu vergleichen, nur sind eben die einzelnen Kerne physisch verteilt. Auch da braucht es spezielle Software (wie bei Mehrkernprozessoren auch).
 
@swissboy: Falsch, in einem Cluster können die Nodes auch als CoProzessor für ein System arbeiten. Mit einem Clustersystem ist beides möglich. Viele Kerne oder wenige Kerne mit vielen CoProzessoren.
 
[quote]Man ist sich bei AMD darüber im Klaren, dass die aktuelle K8-Architektur nicht mit den neuen Technologien aus dem Hause Intel mithalten kann.[/quote]
Dafür gibt es ja Forschungsabteilungen. Die aktuellen intel-Prozessoren können auch nicht mit den zukünftigen intel-CPUs mithalten. Den Gedanken die Vorteile mehrerer Kerne nutzbar zu machen auch wenn das Programm nicht multithreading-fähig geschrieben ist, hatten schon viele. Wenn es gelingen sollte wäre das sicher einer der größten Durchbrüche in der Computerentwicklung überhaupt.
 
Ich weiss nicht so recht was ich davon halten soll. Einerseits keine schlechte Idee, andererseits ein Anachronismus. Die Entwicklung (auch bei der Software) geht momentan eindeutig Richtung Mehrkernprozessoren. Dieses "Anti Hyper Threading" kann höchstens eine Übergangslösung sein.
 
@swissboy: Nein, die Entwicklung steht noch immer bei Single CPU und vereinzelt bei Dual CPU. Von Quad oder Octa Unterstützung ist nichts zu sehen. Und dennoch wird es genau wie heute Anwendungen geben die von vielen Prozessoren profitieren und andere die von einem profitiert. So ist beides möglich. Keine Übergangslosung... richtungsweisend. Moderne Prozessoren mit 48 Kernen pro CPU bringen nicht viel... Ein Kern mit 47 CoProzessoren jedoch bringt sehr viel.
 
@Chuck: Ich halte das auch für eine gute Idee. Wie man in der Vergangenheit gesehen hat, stand AMD durch die Schlamperei bei Spiele-Programmierern immer besser da, weil die Athlon-Kerne bei der reinen Prozessorleistung geglänzt haben und die meistens Extensions eben nicht genutzt wurden. AMD deckt hier durch beidseitige Nutzbarkeit halt alle Bereiche ab, sowohl sauber progammierte Businesssoftware als auch unlieb hingeklatschten Kinderkram.
 
man kann doch einen prozess, der aus werten neue werte generiert (war "iterativ" das wort?) nicht auf zwei parallel arbeitende cpus verteilen... wenn der 2. schritt erst nach dem 1. gemacht werden kann, wie soll da was schneller werden?
so wie ich das verstehe kann AHT doch nur die einzelnen schritte verteilen...
 
@leopard: Auf dieser Seite http://tinyurl.com/gcnxf wird erklärt dass Winrar nur schwer für Multiprozessoren optimiert werden kann. Jetzt haben sie es scheinbar doch geschafft. Aber ist schon richtig, dass man nicht alle Aufgaben aufteilen kann. Bei Spielen muss man sich da weniger Sorgen machen, da heutzutage für Netzwerkt, Grafik, Spielberechnung, ... ein eigener Thread läuft.
 
@faceitreal: Ich denke eher er meinte es so. Es muss irgendwie gesteuert werden das die Aufgaben verteilt werden, weil man kann die CPUs nicht einfach zusammenschalten, sie müssen immer aufeinander warten. Hier ist gemeint ein Prozess läuft zusammen auf 2 CPUs und nicht das der Prozess (A) geteilt wird und dann CPU1 Prozess (A_1) und CPU2 Prozess (A_2) abarbeitet. Es ist so als wenn man zwei Arbeiter an den Händen zusammenschnürt und meint sie würden jetzt zusammen gut arbeiten können.
 
Ähm... Kann mir jemand die Logik und den Sinn dieses Anti-Hyper-Threading-Prinzip erklären? :S Ich bin da nicht gerade der Freak und würde mich freuen, wenn mir jemand dies erklären könnte >.
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte