ATI will zukünftig auf mehrere Grafikchips setzen

Hardware Das inzwischen zum Chiphersteller AMD gehörende Unternehmen ATI hat angekündigt, zukünftig im Bereich der Grafikkarten auf Multi-GPU-Lösungen zu setzen. In einem Interview sagte Richard Huddy, dass man kein Interesse mehr hat, einzelne große Chips ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Also quasi ein Dual-Core für GPUs ... :)
 
@voodoopuppe: japp würde ich auch sagen....
Bin bloß gespannt wie dann die Preise aussehen...
// eine GK mit 1GPU 20€ //
eine GK mit 2GPU's 100€ //
eine GK mit 4GPU's 300€ //
 
@voodoopuppe: Nicht wirklich, im Gegensatz zu Dual-Cores würden ja mehrere (gleiche) GPU-Chips verbaut.
 
@voodoopuppe: und im gegensatz zu dualcores verbraten die zusammengeklebten doppelte energie und erzeugen doppelte hitze - so wie die möchtegern quadcores von intel
 
@leopard: Wenn 4 Cores in einem Chip vereint sind darf er sich zu Recht Quad-Core nennen, "zusammengeklebt" oder nicht spielt dabei überhaupt keine Rolle.
 
Die Wärmeverteilung ist bei 4 GPUs aber besser als wenn man nur 1 viermal so starke GPU kühlen müsste.
 
Also wirklich neu ist das ja nicht.
Diese Idee hatte auch schon 3dfx vor ein paar Jahren.
 
@Justin Sane: Dementsprechend sahen einige Modelle aber auch aus :D
 
@Justin Sane: Ja, weil es damals noch nicht die neuen Technicken gab, aber sowas hatte doch schon nVidia, die übrigends, um es nicht zu vergessen, 3dfx aufgekauft haben, vor ein paar Monaten verlauten lassen? Oder irre ich mich da. *grübel*
 
@Justin Sane: richtig, und die leistung der karten hat immer für sich gesprochen
 
@Justin Sane: ATI produziert es, wird damit extrem erfolgreich sein, und danach von nVidia auf mehrere Millarden verklagt, da diese ja 3dfx und die dazugehörigen Patente aufgekauft haben :D
 
@Justin Sane: yo, und wie wir wissen, war das das ende von 3dfx.

droht nun auch das aus für ati?
 
@Justin Sane: Die gute alte Voodoo 5500... Das waren noch Zeiten...
 
Solange die den Stromverbrauch in den Griff bekommen ist mir das egal. Statt immer mehr Leistung wäre optimierung angebracht.
 
@Maniac-X: keine angst. als amd damals ati gekauft hatte war der plan erst multi gpu's dann stromsparende 45nm gpu und dann das ganze zusammen in die multi cpu geloetet. das dauert aber immer etwas zeit bis aus patentverschmelzungen dann richtige produkte werden. damals hatte amd gesagt es sollte so um die 4 jahre dauern bis man die fruechte der amd/ati verschmelzung sehen kann. warten wir auf die naechste stromsparende generation der grafikkarten... cheers
 
kann man nich theoretisch die gpus mit noch mehr rechenenheiten bauen, als so banal die chips ainfach zu erhöhen? wäre es nicht sogar möglich, damit die temp niedrig bleibt und evtl größer gebaut werden kann, ganze "abteilungen" auf den gpus einzeln zu produzieren? d.h. (ich weiß ja nich genau wie das abläuft, aber) 2d = ein chip, 3d = ein chip, berechnungen dafür = ein chip.
 
@superkroll: weiß nicht ob etwas derartiges möglich ist, aber der Chip für die Rechtschreibung sollte dann nicht vergessen werden...
 
@gorko122: och, sind doch nur 2, oda??? :-)
 
@superkroll: Die Kunden sind schuld, es wird immer wieder nach besserer Grafik gebettelt und ob diesen Wunsch recht schnell zu bewältigen werden einfachere Möglichkeiten der Leistungssteigerung genutzt und nicht etwas technisch raffiniertes.
 
@ floerido: am wieso sind da die Kunden schuld???

Nach meiner Meinung die spiele hersteller. Und ich denke jeder will ein spiel mit super Grafik, und dann braucht es nun mal neue Grafikkarten.

Ansonsten währen wir ja immer auf dem gleichen stand nicht?
 
@deadmeiker: Vielleicht war das etwas zu überspitzt ausgedrückt. Aber wenn man sich zB. viele Spiele Kommentare hier ließt merkt man oft das nur auf die Grafik geschaut wird (Das Spiel ist schlecht, weil die Grafik nicht neue Maßstäbe setzt), also fordern die Kunden immer bessere Werte sonst verkauft sich ein Produkt nicht mehr so gut. Es geht natürlich anders was man zB an der Wii sieht wenn man auf neue Konzepte setzt, aber trotzdem gibt es noch genügend Kunden die auf die Grafik schauen und dann deshalb die XBox360 oder PS3 hochleben lassen. Daher kann man sagen spitzen Grafik verkauft sich und ist auch mit der leichteste Weg den Umsatz zu steigern. Und weil der Kunde diesen Trend der besseren Grafik immer hinterher läuft ist er mit schuld das sich die Hersteller immer schneller übertrumpfen wollen.
 
Interessanter Ansatz, wirklich überraschend und innovativ noch dazu....
 
@Der_Heimwerkerkönig: Innovativ wars vor Jahren als 3dfx die Voodoo Serie mit mehreren GPUs gebracht hat.
 
@Der_Heimwerkerkönig: sofern dei leistung stimmt, und ich gehe sogar fast davon aus, ein schritt in die richtige Richtung. Dann kann ich wieder gefahrenlos bei meiner geliebten Intel / ATI Kombo zuschlagen :)
 
@DennisMoore: im gegensatz zu dir habe ich seine ironie verstanden
 
@derinderinderin: wir sind alle ganz stolz auf dich.
 
@derinderinderin: Bei dem Satz kann ICH mir nicht sicher sein ob es sich um Ironie oder einen ernsthaften Kommentar handelt. Sorry.
 
also Crossfire sieht eigentlich nur vor den Bildschirm zu teilen und dann die Berechnung an die Karten zu schicken. Allerdings soll die Grafikausbeute dadurch nicht unmittelbar doppelt so hoch werden, da es ja letztlich doch iwie berechnet werden muss, wer was berechnet. Ich denke also, dass Crossfire eine verminderte Rolle in diesem Gebiet spielen wird!
 
Eigentlich ein guter Weg, im Vergleich zu SLI oder Crossfire, da so eine Wärmequelle (durch eine eventuell zweite Grafikkarte) vermieden wird. Wird aber wohl nicht ausbleiben, dass es auch von den ´Multi-GPUs SLI- und Grossfire-Varianten geben wird, - na ja.
 
Das wäre auch ein guter Ansatz zum Energie sparen, je nachdem wieviel Grafikleistung gefordert wird werden weitere Chips hinzugeschalten , office 1 Chip und Spiele alle Chips.
 
also soo neu is die idee ja nicht..... ist doch logisch, dass nach dual und quadcpus die gpu hersteller nachziehen.... man kommt eben bei einzelnen kernen an physikalische grenzen, so einfach ist das.....
 
@Undergroundking: ... hier geht es aber um mehrere einzelne Chips, ein grundlegender Unterschied.
 
Keine Schlechte Idee . ATi´s Crossfire hat ja nich so gut geklappt von daher is das ne guter Ansatz für einen neue Multi GPU Lösung denkich. Allerdings denk ich schon das Nvidia bald nachzieht.
 
Naja von Nvidia gibts ja auch schon multi GPUS: GF 7950 GX2. Und die is echt gut. Ich hab eine von XFX und das teil rennt wie hulle....^^ Hab aba von ati auch schon ma eine multi GPU bei alternate gesehen. Das waren glaub ich 2 1950 pro zusammen als eine karte. aba das teil hätte einen immens hohen stromverbrauch. ne GX2 zieht "nur" 143watt bei voll last , also da muss sich ati noch was einfallen lassen......
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles