Intel gibt neue Details zu Grafikchip "Larrabee" preis

Prozessoren Intel hat neue Details zu seinem kommenden Grafikprozessor "Larrabee" preis gegeben. Anlässlich der SIGGRAPH 2008 Konferenz für Computergrafik in Los Angeles in der nächsten Woche will das Unternehmen im Rahmen eines Vortrags den Schleier weiter ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich geh mal davon aus, dass es sich um Workstation Grafikkarten handelt!? Also eher nichts (allein Preislich, denke ich) für Gamer. Wobei der letzte Satz natürlich auch auf eine Physik oder KI Berechnung hindeuten könnte. Nachtrag: Ah... die Karte soll tatsächlich _auch_ für Gamer sein.Wobei der ursprüngliche Einsatz eher im Bereich Wissenschaft und CAS zu finden ist bzw. war.
 
@candamir: naja ich lass mich mal von der leistung überraschen. wirklich viel hoffnung hab ich in diesen chip allerdings nicht, wenn ich lese worauf er basiert.

man braucht sich ja nur das potenzial aktueller gpus im rechenbereich für anwendungen anschauen. da kommt keine high end cpu mit momentan. und dann soll auf ner alten pentium basis, welche ein wenig aufgepeppelt wird, ein neuer "high end" chip aufbauen? vorallem wenn der chip erst in 1-2 jahren auf den markt kommen soll. wer weiß wie weit bis dahin nvidia und amd mit ihren gpus sind...

wir werden sehen :)
 
@candamir: Die Dinger sind für den Massenmarkt gedacht und die Grafikkarte wird vermutlich zwischen 24-32 parallel arbeitende auf Grafikberechnung spezialisierte aber auch allgemein Nutzbare Kerne bereithalten mit denen man auch Physikberechnung und anderes ausführen kann.
Was dabei besonders interessant ist, ist dass die Larrabee die erste Grafikkarte ist die Echtzeit-Raytracing: http://tinyurl.com/2cdfy5 (die Technologie die unter anderem bei Filmen Pixar/Dreamworks-Filmen zum Rendern verwendet wird) ermöglicht. Beim Raytracing kann man einen bestimmten Bereich des Bildschirms einer Recheneinheit zuteilen, so kann man das Bild genau in 24/32 etc. aufteilen und die Rechenlast prozentuell exakt auf die Kerne verteilen.
 
ich hoffe diese multicore gpus skalieren auch ohne optimierung seitens der spieleentwickler gut, ich meine was in sachen cpu abläuft kann man nicht gerade als effizient bezeichen (also im desktop bereich)
 
Wieso müssen die Chips so einen Komplizierten Namen haben.
Wie wäre es mit Hund Katze Fisch ^^
 
@Khamelion: Also ich finde es nicht grad schwer Larrabee auszusprechen, zu merken, es in ein paar Wochen wissen usw.. Wenn du mal deine eigenen Grafikchips baust, dann kannst du die auch gerne Hund, Katze oder Fisch nennen :P
 
In diesem Artikel ist alles sehr detailliert aufgeführt: http://www.heise.de/newsticker/Intel-Mit-Pentium-Kernen-gegen-Nvidia-und-ATI__/meldung/113739
 
@Murhagh: Link in kurz und richtig: http://tinyurl.com/5slnb2
 
@schroederx: Danke!
 
Laut zig Gerüchten soll der Larrabee in etwa so schnell werden wie eine hd2900 von ATI und mindestens den Stromhunger haben. Mal sehen was da von Intel wirklich kommt und wie sie diesmal ihre Marktmacht ausnutzen. ATI und NV haben zig Jahre Grafikchiperfahrung und dieses Knowhow kauft man sich auch als Intel nicht ohne weiteres ein.
 
@Plasma81: Achso und Intel hat noch gar keine Erfahrung was Grafikchips angeht? Komisch, dass Intel Marktführer bei den Grafikchips ist...
 
@sushilange: Ja, aber auch nur bei den Verkaufszahlen. Zeig mir mal ein aktuelles Spiel, dass auf einer Intel-GPU vernünftig läuft !!
 
@sushilange: wie m.schmidler schon schrieb, hat Intel dank ihrer IGP's sehr gute Verkaufszahlen. Aber mehr als den wirtschaftlichen Vorteil eines Komplettpaketes hat so eine Intel IGP nicht. Mehr als ein Bild auf den Monitor bringen kann das Teil nämlich nicht. Da ziehe ich jede ATI oder NV IGP vor.
 
@Plasma81: da magst du eventuell recht haben....aber es wird ja an einer neuen Technologie zur Darstellung von 3D Modellen gearbeitet zurzeit.....kA wie die jez genau heisst....jedenfalls wird hier hauptsächlich die CPU beansprucht und die Grafikkarte entfällt hierbei fast .... ergo werden die "neuen" 'GPUs' nur eine art unterfunktion haben.....
 
@WIN OS X UBUNTU: Meinste Raytracing ???
 
@Plasma81: Ähm, hab ich irgendwo in meinem Kommentar auch nur ansatzweise erwähnt, dass Intel bessere Grafikchips hätte und dass man mit diesen aktuelle Spiele spielen kann? Nö! Intel hat bewusst und mit Absicht keine high-end Grafiklösungen bisher angeboten, da die bisherigen Chips lediglich OnBoard-Lösungen waren und man hierk eine hohen Ansprüche hat. Eine OnBoard-Lösung wird nie eine diskrete Grafikkarte ersetzen! Du hast jedoch behauptet, dass Intel keine Erfahrungen hätte und das stimmt nicht. Die wissen mindestens genauso gut wie ATI und nVidia wie man eine gute GPU entwickelt.
 
@sushilange: ... Intel ist zwar Marktführer bei den IGPs (Integrated Graphics Processor), aber das sagst nicht das Geringste über ihr Know How im Bereich von diskreten Grafikkarten aus, und genau da liegt die Crux von Intel! Sie müssen sich gegen die beiden führenden Unternehmen Nvidia und AMD/ATI auf einem Gebiet behaupten, in dem sie blutige Anfänger sind - ein Umstand, der, meiner bescheidenen Meinung nach, dazu führen wird, dass sie ganz besonders im Treiber-Bereich ihr ganz persönliches Waterloo erleben werden ...
 
@DeninsMoore:Jap genau das mein ich ^^ Doofer Name....werd ich mir nie merken ^^
 
"AMDs Grafiksparte ATI und Nvidia." seit wann gehört nvidia zu amds grafiksparte? vielleicht sollte der satz nochmal umformuliert werden :) oder ich bin einfach noch zu müde :/
 
@Motti: is bissi holprig formuliert..stimmt schon...aber rein sinnmäßig korrekt....
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Beiträge aus dem Forum

Weiterführende Links