Intel gibt Pläne für eigenen Grafikchip "Larrabee" auf

Grafikkarten Der Halbleiterhersteller Intel hat am Freitag die vorläufige Aufgabe seiner Pläne für die Entwicklung eines eigenen Grafikprozessors der nächsten Generation mit dem Codenamen "Larrabee" bekannt gegeben. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wie heißt es so schön? Schuster bleib bei deinen Leisten!
Man muss nicht überall mitmischen!
 
@Baltasar: Stimmt, zumal eh fraglich wäre, ob Intel an das Niveau von ATI oder Nvidia herkommen würde...
 
@Baltasar: Statt mit Schuster und Leisten, würde ich es eher mit NASA und Mondlandung vergleichen. Es ist einfach verdammt schwer wieder dort anzuschließen wo man vor einer kleinen Ewigkeit abgeschlossen hat. Erschwerend kommt noch dazu, dass Intel schon damals keine High-End-Lösung bieten konnte.
 
@Baltasar: Bei dem Geschäft mit GPUs kann Intel seine Fabriken nutzen, das könnte ein gutes Geschäft für die Firma werden, denn Synergien bedeuten einen höheren Gewinn. Mit dem Geld was sie haben, stemmen sie die Entwicklung zudem ganz locker. Es ist nur eine Frage der Zeit bis Intel mit dabei ist. Für den Kunden ist das auch gut so, denn umso mehr Konkurrenz es gibt, umso günstiger werden die Produkte. Grad angesichts der momentanen NVidia Entwicklung, wo man nicht weiß, ob sie langfristig auf dem Markt bestehen können.
 
@Dario: Das Problem ist nur, dass Intel im Augenblick so gut wie nichts im Bereich GPU vorweisen kann. Schau dir mal Nvidia an, die fummeln schon konkret an dem Fermi-Chip herum und von denen gibt es auch schon diese CUDA-Entwicklungsumgebung. Wenn man sich anschaut, welche Rechenleistung die Grafikchips von AMD und Nvidia schon jetzt haben, werden die kommenden Grafikchips von denen bestimmt auch massenhaft als "Rechenknechte" eingesetzt. Und was hat Intel vorzuweisen, keinen leistungsfähigen Grafikchip und auch keine Entwicklungsumgebung wie CUDA.
 
@drhook: CUDA ist eh eine Totgeburt...das wird von ComputeShader und OpenCL verdrängt...
 
@Baltasar: Das kann man so oder so sehen, da manchmal auch was Gutes dabei raus kommt . Es gibt ja auch Schauspieler die anfangen zu singen, und es gibt Sänger, die als Schauspieler anfangen. Nicht bei allen ist es vorteilhaft.
 
@bluefisch200: Junge, krieg ich Kopfschmerzen wenn ich sowas lese. Nochmal für dich: Ohne CUDA funktionieren weder ComputeShader noch OpenCL, genausowenig wie ohne ATi Stream. Mag sein, dass mehr Programme auf OpelCL oder DirectCompute ausgelegt werden. Überflüssig wird CUDA deshalb aber noch lange nicht.
 
@DennisMoore: Ich denke er meint als direkte Lösung ist CUDA in Zukunft eher unwahrscheinlich. Das es als Schnittstelle für OpenCl genutzt wird ist klar.
 
@TobiTobsen: Danke, was ich sagen wollte ist dass niemand nur für Stream oder CUDA entwickeln wird wenn eine Multiplattform Lösung da ist :)
 
@bluefisch200: Ja, wenn du das dann auch noch so schreiben würdest, würde es mir Kopfschmerzen und 1-2 Comments ersparen ^^. Oh, ich weiß es nicht ganz genau, aber ich glaube CUDA wird für verschiedene Spezialanwendungsn auch weiterhin nötig sein. Es soll noch viele weitere Funktionen bieten, die nicht mit OpenCL und DirectCompute abgedeckt werden.
 
@Baltasar: Eigendlich heisst es: Schuster, bleib bei deineM Leisten.....
 
Schuster bleib bei deinen Leisten...
edit:@Baltasar: argh :)
 
@tt13: ...bei deineM Leisten... :-)
 
Die Überschrift ist Müll. Laut Quelle wird Larrabee nicht aufgegeben, sondern nur das erste Larrabee-Produkt wird nicht als Standalone-Grafikkarte veröffentlicht. "As a result, our first Larrabee product will not be launched as a standalone discrete graphics product,"
 
Naja da Intel sowiso an "Larrabee2" arbeitet können die Ressourcen da einfliessen .
 
wie immer BLITZSCHNELL geklaut :D vor 2 Tagen schon bei computerbase... http://www.computerbase.de/news/hardware/grafikkarten/2009/dezember/larrabee_consumer-grafikkarte_geschichte/
 
Da kauft Intel einfach NVidia. Das löst die Probleme von beiden Seiten.
 
und ich dachte- intel wäre ein prozessorspezialist.
 
@medienfux: Ja aber halt auch der weltweit größte Hersteller von Grafikkartenchips. Gegen die Mengen, die Intel an Grafikkartenchips verkauft sehen Nvidia und ATI wie kleine Klitschen aus.

Ich hatte sehr viel Hoffnungen in die Entwicklung gelegt, da Intel wenn sie das Ziel mehr verfolgen würden bestimmt eine gute Gamingkarte rausbringen könnte, die nicht 200 Watt braucht.
Man muss sich nur z.B die 4500 HD Grafikkartenchips mal ansehen, was die in vielen Notebooks leisten und mit welchem Verbrauch ist schon beeindruckend.
Von Daher sehr Schade diese News. ________________-
@ diejenigen die "Schuster bleib bei deinen Leisten" gepostet haben, bitte erstmal denken dann schreiben.
 
@Muehre: ... sorry - aber IGPs mit diskreten Grafikkarten zu vergleichen, hieße Eulen nach Athen zu tragen! Und zu glauben, das Intel tatsächlich mit Nvidia und AMD/ATI mithalten könnte, halte ich für ziemlich blauäugig, da man mehr als 10 Jahre Entwicklungsvorsprung selbst mit vielen Milliarden nicht so einfach wettmachen kann ...
 
Ich bin enttäuscht! So schlecht sind die Intel GMAs gar nicht, für Internet und Büroanwendungen langt auch eine ältere Intel GMA 950 lässig. Vorteil der Intel Grafiklösungen: sehr wenig Energieverbrauch, wenig Abwärme und somit schön leise kühl zu halten. Ich hätte mir wirklich gewünscht, dass Intel mehr Konkurenzdruck bei den Grafiklösungen macht. Packt man sich so ein dickes Grafikkarten Ding von Ati oder Nvidia in die Kiste, wird die ganze Kiste gleich viel lauter, wegen der bei Ati oder Nvidia Grafikkarten nötigen aufwändigen Kühlung. Trotzdem plane ich wegen interessanten Entwicklungen bei Nvidia in den Computerladen zu stiefeln und noch solch eine Krawallquelle zuzulegen, sobald ich diese elende Grippe wieder los bin.
 
Larrabe.. Irgendwie erinnert mcih dass an einen Fortuna-Düsseldorf-Spieler^^
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Beiträge aus dem Forum

Weiterführende Links