ATIs neue DirectX10-Grafikkarten sind echte Monster

Hardware Den Kollegen von VR-Zone ist es gelungen, ein erstes Bild von ATIs neuem Flaggschiff, dessen Bezeichnung derzeit noch R600 lautet, aufzutreiben. Die neuen Grafikkarten sollen Nvidias DirectX10-Grafikkarten, die bereits seit einiger Zeit im Handel ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
270 Watt? Okay, JETZT braucht man wirklich ein 600 Watt Netzteil ...
 
@TobWen: Bei Gamestar (glaub ich) hab ich gelesen das der Chip nicht wie behauptet 250 Watt sondern "nur" 180 Watt frisst ..
 
:D:D:D ne wie lächerlich tztz.. 280watt
 
oh man, wie laut wird so ein teil wohl sein? erinnert mich außerdem an die grafikkarten vor 7 jahren. naja, die freaks werdens schon kaufen.
 
@TobWen: Sie es positiv, was du heute mehr an Strom für deine GraKa zahlst, sparst du morgen in der Heizung[/Ironie] Irgendwann meldet sich auch mein Gewissen für die Erde. Werde mir so ein Teil holen, wenn meine Familie oder die ganze Eigentümerschaft auf Erdwärme umgestiegen ist. Ich hoffe, es gibt noch eine Energiesparvariante, irgendwann. Leider können meine Drohungen nur leer sein, denn die PC-Industrie wartet nicht :-( Dabei geht es mir garnicht um den eigentlichen Stromverbrauch (gibts andere Sachen, die arbeiten in einer ganz anderen Dimensiion), sondern der Gedanke der dahintersteht auf Ennergie-Effizienz zu spucken, in der aktuellen Lage! Man könnte meinen die Leute würden in der Schule damit angeben, dass ihre GraKa mehr Strom frisst als die des Sitznachbarn.
 
Will ich haben!!! Aber die wird mir zu teuer sein.
Und ob die in jedes Gehäuse passt?
 
@smite: Hrhr, wenn die sowas in nem Shuttle XPC verbauen sag ich nur: RESPEKT!
 
@ Jared: da wird aus m shuttle n hochofen XD für brötchen backen is es dann auch schon zu heiß. XD nene... mitlerweile sind konsolen echt total atraktiv... kein schißta monopolistenzwang auf ein schlechteres klickie buntie und mehr möglichkeiten (siehe wii & DS)
 
@Jared: nur haben XPC meist nur 200 oder 250 Watt... Da brauchst also nen extra Stromaschluss für die Karte!
 
@smite: wie ich bei meinem gemoddeten shuttle... lüfter extern am strom *g*
 
Hmm. Da könnte das Gehäuse schon knapp werden. Dazu noch die hohe Wattzahl. Bleibt nur der Preis der was herhalten könnte.
 
O.O 31,5 cm... bin ja mal platt...
 
@siniox: Naja, 31,5 cm ist ja "nur" die OEM-Version, ich kauf mir lieber die für Endkunden :-)
 
Wird auch Zeit, dass sich ATI mal wieder meldet
 
Ich würde mir doch keine Dx10 Karte der ersten Generation kaufen. Egal ob nVidia oder ATI. ist doch das selbe wie bei Dx9. Da konnte man auch die erste generation vergessen, weil die Entwickler dsa Potential erst ab der zweiten Generation richtig ausnutzen konnten/wollten.
 
@Willforce: ich hab ne radeon 9500 pro. ich habe es nie bereut und werde ohne hemmung bei dx10 zugreifen, wenn ich mir n neuen pc bastel (ende märz?)...
 
dafür müsste ich 2 meiner 5 festplatten ausbauen oO
 
@TTDSnakeBite:
Kein Problem sag dann einfach Bescheid, bei mir passen noch Platten rein. Wäre ja schade drum, wenn die einfach nur so rumliegen.
 
@TTDSnakeBite: Größerer Tower? :-)
 
@TTDSnakeBite: sorry männer, aber ich brauch dieses "wahre monster" nicht^^
 
270W für eine Grafikkarte ? Da scheint es also doch einige zu geben die auf den UNO-Klimaschutzbericht spucken, mir fehlen da echt die Worte.
 
@Fantastic: wer zahlt bei denen die Stromrechnung?
 
Also bei 270 Watt Leistungsaufnahme brauch ich wohl bald mein eigenes Atomkraftwerk. Die Politik sollte mal nicht nur bei Autos nach Umweltsündern suchen. Alle schreien nach mehr Klimaschutz und die Menschen sollen Strom sparen und dann sowas. Sollte nicht auch mal ein Umdenken in der Grafikkartenindustrie kommen. Die Prozessor brauchen weniger Strom wie z.b. der AMD 64 X2 3800+ EE mit rund 35 Watt und diese Karten brauchen bald 300. Ich frag mich aber auch wozu. Das geht bestimmt besser.
 
@gertimon: Sehe ich auch so. Solche Stromfresser sollten gar nicht verkauft werden dürfen oder zumindest sollte es solche Symbole geben, wie bei Monitoren dieses TCO-Zeichen. Ich bin mir sicher, dass das effizienter geht. Ich würde mir nie eine Karte kaufen, die so viel Strom zieht.
 
@ soulflare: Eine Einteilung wie bei Waschmaschinen nach Leistung und Energieverbrauch. Sinnvoll wäre dies auch bei Komplett-PCs. Viele Leute kaufen sich für 1000+€ einen Rechner, der nichtmal 600 wert ist und denken sie haben ein Superteil zum Spielen (Stichwort -512 MB Grafikkartenspeicher auf einer LowEnd-Karte-).
 
Wow finde ich super, dass das inzwischen auch andere Leute wie ich sehen! Anfangs wurde ich mit meiner Energiehomepage (siehe Profil) belächelt..... ihr habt Recht, es sollte generell bei allen Geräten Energieklassen geben! Und extreme Klimasünder wie diese Karte sollten verboten werden.
 
@gertimon: Danke, du sprichst mir auch aus der Seele [+]
 
Ich solidarisiere mich mal mit eurer Meinung indem ich mein ACK zu den vorausgehenden Aussagen hinzufüge :) MFG Ich, EE und Wakü Fetischist
 
@gertimo: auf den punkt gebracht, ganz meiner meinung!
 
@gertimon: Du scheinst einer der typischen Deutschen zu sein. Klingt als würdest du Planwirtschaft und vielleicht sogar eine Monarchie oder Diktatur wollen. Dass sich die Industrie nach den Kunden richtet und der Staat sich weder für den Weltfrieden noch für die Umwelt interessiert, sondern nur möglichst viel Macht und Geld will, das hast du wohl noch nicht ganz verstanden - oder ignorierst das einfach aus Bequemlichkeit. Vielleicht bist du aber auch so ein Öko-Fanatiker, wer weiss.
 
@BessenOlli: Achso, also findest du das so ok, wenn das Ding 270 Watt verbrät wovon der Grossteil in Wärme verpufft? Wozu ist da wohl so ein Monster-Kühler drauf? Wenn die Politik sich in die Autoindustrie einmischen kann, dann kann sie das genauso gut bei der Computerindustrie. Und was soll diese dämliche, völlige umzusammenhangslose Floskel von wegen typisch deutsch? gertimon hat vollkommen recht, so ein unverhältnismäßig hoher Stromverbrauch ist einfach nicht hinzunehmen, gerade wenn man sich die heutigen Prozessoren z.B. von Intel anschaut. So ein C2D kann im Ruhezustand ohne Lüfter !! betrieben werden ! Da sollte sich ATI ma ne Scheibe von abschneiden, denn DAS ist effektive Hardwarearchitektur. Und nicht einfach möglichst viele Transistoren drauf klatschen, das Teil bis zum Geht-Nicht-Mehr mit Strom stopfen und dann sagen, wir haben die beste Graka.. Also das kanns ja net sein ...
 
@BessenOlli: Wenn Freihei bedeutet, dass jeder mit UNSERER Umwelt umgehen kann wie er will, dann ist über eine ökologische Diktatur nach zu denken.... Oh maaaan....
 
Schaut mal hier:
http://www.pcgameshardware.de/?article_id=556680
 
Beeindruckt mich irgendwie nicht. Wenn man das auf die nVidia-Karte überträgt und von dieser dann die Masse und Leistungsaufnahme proportional erhöht kommt man im Endeffekt auf sehr ähnliche Werte. Also nix von wegen viel besser... viel teurer (auch im Betrieb), das ist alles.
Ich warte mal geduldig auf die zweite 8er-Generation von nVidia, mal sehen was da kommt.
 
@Islander: Genau , bei 40% mehr Speed kommt die G80 nichtmal über die 200W Grenze drüber.
 
wenn die größe und der verbrauch hier korrekt angeben wird, dann will ich davon keine. 270 Watt können nicht leise gekühlt werden, und 2tens will ich nicht so viel strom verbraten.
 
MEGALOL! Was für ein Surfbrett! Erinnert mich irgendwie an eine Voodoo5 6000. *g* Sowas kommt bei mir nicht in den Rechner. Die spinnen doch.
 
@gr-storm: Wobei die Voodoo5 noch 4 Lüfter hatte :x
 
das ding schluckt ja schon fast so viel wie mein rechner unter vollast xD omg :D
vllt sollte man sich auch ma gedanken darüber machen, ob die vllt. wie AMD (bei den Prozis) EE war. einführen ^^
 
@warlord2909: "das ding schluckt ja schon fast so viel wie mein rechner unter vollast xD" Da hast du Recht. Bei Prozessoren sind sie ja schon auf den richtigen Weg(Stichwort: energiesparende CPUs). Jetzt müssen die Grafikkartenherrsteller das auch noch erkennen.
 
oder anders gesagt, eine dieser Karten benötigt unter Volllast so viel wie 10 Laptops (je ca. 25 Watt)! Verrückt !
 
@warlord2909: bei mir ist es nicht nur fast so, Sie braucht soviel wie meine komplette PC-Steckdosenleiste (incl. Monitor etc.). Ich hab nen Energiemesser dran und alles zusammen (FX-55, 6800 Ultra) braucht unter last ca. 290 Watt.
Bei den Hackt es wohl echt langsam. Meine Stromrechnung ist jetzt schon hoch genug.
Wenn es wenigstens sowas wie einen "Standby" geben würde, wo die Karten im normalen Desktopbetrieb nur 25% oder so brauchen ok. Aber so nicht.
Ausserdem wirds dann echt knapp mit dem Festplattenkäfig...
 
legen die eigentlich dann auch gleich ein Gutschein für den Stromanbieter bei? Bald kann ich mir auch meine Fischstäben auf der GK auftauen. Vielleicht sollte man so verfahren wie die CPU Hersteller, Prozessoren mit immer weniger Leistungsaufnahem.
 
Sieht echt übel aus das Teil.
 
Die Daten klingen für mich irgendwie nach ner Todgeburt, dazu kommt noch, das es die 1. Generation von DX10 Karten ist. Absolut Sinnlos, wer sich sowas in den Rechner baut. Sieht für mich irgendwie wie ne Industrie-wasweißich-Karte aus, und nicht wie ne Highend-Grafikkarte für Gamer.
 
können einige nicht lesen? nur die oem karte ist so lang, die wo man im laden kauft, ist nicht länger als ne NVIDIA 88xx
 
@beneee: Andere beherrschen die deutsche Rechtschreibung und Grammatik nicht...
 
Also sorry, ich zock ja auch gern aber irgendwann hört der Spass doch echt mal auf, Riesengroß, mega Stromfresser, Hyper teuer (krieg ich nen ganzen PC für fast). Ich hab ja so einige Hypes mitgemacht mit den Grafikkarten aber irgendwann ist mal schluss.
 
Für mich sieht das eher nach einem Rückschritt als nach einem Fortschritt aus. Wir haben echt andere Probleme als eine Graka die über 270 Watt zieht. Also dann lieber eine Nvida die etwas langsamer ist und wenigstens ordentlich in mein gehäuse passt.
 
31,5cm...endlich ein passendes lineal für meinen... *räusper*....270 watt und die größe sind eindeutig übertrieben...strom wir auch nich billiger und die gehäuse sind auch nich soooo riesig...
 
@jackiie: und was machst du wenn der nur bis zur ersten Heatpipe reicht? *duck*
 
dann hätt ich das wohl kaum geschrieben :)
/humor ende ^^
 
Sehr schlecht für die Umwelt. Man kann nur hoffen, dass am Stromverbauch noch gearbeitet wird, ansonsten müssen wohl doch noch ein paar Atomkraftwerke gebaut werden :). Im Ernst, man sollte eine Art Sparfunktion für "normale" Anwendungen einbauen, ansonsten wirds echt teuer.
 
270 Watt !! Nein Danke! Die haben doch einen Knall. Dann hole ich mir lieber die 8800 GTX mit 170 Watt.

Ich habe bis jetzt gewartet mit Aufrüsten mit einer DX10 Karte nachdem ich jetzt lese die ATI Karte wird 270 Watt verbauchen dann sage ich Nein danke!!

GTX8800 kommt bei mir in den Rechner rein wenn der auch weniger Leistet!!
 
Ich find auch die Größe überhaupt nicht gut. Da ist echt nix mehr mit Festplatte dahinter bauen :(
 
ICh seh mir auch gern hübsche Grafik an, keine frage, auch wenn bei mir der Spielspass mehr zählt. Die Ganze Software/Grafikkarten Industrie sollte mal bedenken lieber Fehlerfreie Games rauszubringen als ständig nach Leistungswundern zu betteln. Also ich will bestimmt keine GFX die 270W an Strom verbraucht nur damit ich bischen hübschere Bildchen aufm Monitor habe
 
lol megafreu watt is mir egal solang die power stimmt
 
@das hirn:

Wenn die erste Stromrechnung kommt wirst du anders denken
 
@das hirn: Entweder hast Kohle wie Heu und die Stromrechung ist Dir schnuppe, oder Mama/Papa zahlt :P Naja also das ist mir dann doch zuviel, kann nicht angehen das ne lausige Graka schon nen halben Reaktor braucht nur damit man ein paar FPS mehr hat.
 
@das hirn:
Dein Name in Verbindung mit deinem Kommentar machen PISA alle Ehre! Wenn alle so denken würden, dann gute Nacht. Denk mal ein bisschen ökologischer.
 
@elitekilla: Zwei Doofe, ein Gedanke! =) Full ACK.
 
hmm ich hoff ich kann mit meiner "lächerlichen" 8800 GTS noch möglichst lange einigermaßen mithalten :)
 
@Air50HE:

Derzeit ist die 8800 GTS völlig ausreichend und auch mit der ersten DX 10 Generation Spielen
 
Wohl gerade richtig für Crysis oder ? *duck* hehe :D
 
okay jung holt schon mal den bigtower wieder aus den Schrank ^^
 
Also diese 270W die sind echt mal zuviel.. Von wegen Strom sparen und Umwelt schonen usw ist das echt ne Frechheit dass man sowas verkauft! ________ Man kann auch gescheite Grafik rausbringen, wenn die Grafikkarten erstmal völlig ausgereizt wären.. Bei Konsolen funktioniert das doch auch dass das Bild gut aussieht und die verbrauchen bestimmt keine 270W, allerhöchstens komplett, aber keine ahnung.. 270W tztztzz
 
Vom aussehn her ist die grafikkarte echt wiederlich hässlich ^^.
Mein Kumpel will die sich sofort nach release zulegen so wie ers auch bei der x1900xtx gemacht hat. Geht bestimmt dreckig ab das Teil
 
@Smoke-2-Joints: Und wenn dann Pappi die Stromrechnung bekommt gehts ihm dreckisch (an den Kragen) :)
 
das is aber exakt das gleiche wie bei dem vermeintlichen leak letztes jahr, wo die r600 noch mal überarbeitet werden sollte.. nja, wartet einfach auf die endgültige vorstellung.
 
@Hakan Na und schmeiss ich halt 4 maiskolben nach BIOGAS rockt he he
 
Das ist doch kein Fortschritt! Die einen bringen eine Karte mit 10% mehr Leistung durch Übertaktung + entsprechender Kühlung und die anderen produzieren Karten, die 3X soviel Watt wie ein Desktop-Rechner (8X wie ein Laptop) fressen. Noch weiter können die dieses Spiel nicht treiben, da es Grenzen gibt. ...müssen die Firmen also demnächst wieder auf "richtige" effizientere Leistung setzen.
 
na super, da hat ati ja echt mal mist verzapft. wer baut mir das AKW in den keller? leistung schön und gut, aber das ist einfach nur extreme stromverschwendung. und die länge. ich musste damals meine voodoo 5 schon leicht in mienem kleinen tower verkeilen, alle die nen etwas kleine tower haben, dürfen dann ein loch vorne in ihren tower sägen und die graka durchstecken... denken die bei ati überhaupt praktikabel? die NV dinger der 10er generation sehen da wesentlich ausgereifter aus, da kleiner und weniger stromaufnahme. das sieht mehr anch prototyp fürn markt aus... nein danke, so eine stromverschwendung kommt mir net in den rechner. die arme umwelt. die verbraucht ja locker 3 mal soviel wie mien ganzes notebook oO
 
LOL 270 Watt. Und ich bekomm schon ein schlechtes Gewissen wenn ich vergesse meine Steckdosenleiste, and der TV, SAT, WII, HIFI im Standby läuft, auszuschalten. Und dann soll noch so eine Stromschleuder bei mir stundenlang im PC laufen? Darauf verzichte ich gerne. :)
 
Ich halte das für schlicht einen Fake.
 
@.omega.: Wieso dies?
 
Also ich habe hier Daten von der Geforce 8900 GTX
Nvidia Geforce 8900 GTX(dual GPU):
- Dual GPU at 1.2GHz(800-1.6GHz)
- 1024 DDR4 2.4GHz RAM
- DX10 Full, incl. Shader Model 4.0
- Cine FX 5.0
- SLI Ready
- Win Vista Ready
- Ultra Shadow v.4.0 tecnology

Quelle : http://forums.vr-zone.com/showthread.php?t=118721
 
@Hakan:
Fake! Seit G80 ist CineFX (NV30 bis G7x) ad acta gelegt.
 
Bei der Größe könnte man direkt ein Epia10k auf die Rückseite basteln und hätte einen wunderbaren Zweit-PC zum nicht-zocken integriert.
 
Da verzichte ich doch gerne ! Habe gerade erst die Stomnachzahlung von 2006 überwiesen. Ob das der richtige Weg ist (270Watt)??????
 
Der News-Titel und Teile des Textes sind sehr sehr subjektiv. Ich hielt Winfuture eigentlich für eine objektive Newsquelle. Man kann sich täuschen...
 
@FloGatt: ist doch sachlich. Inwiefern setzt du im Zusammenhang mit dem Inhalt der News die Begriffe "objektiv" und "subjektiv" in Bezug? Klär mal auf. Der Text erweckt in mir weder den Eindruck, mir weismachen zu wollen, ich müsse sie unbedingt haben (wake up a hype) noch sagt er mir, es sei eine ökologische Katastrophe (duck it down).
 
@Hirschgoulasch69: Ich sag nur "echte Monster" (kann man verstehen wie man will) und "angesichts der beinahe unglaublichen Leistungswerte" (ganz eindeutig)...
 
Und sowas nett man Fortschritt...270Watt Stromverbrauch...

Da sollten die Hersteller nal ansetzten...was da an CO2 gespartwerden könnte ....
 
Ich beobachte die Entwicklung auf dem PC Markt nur noch mit Entsetzen. Auf Effektivität und Ökonomie wird überhaupt kein Augenmerk mehr gelegt. Hauptsache immer größer und schneller. Zum Glück für die Hersteller gibt es genug Leute, die diesen Wahn mit dem entsprechenden Kleingeld unterstützen.
 
... man wo hab ich denn... ich hatte doch noch irgendwo... ich weiß echt nicht wo mein Servergehäuse geblieben ist... naja... Kleiderschrank ausräumen, der tuts ja auch...
 
wetten es wird noch ne super ultra variante geben, die nur im bundle mit amd chipsatz und prozessor verkauft wird?
 
@Meri: Ob sich AMD mit so einer Effizienzkatatrophe schmücken will ist eine andere Frage.
 
@Meri: Du hast das extra 300 Watt Netzteil vergessen :)
 
Ich bin ja jetzt schon am heulen wenn ich bedenke das ich als Einzelperson 45Euro alleine Strom monatlich hinblättern muss. Nur weil ich zu faul WAR mein rechner mal auszumachen bzw mal die ganzen Standby Geräte zu ziehen. Ich bin zwar Leidenschaftlicher Gamer aber bei 270 Watt da hört der Spass echt auf. Das ist doch krank. Wenn ich mal 3000Euro netto verdienen sollte dann kommt so ein teil vielleicht mal bei mir innen Rechner, sonst wirds recht schwierig die Stromkosten zu bezahlen
 
Die Medien berichten täglich über die globale Erwärmung, Energieknappheit usw. und jetzt bringt man Grafikkarten mit einem Riesenverbrauch an Energie auf die Märkte. Irgendwie ticken die Hersteller nicht richtig. Mich nerven die Lüfter in den PCs. Egal wie leise sie anfangs laufen, sie werden lauter. Und nun explodiert diese Lüftersche.... sogar im Komponentenbereich.
 
Das Monster schaut mir irgendwie für den Massenmarkt untauglich aus.
Wo soll das noch alles hinführen ...270 Watt *rofl*
 
Oh Gott, die 3dfx Voodoo5 6000 ist wieder da, aber hat nicht NVIDIA 3dfx gekauft? *loool*. Aber 270 Watt sind doch ein bissl viel, oder ? Wie viel hatte nochmal die GeForce 8800GTX? Ich meine 130 oder so...
 
Ich finde bei solchen Grafikkarten sollte wie bei den Zigarettenschateln "Rauchen kann tödlich sein" auch ein Aufdruck vorhanden sein "Diese Karte kann sie arm machen".
 
@r0nnie: es gibt keine Sucht teure hardware zu kaufen, jedoch das zocken wird mittlerweile als süchtig eingestuft.
 
@r0nnie: "Diese Karte schädigt die Umwelt" .
 
@Fantastic: bist`n lehrer wa? oder plapperst alles nach.
 
Gib mir ein O,gib mir ein M,gib mir ein G!!!O..M...G..ich bin 25jahre als bekomme immonat "nur" 700 euro...zum leben bleiben 200 euro übrig..stom...hallo..ich wohne inner platte..huhu SEHE ICH AUS ALS OB ICH SOLARZELLEN AUFM DACH HABE?!?!?...HART AM LIMIT!!Achja und essen und trinken nur für mich kostet mich schon fasst 100 Euro..bleiben gerade mal 100 Euro danach übrig..nice..kauf ich mein strom in ALDI oder was?
 
@RomanGV1: Die Politiker würden sagen: Musst du was auf der Einnahmeseite machen.
 
@RomanGV1: Jaa, und du kanst dir auch keinen Ferrari leisten! Halo? das ist ja schrecklich! Ich finde man sollte dir die Karte schenken du brauchst sie ja so dringend und die menchen die die Karte entwickeln verdienen ja merh als du! Halo? Geld für alle! Halo? Steht nicht irgendwo in der Verfassung dass jeder Mensch das Recht auf eine Gratis-Graka hat? Halo? halo!
 
Das sind eben die typischen Auswüchse eines Duopols, darüber darf sich niemand wundern. ATI/AMD und Nvidia teilen sich den Gamer und Highend-Markt. Preisabsprachen, Technologieabsprachen und eine gemeinsame Marktstrategie ersticken die Innovation im Keim. Warum wohl sind die Leistungsdaten einer Generation von GPU's nahezu identisch... Dieser Handstaubsauger (oder soll das eine Grafikkarte sein?) ist eben das Ergebnis von fehlender Innovation, es ist billiger, an der Taktfrequenz zu schrauben und ein paar Pipelines oder Operatoren mehr zu verbauen - bis zu dem Punkt, wo die Kühlung zu aufwendig oder die Kunden nicht willens sind, ein solches Produkt zu kaufen. So lange, wie keine ernsthafte Konkurrenz den Markt betritt und der Kunde somit keine Alternativen hat, wird sich an dieser Entwicklung nichts verändern. Intel und AMD hätten wohl auch heute noch keine effizienten CPUs, wäre der (Server) Markt nicht gefährdet gewesen. Auf der einen Seite haben wir extrem unausgereifte, ineffiziente Grafikkarten, auf der anderen Seite befinden sich Spiele und Software, die so schlecht und schlampig programmiert sind, dass sie unnötig viel Leistung beanspruchen. Zusammen haben wir einen PC, der weit mehr Potential hätte, als genutzt werden kann. „Highend-PCs“ halte ich für blanken Euphemismus. Das Highend des Stromverbrauchs ist noch lange nicht in Sicht.
 
Das soll die Antwort auf Nvidia's DX10 Karte sein? Sieht eher aus wie 'ne Ausrede oder mein Toaster von innen. Da hat ATI beim Release der G80 wohl doch mal tief durchgeatmet und kurzzeitig den R600 gemoddet um jetzt klotzen zu können. Was würde wohl Nvidia mit 270 Watt für Benchmark Ergebnisse erzielen?
 
Ich frag mich, ob auch bald auf den Grafikkarten draufstehen muss, wieviel CO2 die ausstoßen (also für die Produktion der Energie) ^^
 
UIUI, da kann man ja gerade die Heizung ausschalten! Riesen Teil. Wird ja wohl auch nen bisschen was kosten :-) Naja, bin kein Gamer, brauche sowas nicht, Hab ne alte 9600er.
 
ATI...paaahh. Die nächste GFX die in mein PC kommt ist eh wieder von nvidia. Und zwar wird meine 6600GT durch die 8600 Ultra abgelößt.
Meine Meinung.

Peace.
 
1. Beim G80 wurden auch utopische Leistungsaufnahmen genannt.
2. Solche Lüfterkonstruktionen hab ich schon zur Genüge in Dell PCs gesehen
3. Wenn das die OEM Version ist. Übernehmen andere die Aufgabe, sich Gedanken zu machen, wie das Ding in ein Gehäuse passt.
 
Mich beeindruckt das überhaupt nicht. Eigentlich eher enttäuschend, dass ATIs Ingenieure wohl noch nie etwas von Effektivität gehört haben. Hardware fürs 21. Jahrhundert ist das jedenfalls noch nicht - wohl eher was aus dem Kalten Krieg :)
 
@tiadimundo: Geiler satz..ich knuff dich^^
 
ich sag nur eins: GEILO :O. WILL ICH HABEN! *sabber*
 
Da fühlt man sich echt total an 3dfx erinnert. Hochmut vor dem Fall?
 
Hm! Ich habe CS 601 Gehäuse, da paßt die Karte nicht mehr rein. Sollte nicht alles kleiner und schneller werden.
Haben wir bald wieder Kleiderschränke als Rechner?
Ich empfinde das als Rückschritt:(
 
cool, dann kann man ja bald wieder günstig nividias 8800gtx in ebay erwerben, gibt ja genug wahnsinnige denen die dann zu langsam ist bei 39% mehr ati power, weil sparen...
 
erst gabs das gejammer die intel pentiums seien verslust mässig die hölle....lol
 
Immer neue Hardware,der Nachteil ist,viel Bezahlt und in einem Jahr oder Früher hat man wieder ein altes Teil,das dann zum Spottpreis zu haben ist.
Also lautet die Devise,niemals das allerneueste Kaufen!!!
 
was mich aber freut ist, dass hier im Forum eine fast eindeutige Meinung dazu herrscht. Ca 50 beiträge "Oh mein Gott, was soll das", 2 mit "Toll, will ich" und der Rest off topic.

Noch vor einem oder 2 Jahren währen die "Ökos" hier in de rminderheit gewesen. In sofern tut sich da was, und wenn es auch nur aus "Egoismus" wegen dem eigenen Geldbeutel ist.

Jetzt zum Thema: Das ganze erinnert mich ein Bisschen an die Autoindustrie der USA in den letzten Jahrzehnten. Während in Europa die Motoren immer raffinierter wurde und 8 und dann 16 Ventile bekamen um mehr Leistung aus dem Kraftstoff zu pressen, hat man in den USA den Hubraum einfach von 6 auf 8 Liter vergrößert und gut. Irgendwie sehe ich das hier genauso: Wenn man die Karten "raffinierter" bauen würde, dann könnte man ein Vielfaches der Leistung erreichen. genau das braucht aber Zeit. Nach einiger Zeit gibt es auch die High-End-karten plötzlich "passiv". Nur das Produkt muss auf den Markt, zumindest so lange es diesen gibt. Wenn es aber überall so ist wie in diesem Forum, nämlich dass nur 4% Tendenz abwärts bereit sind, sowas zu kaufen, dann freut mich das.
 
@torben85: Naja ich würd mich ja glatt für sowas begeistern aber ich bin nVidia Fanboy und bei mir kommt keine ATI ins Haus ^^ Anfang/Mitte nächsten Monats schnapp ich mir ne 8800GTX wenn die auf unter 470€ fällt.
 
Naja...Ati wird Nvidia nie das wasser reichen können.....
Hab zz auch Ati und weiss jetzt, das ich mir nie weider ati holen werde.
Schon allein wegen der Treiber ladezeit
 
@EnjoyME: wie lange beschäftigst du dich mit dem pc ? ein halbes jahr ?"!
absolutes gequake....
 
Finde es erstmal gut dass hier viele an den Energieverbrauch und an die Umwelt denken. Habe mir mal auf dieseer Seite (dhttp://level505.com/2006/12/30/the-full-ati-r600-test/1/ie )Benchmarks angesehen. Meine Meinung zu Diesem ist, daß Ati vorschnell zeigen wollte, dass sie auch Imstande sind eine "DX 10-Karte" zu BAuen und Selbige auf den MArkt zu bringen. Die Benchmarks sind im Vergleich zu Nvidia für meine Meinung nach Minimal. Gut, Sie haben paar Pkte. mehr auf der Skala, dies ist aber im Endeffekt für mich kein Grund DIESE Karte zu kaufen. Auch denke ich dass diese Karten in naher Zukunft Stromsparender werden, denn dafür wird, wenn auch indirekt, AMD sorgen. Nene, für mich ist dies nur so eine Art Schleichwerbung, wenn auch dieser Begriff nicht den Pkt. trifft, -Man soll eben Ati nicht vergessen: Nach dem Motto: Wir sind auch noch DA.
 
Habe mir 1991 eine 8 MB Speichererweiterungskarte für meinen 386SX -16 gekauft, die war etwa genauso lang und schätzungsweise fast so teuer (500 EUR) *g*
 
Mittlerweile frage ich mich, wer sowas überhaupt braucht.
 
erst mal was haben was das zeug ausnutzt......
 
Ich sag mal Voodoo 5 6000 lässt grüßen. Die hatte damals ähnliche Abmessungen.

Warum diese Riesen OEM Version?
 
Die meisten hier sind sowieso nicht Volljährig und Stromrechnung wird bezahlt von Mammi und Papi kommt mir so vor. Verwöhnte Bengel.
 
Mein Gott, was für eine elende Rückentwicklung!
Damit hat sich Ati einen totalen Eigentor geschossen.
Wenn man so viel Strom verbraucht für eine Grafikkarte, hört der Spass auf.Das geht richtig ins Geld...Ich musste 1000 Euro nachzahlen an Stromkosten.Ich überlege mir jetzt 10fach bevor ich mir so einen elenden Stromschleuder in den PC einbaue.
Bin froh, daß ich jetzt alle Komponenten superleise bekommen habe.So aber NICHT ATI!!!
Ich werd echt verrückt, sind wir wieder in der PC-Steinzeit oder was?
Die sollten diesen Schrott garnicht erst rausbringen, sonst blamieren die sich zu Tode.
Die Hersteller sollten echt Ihre Grenzen kennen...Kopfschüttel
 
Also ich glaub nicht das ATI dieses Ding wirklich auf den Markt bringt. Dieses "Monster " ist glaub ich wohl überhaupt nicht wettbewerbsfähig. Selbst wenn NVIDIA's Karten nur die hälfte so langsam sind, aber weniger als die hälfte an Leistung "fressen" werden 90% der Leute wohl eher die nehmen als die hier vorgestellte.
Und ich glaube nicht das ATI (zudem mittlerweile AMD) sich die Blöße gibt.
Wir errinnern uns das solche "Monster" 3dfx damals in den Ruin gebracht haben.
Ich sag nur Multicore usw. das ist nicht etwa auf dem Mist von NVIDIA oder ATI oder AMD oder INTEL gewachsen. Nein. denkt mal an die Voodoo5 :)
Solch ein "Monster" was in fast keinen TOWER geht hatten wir schon mal.

Von daher glaube ich das das eher in Richtung Prototyp geht.
Aber falls es dann doch so kommen würde, dann auf Wiedersehen AMD(ATI). Dann könnt ihr die Grafikkarten Sparte gegenüber NVIDIA mehr als voll vergessen. Das wird dann wohl nix.
Von daher hoffe ich nur das das hier ein absoluter Fehlalarm ist und sich alles zum Guten alten Kampf zwischen ATI (AMD) und NVIDIA entwickeln wird, welcher sich ja bekanntermaßen als Preisdrücker für den Endkunden erweisen sollte, könnte, würde, ...
(Hoffentlich) gar nicht auszudenken wenn hier eine Firma die absolute Monopolstellung erringen würde.

Fazit: Liebes Liebes ATI (AMD). Macht nicht den selben Fehler wie 3dfx damals und setzt nur auf Leistung. Das könnte nach hinten los gehen. Machts wie immer und bringt ne gute Graka mit super Leistungsdaten und akzeptablem Stromverbrauch und Größe raus. Auch wenns etwas länger dauert als bei NVIDIA.
:) :) :D
 
@TheKiller: Absatz wird die mit sicherheit auch haben und ne kleinere version solls ja auch geben. Wenn Preis und Leistung gut sind werde ich sie mir holen. Bei der Länge noch 2 Slots verbrauchen das hätten sie anders lösen sollen. Ich war ja davon ausgegangen das sie mehr in die Länge gehen so das keine 2 Slots verbaut werden.
 
Taktet die sich im 2D Betrieb eigentlich runter...? Wie CnQ oder Speedstep bei AMD bzw Intel?
 
270 watt ? die richtige karte für die nsa
http://www.heise.de/newsticker/meldung/85046
 
Ich brauche keine solche Karte,ich bin doch nicht verückt!
Da ich auf meinem PC überhaupt keine Spiele mache!
Mit dem Geld kaufe ich mir lieber einen Ferngesteuerter Modellbausatz da habe ich was fürs Geld ( Einen neuen Truck Peterbilt)

Gruss Beätu
 
@haennibeat: Vielleicht eine komische Frage aber wenn du sie weder willst, noch in irgendeiner Weise brauchst und du auch nicht spielst warum liest du dir den Artikel durch oder postest irgendwas von einem Modellbausatz was nix damit zu tun hat? ^^
 
OMFG, na wer's braucht. Sieht bestimmt geil aus in meinem Gehäuse wo zwei Netzwerkkarten und eine Soundkarte drin sind, bei denen das Slotblech breiter als die eigentliche Karte ist :-D
 
ich hab ne fx5200 am laufen und bin glücklich, ich kenn nix schnelleres also is die fx5200 für mch schnell, dieses bonzenteil würd nichtmal in mein gehäuse passen (hab aber eh kein pcie lol)
 
ja damit die mini animationen@vista auch gut laufen ^^
 
Ich würd die Jungs die hier sagen "Who cares about" mal für 270 Watt auf nem Fahrrad strampeln lassen ^^
 
Geile Graka... will ich!! Da werd ich dann meine Heizung als WaKü dran anschließen, dann wird die Energie optimal genutzt und die Karte is wieder umweltfreudlich. ... Nur was mach ich dann im Sommer? oO [...] 270W ihr habt wohl nen Schaden ihr ATI-Ingenieure. mfg Aerith
 
Wer sich so ne Karte kauft fährt Audi Q7, Porsche Cayenne Bi-Turbo oder Mercedes ML....
Was geht mich das Elend der Anderen an. CO2 lässt grüssen
 
Wer packt sich denn so ein Monster in den PC? Also, ich persönlich würde da dann doch eher zur NVIDIA greifen, auch wenn die letzten beiden Grafikkarten von ATI waren. :)
 
Ich hab ein Notebook mit nem P4 3,8 ,2Gig und ner 7900GTX. Der Adapter hat eine Wattzahl von 220Watt.Und das fürn Notebook.Warum brauchen die Tower überhaupt soviel Watt?
 
also das ist der hammer aber was wenn man die in SLI mod laufen lies ja dann hat mann grafik power satt
 
D3xter
Warum sollte ich das nicht lessen???????????
Ich kann doch lessen was ich will!
Und das andere das ist meine Meinung,Du hast sicher auch eine eigene Meinung!

Ich gebe lieber das Geld für einen Truck RC Bausatz aus (Ferngesteuert) als für ein solche teure Grafikkarte.
Warum: wenn man nach einem Jahr diese Karte kaufen möchte,bekommt man Sie schon für ein Trinkgeld,da sieht mann dan schon was so eine teure Karte wert ist. Nämlich einen scheiss!
Das ist bei meinem Hobby nicht so,da bleibt der Preis plusminus 10% immer gleich.

Ich sage es nochmal das ist meine Meinung!

Die User wo so eine Karte brauchen das ist OK,das ist euer Hobby!
Meines ist der Modellbau.
 
@haennibeat: Mensch, wen zum Teufel interessiert das! Geh auf deine Modelbau-Freaks-Forumseite und gib Ruhe! Dir hat einer nur gesagt du sollst nix posten, was net zum Thema passt. Hier steht winfuture.de in der Adressleiste und net modelbaure.de ...
 
Wenns nach den Bayern geht wird Grafikkarten-Power bald überflüssig :-)
 
Erinnert mich die GeForceFX-Reihe von 2002, zu der die Macher sogar einen kurzen Film angefertigt haben, in dem die witzelnden Vergleiche mit der Geräuschentwicklung von Haartrocknern, Laubsaugern u. Ä. der Nutzerschaft aufgegriffen wurden.
http://www.youtube.com/watch?v=lWuSKXo98kE
 
hi,
die karte wird sicherlich keine 270W verbraten... die ersten aussagen über den g80 chip bzw. der 8800gtx lagen auch höher als was die nvidia karten in der praxis verbrauchen. viel anders wird es bei der ati wohl auch nicht sein. deshalb abwarten bis die karten im handel sind bzw. mehr reviews das ganze aufklären.
allerdings sind 270W auch gar nicht so viel. ich hatte mal zu oc zeiten 3 peltiers am start - 2 x 226W und 1 x 180W. dazu kommt noch das extra netzteil mit 15V 25A nur für die peltiers. natürlich ist da nichts für 24/7 da das system im leerlauf schon knapp 750W verbraucht hat. war halt nur fürs overclocking gedacht, p4 2,8 M0 @ 5,1MHz, da peltiers so mit das unwirtschaftlichste ist was man für cooling anwenden kann...
cya CreutZFeldT
 
Der Tag wird kommen, an dem eine normale Steckdose für den PC nicht mehr ausreicht. Dann wird ein CEE 16A Anschluss am Schreibtisch benötigt. Besonders die Extremzocker werden sich umgucken, wenn sie in einer Nacht 3 -4 kWh verbrauchen.
 
ja so viel strom brauch mein crossfire mit den 2 1950xtx ja jetzt auch schon. unter einem 580watt nt fährt mein rechner erst garnicht hoch.
mfg N.B.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles