Nvidia zeigt die SLI-Performance Lösung

Hardware Zu Zeiten der Voodoo 2 war es bereits möglich, zwei dieser Grafikkarten zu kombinieren um einen starken Leistungssprung zu erhalten. Damals wurde dieses SLI Feature noch Scan Line Interleaving getauft und 3D-Freaks dürften sich noch daran erinnern. ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich halte es für ein wenig überzogen, für Grafikkarten sage und schreibe 4 Steckplätze zu opfern. Bei durchschnittlich 5 bis 6 Slots sind so nur noch 1 oder 2 Steckplätze frei. Ich würde es begrüßen, wenn man es schafft, auf einer Karte diese Funktionalitäten unterzubringen. 4 Ausgänge wird wohl niemand benötigen.
 
Diese Karte wird wohl auch mehr für "professionelle" Anwendungen gedacht sein... Und richtige "Hardcore Zocker-Freaks" werden sich diese Karte vielleicht auch noch leisten :)
Aber ansonsten ist es tatsächlich sehr heftig...
 
Antwort auf den Kommentar von connector2004
jo das mit den 4 slots wollt ich au sagen. dann passt ja grad noch meine soundkarte rein (muss ja einen freilassen wegen der abwärme) oder meine Netzwerkkarte...
naja wenns wirklich nur für den grafik/video bereich ist dann kann ich das noch verstehen. aber für die breite masse werden sie sowas wohl nicht umsetzen können... allein schon wegen der stromaufnahme und der produzierten abwärme!
 
So neu ist die Idee mit den 4 verbrauchten Steckplätzen auch nun nicht mehr... wenn ich mich recht entsinne hatten Evans&Sutherland vor ein paar Jahren (vor AGP) mal eine Lösung entwickelt, die sich auch mit vier PCI-Slots begnügte, um endlich genug Daten in dieses Ungetüm schaufeln zu können.
 
@sengsta -> http://doppelwinkel.funpic.de/quantummercury.jpg
 
Das ding ist ja hauptsächlich für den Professionellen einsatz gedacht. da kommt es nicht so sonderlich auf die menge der freien steckplätze an. und auch die 4 ausgänge könnte ihc mir in cad programmen als sehr sinnvoll vorstellen. aber gut, das 3dfx noch immer lebt :D
 
wo steht, dass 3dfx noch lebt?
 
weil der krahm mit der bücke zwischen den grakas lezten endes auf 3dfx technologie basiert.
 
für den profibereich? nehmen die nicht eher die quadrokarten von nividia. aber die idee das so zumachen is auch was für gamer, aber nur für welche mit dickem geldbeutel. :)
 
...is doch egal. [Quote]Schließlich spricht man damit keinen klassischen Spieler an, wohl eher CAD– und Grafik–Entwickler, was ja direkt im Zusammenhang mit der SLI Lösung für Quadro-Grafikkarten steht.[/Quote]... und wenn du zum Beispiel 3D Studio Max benutzt, kannste damit hervorragend alle 4 perspektivenfenster auf 4 bildschirme legen oder so...
 
Is doch ne feine Sache, zwei gebündelte Heizungen, spart im Winter ordentlich Heizkosten :-)
 
Antwort auf den Kommentar von MikaThing: Bitte nicht sowas unsachliches! Zwar erzeugen die viel Hitze, aber so ein Comment wie deiner ist unnötig!
 
Och komm. :-) Der Spruch ist nostalgisch. Der hat vor 10 Jahren schon (nicht) schlau gemacht.
 
mit 2 nvidia6800er auf dem board muss man schon fast angst haben das es auf dem board nicht die steckplätze aus der verankerung reist :p
 
mal ne kleine frage... wenn EINE 6800 schon n 400 Watt Netzteil braucht.....
 
dann brauchst für 2 max 550 watt :P eine brauch so 100 watt
 
also ich würd sagen dass die karte auf der quatro 4000 oder so basiert
und von wegen dass es keiner braucht
und wenns wirklich ist kann man immer noch ne speziallösung machne in dem man nen größeren abstand lässt so dass immer soviel platz freilässt zwischen den karten dass man den platz optimal ausnutzt und denoch keine slots verschwendet
wäre denkbar dass man für ne solche lösung sogar 2-3 PCI express controller macht und so 4-6 16xsteckplätze macht mit ner paarung von solchen karten dann noch nen quadro prozessor gespann und es ist die ideal render plattform
wenn in 1-2 jahren mit den karten dann noch univereller einsetzbar ist kann man alles in hardware berechnen und man spart sich bei renderfarmen sicher gleich mal einige % der rechner systeme
derzeit sinds ja nur simple xeon systeme oder derartiges und dann auch so 1000 prozis mit grafikchips in der kombination wie ich sie genannt habe könnte man das stark reduzieren
ist meine meinung wär vor allem der berechnungszeit dienlich statt 2-8 h pro frame halt nur mehr ne minute oder so wär durchaus denkbar
dazu müsste die rechengenauigkeit für diesen zweck nochmals um faktor 16 erhöht werden min damit die langen shader programme nicht zu viele rundungsfehler haben summiert sich bei ner shader länge von ner million zeilen code sehr schnell an

is meine meinung sagt mir was ihr davon haltet
 
Wenn 1 High-End-Grafikkarte schon 500-600€ kostet, dann kosten 2 ja das doppelte... :) Mann weiß ja nicht ob wirklich 100% mehr Leistung drinnen ist. Wenn man noch die Daten für die Synconisation abzieht bleiben vielleicht noch 75% Mehrleistung....
 
wär schon geil wenn in 2 jahre ne 6800 pro (oder so) nurnoch 50 euro kostet, sich gleich 4 zu kaufen, aber glaube in 2 jahre hat ne graka für 200 euro eh mehr drauf als 4 von denen, also wirds für mich wohl nie intresannt -kreischwein-
 
irgendwann war ma sone werbung vonnem stromanbieter "jeder stellt sein strom bald selbst her" oder so ähnlich, ich glaub die wussten das schon das wir das bald eh machen müssen dank der stromfresser ^^
 
@FileMakerDE na das hast du ja geschickt kombieniert, sa-gen-haft, wenn ein 500 kostet dann 2 das doppelte. wow.
aber im grunde hast du ja recht, angenommen ich würde mir jetzt eine davon für 500 eus kaufen, dann kann ich mit der schätzungsweiße 1-1,5 jahre wirklich gut zocken, dann hole ich mir eine neue für 500. die unterstützt dann aber effekte die auch 2x 6800 nicht hinbekommen würden, also kompletter schwachsinn, denke ich, lieber die kohle sparen und auf dx 10 warten.
 
Ich glaube das "Lead Balancing" heißt richtig "Load Balancing" :)
Grüße
 
Vorallem wäre es zu begrüßen, wenn man für zukünftige Grafikkarten kein AKW benötigen würde. Denn erst erzeugt man mächtig viel Hitze, dann führt man diese mit riesigen Lüftern aus dem Gehäuse und ins Zimmer stellt man sich dann am besten noch eine Klimaanlage und besorgt sich nen Monatsvorrat an Oropax...
 
Alzheimer,nVidia!
Kommentar abgeben Netiquette beachten!

Weiterführende Links