Brandheiß:Gigabyte mit zwei GeForce 6600GT auf einer(!) Karte+erster Test!!!!!!

  • Quellen: tweakpc und computerbase

    Die SLI-Funktion ermöglicht eine Kombination von zwei Grafikkarten um die Leistung zu erhöhen, wieso sollte das nicht auch auf einer Grafikkarte realisierbar sein? Es gibt keinen Grund, daher entwickelt Gigabyte gerade solch ein Modell.

    Gigabyte nutzt also zwei GeForce 6600GT-Chips, die auf einer Platine verbunden werden und dann in einem PCI Express x16-Slot Platz finden. Mit diesem Konzept lasse sich Geld sparen, so seien die beiden Grafikchips preiswerter als ein High-End-Chip und man benötige kein teures SLI-Mainboard mit zwei PCI Express-Steckplätzen. Um etwas Geld zu sparen wird jeder der beiden GeForce 6600GT-Chips auf lediglich 128 MByte Speicher zurückgreifen können, beim Speicherinterface spart Gigabyte allerdings nicht. Hier stehen beiden Chips die üblichen 256 Bit zur Verfügung.

    Wann die Karte im Handel erscheinen wird ist bislang unklar, den Gerüchten zufolge soll sie am 24.Dezember vorgestellt werden. Dann soll ein Paket mit Grafikkarte und Mainboard angeboten werden, über dessen Preis allerdings auch noch nicht entschieden wurde.

    Erster Test der Dual-6600-GT-Grafikkarte

    Bei http://www.ocworkbench.com gibt es das erste Review zu Gigabytes kürzlich vorgestellter Grafikkarte namens „3D1“, die zwei nVidia 6600 GT-GPUs auf einem PCB vereint und SLI auf einer Karte möglich macht.

    Was die Geschwindigkeit anbelangt, so verhält sich die 3D1 unter Einsatz des ForceWare 66.93 exakt wie zwei in einem konventionellen SLI-Setup getestete Karten. Im 3DMark05 legte sie bei ocworkbench 74 Prozent - und somit genau unser Ergebnis mit zwei Asus-Karten - zu. Mit dem von Gigabyte zur Verfügung gestellten ForceWare 71.24 konnte die Karte zumeist noch ein paar Prozentpunkt hinzu gewinnen. Da mit dem Treiber kein Single-Setup mitgetestet wurde, kann vorerst nicht geklärt werden, ob dieser Vorteil (eventuell auf eine Modifikation seitens Gigabyte zurück zu führen ist und) nur für die 3D1 zu Buche schlägt. Setzt man den offiziellen 66.93 ein, so scheint die Karte keinen Geschwindigkeitsvorteil bzgl. zwei separater 6600 GTs im SLI-Setup zu besitzen.

    Futuremark 3DMark05
    ocworkbench:
    GV-3D1 Dual mit 71.24

    6.243
    GV-3D1 Dual mit 66.93

    5.716
    GV-NX66T128D-3 mit 66.93

    3.276

    Angaben in Punkten

    Interessant ist, dass http://www.ocworkbench.com nicht in der Lage war, die Karte auf zwei anderen Mainboards zum Laufen zu bringen. Möglicher Weise möchte Gigabyte die Karte tatsächlich nur auf dem eigenen SLI-Board GA-K8NXP-SLI anbieten und so einem handfesten Streit mit nVidia aus dem Weg gehen. Wie Gigabyte die 3D1 technisch denn nun genau auf die Beine gestellt hat und ob es möglich sein wird, zwei dieser Karten im SLI zu betreiben, bleibt indes weiter ungeklärt.


    Link zum Bericht (english): http://www.ocworkbench.com/2004/gigabyte/ga-k8nxp-sli/g1.htm

    signatur_tie-fighter.jpg
        
    "Ich bin unschuldig, ich bin Amerikaner"

    Zitat:

    Baphomet's Fluch 1

  • Zitat

    Originally posted by AnTiTraX-2010^Alien
    Lassen wir uns überraschen.
    Ist sicher etwas für alle die eine kalte Wohnung haben und Strom sowieso beim Nachbarn klauen. ;)

    :tlt:Cheers:tlt:

    Jo-Doppellüfter-könnte ordentlich Krach machen...und Strom ziehen wird das Ding sicherlich auch ordentlich, da gebe ich Dir Recht-PCI-E sieht ja schon in der aktuellen Fassung 75 Watt für den x16-Slot vor-und das ist manchen Karten noch nicht genug...

    signatur_tie-fighter.jpg
        
    "Ich bin unschuldig, ich bin Amerikaner"

    Zitat:

    Baphomet's Fluch 1

  • Zitat

    Originally posted by AnTiTraX-2010^Alien
    Und der hält bis heute an. Ach nee, Du sprichst ja von Strom. ;)

    :tlt:Cheers:tlt:

    Also ich sags mal so, dann lieber Lara Croft mit eckigen Titten ( übertreib ) Strom ist nicht nur gelb sondern auch teuer, der TRS Rat sollte hierbei lauten...

    Paar Ecken mehr und gut ist - oder... Liebe Coder, schaut euch mal an - was aus ner X-Box und PS2 geholt werden kann und aus der PS1. Amiga und C-64 geholt wurde, da ist definitiv mehr drin heute, als andauernd neue Hard(core)ware zu ordern....

    signatur_ami-01.jpg

    Respect the Scene, Respect their Work !

  • Ja, selbst Intel, der Freund der Stromkonzerne überhaupt, bringt im (noch muss ich ja sagen) nächstem Jahr Stromspartechniken bei seinen CPU's-AMD hat dies ja bereits getan und sogar in seine Serverprozzys der Opteron Reihe integriert-auch die normalen A64 und FX beherrschen das Cool'nQuiet. Normalerweise reicht auch für ein stärkeres Mainstreamsystem ein gutes 350 W Markennetzteil. Erst bei SLI-Systemen oder Highend Boliden mit P4 EE oder A FX nebst mehreren HDDs, DVD's, Brennern und vor allem stromdurstigen Grafikkarten jenseits der 400 Euro-Marke benötigt man Servernetzteile mit 450 W und mehr in seinem Desktop.

    Des weiteren liebe Overclocker: wer durch seine Hardwaremodifikationen die Vcore der CPU, Mainboards Dimms etc. angehoben hat, hat teilweise einen wesentlich erhöhten Stromverbrauch-dies können schon ein paar Euro im Jahr sein...

    Sinnvoll die Hardware auswählen und eher im günstigeren Mainstreambereich bleiben-da spart man Geld und Strom und kann dann lieber ein Jahr später die neue Mainstreamgeneration kaufen, die dann meistens schon wieder die alten High Tech Teile von heute schlagen (siehe GeForce 6600 GT-schlägt die FX 5950 um längen...).

    signatur_tie-fighter.jpg
        
    "Ich bin unschuldig, ich bin Amerikaner"

    Zitat:

    Baphomet's Fluch 1

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!