Schwerer Start des XGI Volari DUO V8

Campari

Grand Admiral Special
Mitglied seit
17.10.2000
Beiträge
17.203
Renomée
156
Nachdem kürzlich die <a href="http://www.hardtecs4u.com/?id=1070456111,19426,ht4u.php" target="b">Auslieferung</a> des Flaggschiffs aus dem Hause XGI begann, heißt es nun: Kommando zurück!
Wie unsere Partnerseite <a href="http://www.3dcenter.org/#2003-12-04" target="b">3DCenter</a> berichtet, zieht XGI alle bislang ausgelieferten Karten zurück. Temperaturprobleme mit dem verwendeten DDR2-Grafikspeicher sollen hierfür die Ursache sein. Ab Januar wird XGI einen weiteren Versuch starten - dann allerdings unter Verwendung von DDR1-Speicher. Somit steht der Angriff auf ATI und NVIDIA unter keinem guten Stern, zumal im <a href="http://www.club-3d.nl/archivos/XGI%20Guide.pdf" target="b">Quick Installation Guide</a> von Club3D ein weiterer Stolperstein zu finden ist.<ul><i>Your power supply in your system must match to the following two requirements.
1.) XGI Volari DUO V8 requires a 400 Watt power supply. Please check the power rating of power supply in your system.
2.) External DC power supply for XGI Volari DUO V8 must both be connected before power up during installation.
Power on without external DC power is connected may cause unpredictable damage to the system and XGI Volari DUO V8.
It is recommended that two external power connectors for XGI Volari DUO V8 source from different power cables.</i></ul>
 
hm finde es schade das es XGI nicht so richtig hinbekommt die karte auf den markt zu bringen

wäre ja für den kunden gut (preislichgesehen)
den konkurenz belebt ja angeblich das geschäft

aber mit dem 400W nt als empfolende powerversorgung
ich weis ja nicht ob das so der richtige weg sein wird

aber man wird sehen was passiert oder eben nicht
 
Glaube das wird nichts, die Leute fangen doch jetzt erst an von 300 auf 350 Watt zuwechseln . Soviel besser kann die Grafik nicht sein das Sie den Preis eines neuen 400 Watt Netzteils rechtfertigt .
 
Das Ding hat ja auch nur zwei GPUs! Pro GPU eine Spannungsversorgung erscheint mir angebracht. Und mit 2x8 Pipelines und 2x350 MHz könnte das Ding recht fix sein (wenn der Chip selbst entsprechend gut ist)...

Aber ich nehme mal an, es gibt noch keine verwertbaren Benchmarks?

m.f.g.
BoMbY
 
TOTGEBURT *lol*
mit 256Bit allgemein übergreifendem Interface und schnellen DDR1 wären sie der Konkurenz auf und davon..
aber so ne ne ne..
 
Original geschrieben von BoMbY
Das Ding hat ja auch nur zwei GPUs! Pro GPU eine Spannungsversorgung erscheint mir angebracht. Und mit 2x8 Pipelines und 2x350 MHz könnte das Ding recht fix sein (wenn der Chip selbst entsprechend gut ist)...

Aber ich nehme mal an, es gibt noch keine verwertbaren Benchmarks?

m.f.g.
BoMbY

beim tecchannel gabs vor nem Monat Benches des Beta-Modells, die nicht so prickelnd waren, zumal die Treiber alles andere als brauchbar waren. Hinzu kommt in dem Fall, dass das Betading sogar höher getaktet war, als das Serienmodell.

128Bit Speicheranbindung pro GPU ist im High-End Sektor auch nicht mehr zeitgemäß.
 
sitzung des vorstands:
Cheffe: "wir müssen die karten zurückziehen, die RAMs glühen"
marketing depp: "wie? DDR2 Speicher wird heiß?"
cheftechniker: "ey ruhig alder, alles net so wild. bleib cool"
cheffe: "jones, sie sind gefeuert"
marketing depp: "wie heiß???"
cheffe: "schlimmer als bei den 9800Pro 256 von ATI"
marketing depp: "ATI ??? was is das?"
cheffe: "auch sie dürfen sich jetzt als gefeuert ansehen"

anruf bei revoltec: "hey jungs, ihr habt net zufällig ne palette chip-freezer auf lager?
revoltec: "doch klar, wieviel wollt ihr"
XGI: "naja, wie müssen alle unsere top-modelle damit ausrüsten"
revoltec: *sabber*
XGI: "ja, alle 20"


MFG IVI
www.orthy.de
 
nachdem im forum die diskusion dazu schon länger da ist als hier die news, bin ich zu dem schluss gekommen, das ich so ein teil haben will. egal obs schnell ist, egal obs teuer ist, aber es ist eben was total anderes. mal was neues. hatte bisher sowohl ati als auch 3dfx und nvidia in meinen pcs. warum also nicht jetzt mal was ganz anderes.
 
Du kannst dir auch eine 3D-Labs, Matrox usw Karte kaufen ;)
Nur vielleicht haben ATI Karten halt ein besseres P/L Verhältnis, vielleicht werden sie deshalb auch zum Großteil gekauft... :]
 
Original geschrieben von Friday69
TOTGEBURT
Leider richtig. Durch die Verzögerung jetzt kommt die Karte definitiv zu spät, Weihnachten ist gelaufen.
Außerdem war der Preis einfach zu hoch. 2 GPUs schön und gut, aber niemand bezahlt einfach so mehr Geld für gleiche Leistung.

Die V8 Duo mit effektiv 128MB (zwar 256MB, aber Daten sind doppelt vorhanden) sollte ja ungefähr so schnell sein wie eine Radeon 9700pro bzw. 9800non-pro. Und wenn man sieht, daß man eine 9800PRO schon für 300€ bekommt, kann man die V8duo nicht für 400€ losschlagen, vor allem da sie als Neueinsteiger kein Image haben, für das man extra Geld verlangen kann (wie nVidia, Intel oder Mercedes) bzw sogar ein eher schlechtes wegen der SiS-Wurzeln (Treibertricks, Billigheimer etc.). Und ausgereifte Treiber sind auch nicht da als Verkaufsargument.

Halbes Jahr früher und dann für einen konkurrenzfähigen Preis (d.h. unterhalb der leistungsmäßig gleichen Ati-/nV-Chips), dann hätten sie eine Chance gehabt, aber so nicht mehr.
Schade, hätte gerne einen 3. Spieler im Markt gesehen, aber nur mit dem Wohlwollen von irgendwelchen Freaks erreicht man keinen Marktanteil.
 
Tja ist echt schade...

Tests gabs auch in der aktuellen PCG Hardware...
und das sah nicht so toll aus....
Lag so bei ner 5600ultra...........das sagt alles....
 
*lol* ... Anschluss von zwei Stromanschlüssen empfohlen? Meine Güte, wieviel zieht das Ding denn? Wird ja langsam lächerlich. Bald findet man keine beigelegten Games mehr, sondern Gutscheine für EON & Co. ;D
 
Original geschrieben von Scay`Ger
*lol* ... Anschluss von zwei Stromanschlüssen empfohlen? Meine Güte, wieviel zieht das Ding denn? Wird ja langsam lächerlich. Bald findet man keine beigelegten Games mehr, sondern Gutscheine für EON & Co. ;D
was würde wohl passieren, wenn ati und nvidia zwei chips auf eine platine setzen würden? na? wir würden mit einem 400watt nt wohl ziemliche probleme bekommen. ich find' die idee gar nicht so lächerlich, aber die ausführung... :]
 
Nur mit dem Unterschied, daß XGI anscheinend die zwei GPUs benötigt um überhaupt erstmal an die Leistung der jetzigen ATi- und NVidia-Chips zu kommen. Also ich würde mir so einen Geldvernichter nicht in die Kiste stecken.
 
öhm, warum sollte ich mir n jeep im stadtverkehr kaufen?

das zum verbrauch :>, also 400 watt... ne lass ma steckn.

ah noch was, also mal angenohmen ich hab 400 watt drin, weil ich eh dualcpu drin hätte, lutschen dann nich die beiden cpus wieder alles weg? ich mein welcher mensch hat sonst einfach so mal 400 watt drin, wenn er den saft nich schon für was anderes nutzen würde?
 
Zuletzt bearbeitet:
Original geschrieben von Dymas
öhm, warum sollte ich mir n jeep im stadtverkehr kaufen?

das zum verbrauch :>, also 400 watt... ne lass ma steckn.

ah noch was, also mal angenohmen ich hab 400 watt drin, weil ich eh dualcpu drin hätte, lutschen dann nich die beiden cpus wieder alles weg? ich mein welcher mensch hat sonst einfach so mal 400 watt drin, wenn er den saft nich schon für was anderes nutzen würde?
Ich bin einer der Menschen, die ein 430 Watt Netzteil haben, ohne es bisher vollkommen auszunutzen, nachdem mein 300er etwas knapp wurde, bin ich erstmal lieber auf Nummer sicher gegangen, man kannn ja nie wissen, was man sich als nächste Hardware zulegt ;)

Davon abgesehen: Das die Karte für die Tonne ist konnte man sich doch nach dem ersten im Netz aufgetauchten Screenshot des 3dmark2003 Ergebnisses doch wohl selbst ausrechnen:
Minimal bessere Werte als eine 9800 was Texturing angeht, aber nichtmal die Pixel- und Vertexshaderleistung eines 9600Pro (und das bei 2 Chips!).
Und den Texturing-Ergebnissen von SIS-Produkten kann man nicht trauen (siehe Xabre und Texturqualität).
Bei solchem Stromverbrauch und der Leistung (nur 128bit Bus, für SS-AA viel zu knapp und nur 4x AF) würde ich das Teil nicht kaufen, solange es mehr als 150€ (also mehr als eine billige aber ausgereifte 9600pro) kostet. Und das eine Dual-Chip Lösung für 150€ nicht machbar ist kann sich jeder mit gesundem menschenverstand an seinen 5 Fingern ausrechnen...
Zur der gesamten Volari-Chips-Linie habe ich nur ein Wort zu verlieren: Verkackt...
 
Zuletzt bearbeitet:
Zurück
Oben Unten