App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Schwerer Start des XGI Volari DUO V8
- Ersteller Campari
- Erstellt am
Campari
Grand Admiral Special
- Mitglied seit
- 17.10.2000
- Beiträge
- 17.203
- Renomée
- 156
Nachdem kürzlich die <a href="http://www.hardtecs4u.com/?id=1070456111,19426,ht4u.php" target="b">Auslieferung</a> des Flaggschiffs aus dem Hause XGI begann, heißt es nun: Kommando zurück!
Wie unsere Partnerseite <a href="http://www.3dcenter.org/#2003-12-04" target="b">3DCenter</a> berichtet, zieht XGI alle bislang ausgelieferten Karten zurück. Temperaturprobleme mit dem verwendeten DDR2-Grafikspeicher sollen hierfür die Ursache sein. Ab Januar wird XGI einen weiteren Versuch starten - dann allerdings unter Verwendung von DDR1-Speicher. Somit steht der Angriff auf ATI und NVIDIA unter keinem guten Stern, zumal im <a href="http://www.club-3d.nl/archivos/XGI%20Guide.pdf" target="b">Quick Installation Guide</a> von Club3D ein weiterer Stolperstein zu finden ist.<ul><i>Your power supply in your system must match to the following two requirements.
1.) XGI Volari DUO V8 requires a 400 Watt power supply. Please check the power rating of power supply in your system.
2.) External DC power supply for XGI Volari DUO V8 must both be connected before power up during installation.
Power on without external DC power is connected may cause unpredictable damage to the system and XGI Volari DUO V8.
It is recommended that two external power connectors for XGI Volari DUO V8 source from different power cables.</i></ul>
Wie unsere Partnerseite <a href="http://www.3dcenter.org/#2003-12-04" target="b">3DCenter</a> berichtet, zieht XGI alle bislang ausgelieferten Karten zurück. Temperaturprobleme mit dem verwendeten DDR2-Grafikspeicher sollen hierfür die Ursache sein. Ab Januar wird XGI einen weiteren Versuch starten - dann allerdings unter Verwendung von DDR1-Speicher. Somit steht der Angriff auf ATI und NVIDIA unter keinem guten Stern, zumal im <a href="http://www.club-3d.nl/archivos/XGI%20Guide.pdf" target="b">Quick Installation Guide</a> von Club3D ein weiterer Stolperstein zu finden ist.<ul><i>Your power supply in your system must match to the following two requirements.
1.) XGI Volari DUO V8 requires a 400 Watt power supply. Please check the power rating of power supply in your system.
2.) External DC power supply for XGI Volari DUO V8 must both be connected before power up during installation.
Power on without external DC power is connected may cause unpredictable damage to the system and XGI Volari DUO V8.
It is recommended that two external power connectors for XGI Volari DUO V8 source from different power cables.</i></ul>
hm finde es schade das es XGI nicht so richtig hinbekommt die karte auf den markt zu bringen
wäre ja für den kunden gut (preislichgesehen)
den konkurenz belebt ja angeblich das geschäft
aber mit dem 400W nt als empfolende powerversorgung
ich weis ja nicht ob das so der richtige weg sein wird
aber man wird sehen was passiert oder eben nicht
wäre ja für den kunden gut (preislichgesehen)
den konkurenz belebt ja angeblich das geschäft
aber mit dem 400W nt als empfolende powerversorgung
ich weis ja nicht ob das so der richtige weg sein wird
aber man wird sehen was passiert oder eben nicht
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Das Ding hat ja auch nur zwei GPUs! Pro GPU eine Spannungsversorgung erscheint mir angebracht. Und mit 2x8 Pipelines und 2x350 MHz könnte das Ding recht fix sein (wenn der Chip selbst entsprechend gut ist)...
Aber ich nehme mal an, es gibt noch keine verwertbaren Benchmarks?
m.f.g.
BoMbY
Aber ich nehme mal an, es gibt noch keine verwertbaren Benchmarks?
m.f.g.
BoMbY
Krümmelmonster
Grand Admiral Special
TOTGEBURT
mit 256Bit allgemein übergreifendem Interface und schnellen DDR1 wären sie der Konkurenz auf und davon..
aber so ne ne ne..
mit 256Bit allgemein übergreifendem Interface und schnellen DDR1 wären sie der Konkurenz auf und davon..
aber so ne ne ne..
Campari
Grand Admiral Special
- Mitglied seit
- 17.10.2000
- Beiträge
- 17.203
- Renomée
- 156
Original geschrieben von BoMbY
Das Ding hat ja auch nur zwei GPUs! Pro GPU eine Spannungsversorgung erscheint mir angebracht. Und mit 2x8 Pipelines und 2x350 MHz könnte das Ding recht fix sein (wenn der Chip selbst entsprechend gut ist)...
Aber ich nehme mal an, es gibt noch keine verwertbaren Benchmarks?
m.f.g.
BoMbY
beim tecchannel gabs vor nem Monat Benches des Beta-Modells, die nicht so prickelnd waren, zumal die Treiber alles andere als brauchbar waren. Hinzu kommt in dem Fall, dass das Betading sogar höher getaktet war, als das Serienmodell.
128Bit Speicheranbindung pro GPU ist im High-End Sektor auch nicht mehr zeitgemäß.
IVIaraud3R
Grand Admiral Special
- Mitglied seit
- 18.07.2002
- Beiträge
- 6.844
- Renomée
- 196
sitzung des vorstands:
Cheffe: "wir müssen die karten zurückziehen, die RAMs glühen"
marketing depp: "wie? DDR2 Speicher wird heiß?"
cheftechniker: "ey ruhig alder, alles net so wild. bleib cool"
cheffe: "jones, sie sind gefeuert"
marketing depp: "wie heiß"
cheffe: "schlimmer als bei den 9800Pro 256 von ATI"
marketing depp: "ATI was is das?"
cheffe: "auch sie dürfen sich jetzt als gefeuert ansehen"
anruf bei revoltec: "hey jungs, ihr habt net zufällig ne palette chip-freezer auf lager?
revoltec: "doch klar, wieviel wollt ihr"
XGI: "naja, wie müssen alle unsere top-modelle damit ausrüsten"
revoltec: *sabber*
XGI: "ja, alle 20"
MFG IVI
www.orthy.de
Cheffe: "wir müssen die karten zurückziehen, die RAMs glühen"
marketing depp: "wie? DDR2 Speicher wird heiß?"
cheftechniker: "ey ruhig alder, alles net so wild. bleib cool"
cheffe: "jones, sie sind gefeuert"
marketing depp: "wie heiß"
cheffe: "schlimmer als bei den 9800Pro 256 von ATI"
marketing depp: "ATI was is das?"
cheffe: "auch sie dürfen sich jetzt als gefeuert ansehen"
anruf bei revoltec: "hey jungs, ihr habt net zufällig ne palette chip-freezer auf lager?
revoltec: "doch klar, wieviel wollt ihr"
XGI: "naja, wie müssen alle unsere top-modelle damit ausrüsten"
revoltec: *sabber*
XGI: "ja, alle 20"
MFG IVI
www.orthy.de
nachdem im forum die diskusion dazu schon länger da ist als hier die news, bin ich zu dem schluss gekommen, das ich so ein teil haben will. egal obs schnell ist, egal obs teuer ist, aber es ist eben was total anderes. mal was neues. hatte bisher sowohl ati als auch 3dfx und nvidia in meinen pcs. warum also nicht jetzt mal was ganz anderes.
AMD_Feuerspucker
Grand Admiral Special
Du kannst dir auch eine 3D-Labs, Matrox usw Karte kaufen
Nur vielleicht haben ATI Karten halt ein besseres P/L Verhältnis, vielleicht werden sie deshalb auch zum Großteil gekauft...
Nur vielleicht haben ATI Karten halt ein besseres P/L Verhältnis, vielleicht werden sie deshalb auch zum Großteil gekauft...
Krümmelmonster
Grand Admiral Special
kauf dir doch ne wildcat
AMD_Feuerspucker
Grand Admiral Special
Jo, die baut 3D-Labs, die übrigens jetzt zu Creative gehören soviel ich weiß
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Leider richtig. Durch die Verzögerung jetzt kommt die Karte definitiv zu spät, Weihnachten ist gelaufen.Original geschrieben von Friday69
TOTGEBURT
Außerdem war der Preis einfach zu hoch. 2 GPUs schön und gut, aber niemand bezahlt einfach so mehr Geld für gleiche Leistung.
Die V8 Duo mit effektiv 128MB (zwar 256MB, aber Daten sind doppelt vorhanden) sollte ja ungefähr so schnell sein wie eine Radeon 9700pro bzw. 9800non-pro. Und wenn man sieht, daß man eine 9800PRO schon für 300€ bekommt, kann man die V8duo nicht für 400€ losschlagen, vor allem da sie als Neueinsteiger kein Image haben, für das man extra Geld verlangen kann (wie nVidia, Intel oder Mercedes) bzw sogar ein eher schlechtes wegen der SiS-Wurzeln (Treibertricks, Billigheimer etc.). Und ausgereifte Treiber sind auch nicht da als Verkaufsargument.
Halbes Jahr früher und dann für einen konkurrenzfähigen Preis (d.h. unterhalb der leistungsmäßig gleichen Ati-/nV-Chips), dann hätten sie eine Chance gehabt, aber so nicht mehr.
Schade, hätte gerne einen 3. Spieler im Markt gesehen, aber nur mit dem Wohlwollen von irgendwelchen Freaks erreicht man keinen Marktanteil.
Seraphim
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.986
- Renomée
- 0
- Standort
- Capitol City
- Prozessor
- Intel Core 2 Duo e8200 @ 3230MHz (8x405@1,18V)
- Mainboard
- ASUS Maximus Formula
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x A-Data Vitesta Extreme DDR2-800 4-4-4-12 @ 450MHz 5-5-5-15
- Grafikprozessor
- Sapphire HD 4870
- Display
- 22" Samsung SyncMaster 226BW
- HDD
- 4x WDC WD3200AAKS Raid 10
- Optisches Laufwerk
- Pioneer DVR-212
- Soundkarte
- Xi-Fi Xtreme Gamer
- Gehäuse
- Lian Li PC-V1010A
- Netzteil
- Enermax Modu 82+ 525W
- Betriebssystem
- Vista Ultimate 64Bit
- Webbrowser
- Firefox 3
- Verschiedenes
- 3D Mark 06: http://service.futuremark.com/compare?3dm06=7482769 , Vantage: http://service.futuremark.
was würde wohl passieren, wenn ati und nvidia zwei chips auf eine platine setzen würden? na? wir würden mit einem 400watt nt wohl ziemliche probleme bekommen. ich find' die idee gar nicht so lächerlich, aber die ausführung...Original geschrieben von Scay`Ger
... Anschluss von zwei Stromanschlüssen empfohlen? Meine Güte, wieviel zieht das Ding denn? Wird ja langsam lächerlich. Bald findet man keine beigelegten Games mehr, sondern Gutscheine für EON & Co.
PuckPoltergeist
Grand Admiral Special
Nur mit dem Unterschied, daß XGI anscheinend die zwei GPUs benötigt um überhaupt erstmal an die Leistung der jetzigen ATi- und NVidia-Chips zu kommen. Also ich würde mir so einen Geldvernichter nicht in die Kiste stecken.
öhm, warum sollte ich mir n jeep im stadtverkehr kaufen?
das zum verbrauch :>, also 400 watt... ne lass ma steckn.
ah noch was, also mal angenohmen ich hab 400 watt drin, weil ich eh dualcpu drin hätte, lutschen dann nich die beiden cpus wieder alles weg? ich mein welcher mensch hat sonst einfach so mal 400 watt drin, wenn er den saft nich schon für was anderes nutzen würde?
das zum verbrauch :>, also 400 watt... ne lass ma steckn.
ah noch was, also mal angenohmen ich hab 400 watt drin, weil ich eh dualcpu drin hätte, lutschen dann nich die beiden cpus wieder alles weg? ich mein welcher mensch hat sonst einfach so mal 400 watt drin, wenn er den saft nich schon für was anderes nutzen würde?
Zuletzt bearbeitet:
sputnik1969
Cadet
Ich bin einer der Menschen, die ein 430 Watt Netzteil haben, ohne es bisher vollkommen auszunutzen, nachdem mein 300er etwas knapp wurde, bin ich erstmal lieber auf Nummer sicher gegangen, man kannn ja nie wissen, was man sich als nächste Hardware zulegtOriginal geschrieben von Dymas
öhm, warum sollte ich mir n jeep im stadtverkehr kaufen?
das zum verbrauch :>, also 400 watt... ne lass ma steckn.
ah noch was, also mal angenohmen ich hab 400 watt drin, weil ich eh dualcpu drin hätte, lutschen dann nich die beiden cpus wieder alles weg? ich mein welcher mensch hat sonst einfach so mal 400 watt drin, wenn er den saft nich schon für was anderes nutzen würde?
Davon abgesehen: Das die Karte für die Tonne ist konnte man sich doch nach dem ersten im Netz aufgetauchten Screenshot des 3dmark2003 Ergebnisses doch wohl selbst ausrechnen:
Minimal bessere Werte als eine 9800 was Texturing angeht, aber nichtmal die Pixel- und Vertexshaderleistung eines 9600Pro (und das bei 2 Chips!).
Und den Texturing-Ergebnissen von SIS-Produkten kann man nicht trauen (siehe Xabre und Texturqualität).
Bei solchem Stromverbrauch und der Leistung (nur 128bit Bus, für SS-AA viel zu knapp und nur 4x AF) würde ich das Teil nicht kaufen, solange es mehr als 150€ (also mehr als eine billige aber ausgereifte 9600pro) kostet. Und das eine Dual-Chip Lösung für 150€ nicht machbar ist kann sich jeder mit gesundem menschenverstand an seinen 5 Fingern ausrechnen...
Zur der gesamten Volari-Chips-Linie habe ich nur ein Wort zu verlieren: Verkackt...
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 431
- Antworten
- 0
- Aufrufe
- 931
- Antworten
- 0
- Aufrufe
- 544
- Antworten
- 0
- Aufrufe
- 543
- Antworten
- 0
- Aufrufe
- 884