Erste unabhängige TurboCache-Benchmarks

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Über den neuesten Marketing-Coup von NVIDIA im Lowcost-Grafikkarten Segment haben wir vor kurzem ausführlich <a href="http://www.planet3dnow.de/artikel/hardware/6200_turbocache/">berichtet</a>. Die GeForce 6200 mit TurboCache-Technologie soll gute Leistung zu günstigen Preisen möglich machen. Doch bereits in unserem Preview haben wir daran gezweifelt, dass der Preis dieser Grafikkarte in irgendeiner Relation zur Leistung steht.

Unser Verdacht scheint sich nun zu bestätigen. Erste unabhängige <a href="http://www.digit-life.com/articles2/gffx/nv44.html">Benchmarks</a> belegen, dass gerade die kleine Version bis zu 80 Prozent (!) langsamer arbeitet, als eine vergleichbare ATI Radeon X300SE, die ihrerseits schon keine Ausgeburt an Leistungsfähigkeit ist. Etwas besser sieht es bei der großen Variante der 6200 Turbocache mit Dual-Channel Speicher aus. Diese kann zumindest bei niedrigen Auflösungen mithalten, verliert aber in hohen Auflösungen wieder bis zu 75 Prozent gegenüber der X300SE. Das alles wäre zu verschmerzen, schließlich ist diese Grafikkarte nicht zum spielen gedacht, sondern als Office-Karte für günstige Einsteiger- oder Büro-PCs. Dafür jedoch ist der Preis der Karte mit 70-120 EUR je nach Version viel zu hoch.

Wir erinnern uns: die GeForce 6200 TurboCache nutzt via PCI-Express einen Teil des Arbeitsspeichers als Grafikspeicher, ähnlich wie es Onboard-UMA-Grafikkarten tun. Um nicht permanent "fremden" Speicher ansprechen zu müssen, besitzen die Karten allerdings auch einen kleinen lokalen Speicher, der TurboCache genannt wird. NVIDIA will damit die Vorzüge von UMA (Preis) und jene von Local Framebuffer (Leistung) vereinen. Instrument dazu ist PCI-Express, womit es erstmals möglich ist, einen genügend schnellen Up- und Downstream zu erzeugen, um soetwas über einen Steckplatz zu realisieren. Doch wie man sieht ist die Lösung noch nicht das Gelbe vom Ei. Entweder NVIDIA bessert mit schnellerem Speicher auf der Grafikkarte nach, oder der Preis wird der Leistung entsprechend angepasst. Ansonsten kann NVIDIA nur darauf hoffen, dass der zackig klingende Begriff "TurboCache" viele unwissende Kunden zum Kauf animieren wird...
 
sinn würde der turbo cache erst machen, wenn man entweder die Ersparnis des RAM an den Kunden weitergibt...
Oder bei schnelelren chips, damit man nur noch 128 MB Karten anstatt der 256 MB-Karten hat. Weil zu 95% reichen die 128 MB vollkommen. für die 5% kann dann turbo cache verwenden...

Obwohl: spiele die viel Grafik haben, also eher mal mehr RAM benötigen, brauchen auch mehr system-RAM. und dann fehlt der wieder... lohnte sich nur bei 1 GB-Systemen.

Wäre eine gute Idee für onboard-Grakas wenn man den speicher dynamisch hat... also bei nem billigen 256 MB-System nicht fest 64 Mb der gRafik zuschlagen, sondern das variabel getalten.
 
Auch ATI hat beim ATI RADEON Express 200 G (incl. Grafikcore) schlechte Ergebnisse.

Allerdings wird einfach zu stark bei den RAM-Chips gespart. Zudem sind die heutigen Geschwindigkeiten (DDR-I) und/oder nur 32 Bit Datenpfad eben ein zu starker Engpaß.

Vielleicht ist 2005 noch zu früh für das Design ...


Bem:
Die XBox2 soll ja etwas ähnliches bekommen, wobei hier RAM mit hoher Geschwindkeit verwendet werden soll.
 
Naja, die Computerbild und Konsorten werden schon Warnungen aussprechen. Das nenne ich doch mal Kundenverarsche! 8-( 8-(
 
Mal davon abgesehen, dass die Ergebnisse keine Ueberraschung darstellen...

Es scheint, die Hersteller sehen im uninformierten Kunden scheinbar immer noch ein sehr grosses Marktpotential.
Interessant zu beobachten ist dabei nur, dass dieses Potential ueberhaupt immer noch so unvermindert vorhanden ist.

Das Marketing hat es dort seit Jahren einfach, seit der Fehlinterpretation des tatsaechlichen Nutzen von AGP 1x fuer den User kommen immer wieder die gleichen, falschen Argumente und Aussagen (ueber AGP 2x, 4x ,8x und heute PCIe) :

"Der Bus stellt endlich (ganz so, als waere er jemals die alleinige Limitierung gewesen) genug Bandbreite zur Verfuegung."

Schnell vergessen wird seit den ersten Whitepapers von AGP 1x der sehr viel groessere (und plattformbedingt auf absehbare Zeit faktisch nicht ueberwindbare), der tatsaechliche Flaschenhals :
Das RAM und seine im Vergleich zu ueblichem Video-RAM (zur jeweiligen Zeit) geradezu laecherliche Performance.

Solange das unter realistischen (= nicht Ideal-)Bedingungen nicht einmal 30% der so hoch beworbenen Busbandbreite abdecken kann, sind alle derartigen Experimente leistungsmaessig zum Scheitern verurteilt.

Warum ist der technische Gedanke vom Auslagern von VideoRAM in's System RAM auch in Zukunft zum Scheitern verurteilt?

Selbst, wenn es in Zukunft eines Tages DDR2-1000 CL0-0-0 Quad Channel mit reellen 10GB/s geben wuerde, so haette (das sich parallel natuerlich auch weiter entwickelnde) VideoRAM zu dieser Zeit wahrscheinlich >100GB/s Bandbreite, sodass das Fehlverhaeltnis weiterhin existieren wuerde.
-------------------------------------
Dem Marketing ist das freilich irrelevant, denn selbst fundamentale technische oder konzeptionelle Maengel stellen fuer dieses bekanntlich kein Hindernis dar.
...denn wer verbietet es schon, einem Eskimo den sprichwoertlichen Kuehlschrank zu verkaufen? ;)

Fazit :
In Notebooks, als Alternative zu reinen Shared Memory Loesungen : JA (sofern preislich interessant)

In Desktops, als halbherzige und ueberteuerte Loesung zu preiswerteren und schnelleren Karten mit 'echtem' RAM... Experiment gescheitert.
 
Zuletzt bearbeitet:
naja FalconFly, die AGP-Bandbreite hätte wohl gereicht, allerdings nur in einer Richtung - in der anderen hat man gerade mal Bandbreite auf PCI-Niveau, womit selbst der langsamste RAM nicht annähernd ausnutzbar war.

Und auch trotz der miesen Performance finde ich das eine gute Entwicklung, da die Karten ja doch nur für 2D benutzt werden, 256MB sind da reine Verschwendung. Selbst bei 3D-Anwendungen sind die Chips so lahm, daß man eh nicht große Texturen oder gar AA/AF nutzen kann, d.h. man braucht auch dann nicht viel RAM. Wenn also das Weglassen von unnützem Speicher dazu führt, daß die Karten billiger herzustellen sind, kann man ja auch davon ausgehen, daß irgendwann die Karten auch billiger verkauft werden (natürlich nicht sofort, erstmal muß das Etikett "neu" davon runter).

Bisher habe ich jedenfalls lieber eine Radeon 7000 mit 32MB (was eigentlich auch schon Overkill ist, aber ist die einzige noch kaufbare alte Karte mit DVI) für 25Euro in einen Bürorechner gebaut als eine FX5200 mit 128 oder 256MB für 55Euro - für Word und Excel sollte wohl beides langen, die gesparten 30 Euro steckt man lieber in ein besseres Gehäuse, Netzteil o.ä.

Noch viel interessanter werden die Karten aber, wenn man nur den lokalen Framebuffer nutzen und den Zugriff aus System-RAM verbieten kann, um ein eh lahmes Budgetsystem nicht noch durch UMA künstlich auszubremsen.
 
Stimmt, die AGP-Bandbreite haette gereicht, nur das RAM war damals (wie immer schon) viel zu langsam, um irgend einen sinnvollen Nutzen zu bringen. Diese Erkenntniss ist so alt wie der AGP-Port selbst.

Die Neuerung, dass PCIe nun in beide Richtungen die gleiche Bandbreite bietet, ist angesichts des vollkommen ueberforderten RAMs nach wie vor recht sinnfrei (das Marketing laesst mal wieder gruessen).

Karten, die nur fuer 2D benutzt werden, sind PCI, haben bestenfalls 4-8MB, verbrauchen 5% der Energie dieses neuen Designs und sind dank passiver (oder gar keiner) Kuehlung absolut wartungsfrei.
weiterer Vorteil : sie kosten lediglich 2-10 Euro

Falls es AGP sein muss, gibt es schon lange entsprechende Karten mit bis zu 64MB echtem RAM als AGP 4x/8x, Low Profile, passiver Kuehlung und weiteren funktionalen Extras (DVI, DirectX9, WMV HD-faehig etc.) fuer ab ~35 Euro.

Wo eine GeForce6200 preislich in dieses Umfeld passt, verschliesst sich mir vollkommen.
 
@FalconFly:
Du vergisst aber, dass es theoretisch möglich wäre, für den Systemspeicher die gleichen Speicherchips wie für VideoRAM verwenden könnte. Immerhin basieren die auf der gleichen Technologie (ok, GDDR3 ist etwas voraus, aber der Grafikbereich braucht eben mehr Speicherdurchsatz).
Es ist eher eine Kostenfrage. Normaler Systemspeicher ist auch nicht dafür konzipiert 30GB/s für irgendwelche 3D-Shooter bereitzustellen.

Außerdem sollte man mit der Bezeichnung aufpassen. Eine Geforce 6200 (nur on-board Speicher) ist wesentlich leistungsfähiger als eine Geforce 6200 TC (UMA + onboard).

Allerdings stimme ich dir zu, dass die 6200 TC preislich ein Flopp ist. Immerhin bekommt man eine wesentlich leistungsfähigere 6600 für einen verhältnismäßig geringen Aufpreis.
 
Stimmt (wenn man die Spezialitaet von VRAM, Dual Ported ausgelegt zu sein, ausser Betracht laesst) , allerdings wuerde das in der Tat Unmengen kosten und eine entsprechende Plattform voraussetzen.

Ein Motherboard, dass einen Speichertakt von bis zu 500MHz zulaesst, ist noch in weiter Ferne; zumal hier massive Probleme (z.B. Taktflanken, Taktsynchronisation und Signalrauschen) auftauchen, die in bisheriger DDR-SDRAM Technik kaum zu bewaeltigen sein duerften.
Ich sehe VRAM daher nicht als realisierbare Alternative zu DDR-SDRAM an.

IMHO wird es aufgrund dessen auf absehbare Zeit bei dem Verhaeltnis System-RAM vs. VideoRAM bleiben.

Ich wusste bisher nicht, dass es auch eine "normale" Variante ohne Nutzung des System RAM geben sollte, ich bezog mich natuerlich nur auf Turbocache.
 
Zuletzt bearbeitet:
Zurück
Oben Unten