AMD/ATI-Crossfire-Thread Tips, Tricks, Hilfe

Status
Für weitere Antworten geschlossen.
Schau dir den hier mal an ;) Der ist mit das beste um die 200€. 176° Blickwinkel, 2ms grau zu grau, hoher Kontrast und Pixelabstand von 0.266 x 0.266 sowie 300 candela pro Quadratmeter für eine relativ gleichmäßige Ausleuchtung. Und für 180 Euro nicht wirklich teuer.

Denke da gibts nicht viel zu sagen ;) Ach ja: HDMI+HDCP hat der auch!

bye Hübie
 
hmmmm....Danke!
und wenn du den 965er auf 3,83 anhebst, sollte er dem 920er in nichts nachstehen oder?
wäre interessant (mit ansonsten identischen Settings) die 52 sollten so damit auch gehen, was denkst?

Jetzt ist es aber spät geworden, immerhin bin ich nicht der einzigste! ;)
Ja ganz so einfach ist das nicht:

X4-965 @ 3,40GHz 2x2GB DDR2-800 & 1x GTX285 = 48,2 (Avg)
X4-965 @ 3,81GHz 2x2GB DDR2-1052 & 1x GTX285 = 49,1 (Avg)
I7-920 @ 3,80GHz 3x2GB DDR3-1600 & 1x GTX285 = 49,7 (Avg)
I7-920 @ 3,80GHz 3x2GB DDR3-1600 & 1x HD5850 = 52,7 (Avg)
X4-965 @ 3,81GHz 2x2GB DDR2-1052 & 2x GTX285 = 57,1 (Avg)

Also CPU Takt allein bringt da nicht viel. *buck* *wegpenn*
 
vielen Dank!

Na also: ein 965er @ 3,8 Ghz ist ein gutes Stück schneller als ein i920 mit 3,8 Ghz - zumindest in der vorher getesteten Anwendung: Das ist doch mal ne Aussage!;D
Schau dir den hier mal an ;) Der ist mit das beste um die 200€. 176° Blickwinkel, 2ms grau zu grau, hoher Kontrast und Pixelabstand von 0.266 x 0.266 sowie 300 candela pro Quadratmeter für eine relativ gleichmäßige Ausleuchtung. Und für 180 Euro nicht wirklich teuer.

Denke da gibts nicht viel zu sagen ;) Ach ja: HDMI+HDCP hat der auch!

bye Hübie
habe hier einen Samsung SyncMaster2496, der auch FHD kann und seine Sache sehr gut macht (23,6") der ist auch sehr günstig und vllt. noch ein Gedanke wert?
 
Zuletzt bearbeitet:
Ein Monitor mit dieser Bezeichnung ist mir nicht bekannt. Kannst du mal bitte einen link schicken?

Edit: Die Modelle von Samsung um 200€: bitte sehr

Edit2: Für Samsung spricht ein geringerer Verbrauch und umweltfreundliche Materialien :) Dagegen sind Pixelabstand und Ausleuchtung im äuqivalent zum LG nicht so gut.
 
Zuletzt bearbeitet:
http://www.preissuchmaschine.de/in-Monitor-Flatscreen/TFT-Wide-22-2/trend/2494lw24.html

2494 nicht 2496 sorry, typisch ich halt:] hab ihn bei Altern. gekauft - finde ihn gut!
Samsung SyncMaster 2494LW (DVI-D (HDCP), Schwarz )Art.-Nr.: V5LU66
€ 179,90 (Alternn.)
http://www.alternate.de/html/produc...LW/356040/?tn=HARDWARE&l1=Monitore&l2=23+Zoll
v5lu66.jpg
Samsung_2494lw-1.jpg

Der SyncMaster 2494LW, ausgestattet mit einem 5 ms schnellen 16:9-Full-HD-TN-Panel, verfügt über einen analogen VGA- und digitalen DVI-D Anschluss mit HDCP-Unterstützung zur Wiedergabe von kopiergeschützten HD-Filmen. Der dynamische Kontrast von 50.000:1 sorgt für hohe Schärfe und Detailreichtum selbst bei dunklen Szenen. Der SyncMaster 2494LW eignet sich dank seiner TCO 03-Zertifizierung auch fürs Büro.
5 Sterne(13)
4 Sterne(0)
3 Sterne(0)
2 Sterne(0)
1 Stern(1)

Inzwischen ist er scheinbar gewachsen! (ist irgendwie bionisch?) da er immer öfter mit 24" angegeben wird, als mit 23,6" - und damit scheinbar Medienwirksamer (Kunden wollen besch* werden?) vllt. wächst er ja noch auf um die 25" -er ist ja noch jung *chatt*
wobei wir uns mal wieder so derart oT befinden, dass ich hoffe, dass wir den Bogen zu CF schnell wieder kriegen;)
 
Zuletzt bearbeitet:
Danke für den Tip, ich schreib ihn mal mit in die Liste .Der LG sieht interresant aus , allerdings würde ich eher zum LG W2253TQ tendieren, da besser verfügbar selbe Austattung Preise ab 160 Euro.

Wenn ich aber nach dem Geldbeutel gehe, wären 3x22" Asus (einer schon vorhanden 2ms) für mich mit ca 300 Euro das beste. Alle anderen Lösungen sind zwischen 450 bis 600 Euro. Auch find ich 1650 bei 22" die bessere Auflösung, als 1920.

Die LED Display von Benq 22"-24" sind auch noch mit ca 180-250 Euro interresant. Grad was Kontrast und Energie angeht..

Hier noch nen Test, 10 TFTs ab 24" zum spielen:
http://www.gamestar.de/hardware/sch...eletaugliche_monitore_ab_24_zoll_im_test.html

OK, Back to Topic :D
 
Zuletzt bearbeitet:
ich habs: :D

"Echte" 5870x2 von Asus in den Startlöchern?
Asus will eine hoch übertaktete 5970 als "echte 5870x2 vermarkten.
Es wird ein ggü.dem Referenz-Design gut verändertes Kühlmodell verwendet, das u.a. zwei Lüfter und ein paar Abänderungen haben dürfte.
Auch gelten klar 2x8 Pin Stromstecker als gesetzt.
Wie Asus hinbekommen möchte, was ATi aus Überhitzungsgründen und wegen der imensen Stromaufnahme zurück getakteten 5970 getan hat, bleibt aber im Detail noch der Phantasie der Leser vorbehalten...
Weiteres hier: http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/993-echte-hd5870-x2-von-asus

PS: die haben stebimt meinen Post hier gelesen, von den zwei Toxic und glatt reagiert! ;)
(das musste ja kommen, so werd ich noch etwas mehr ocen müssen, oder ich steck gleich 3 rein?...!)



------------------------------------------------------------------------------


Dei AWARD-Fabrik hat die Toxic nun auch getestet und........na?.......klar overcloced auf ....... ? .......880 Mhz:
guckstduhier:
http://www.awardfabrik.de/grafikkarten/sapphire-radeon-hd5850-toxic-7.html
Da die Overdrive Limits im Catalyst Controlcenter sehr niedrig sind, konnten die meisten bekannten Tools wie der MSI Afterburner nicht verwendet werden, um die maximalen Taktraten der Grafikkarte auszuloten. Gezwungenermaßen griffen wir daher auf das weniger komfortable AMD GPU Clock Tool zurück.
Während die Karte schon mit erhöhten Taktraten daher kommt, ließen sich dennoch deutlich erhöhte Taktraten erreichen. Schlussendlich waren 880MHz GPU und 1250MHz Speichertakt möglich, was gegenüber den 765/1000MHz, die das Referenzdesign von ATI besitzt eine deutliche Steigerung ist.
Bild59.jpg

Bild22.jpg

Bild62.jpg
mehr Tests siehe Link!

Das alles hat die awardfabrik.de zu folgendem Fazit bewogen:
Pro:
+ Sehr hohe Leistung
+ Sehr leises Arbeitsgeräusch

Contra:
- Spannung nicht veränderbar durch Software
- Warme Luft wird vom Kühler nicht aus dem Gehäuse herausbefördert

Mein Koment zu deren Fazit: die zwei plus oben sind genau die Fakten, die man möchte, die beiden Minus ist halbwegs wurscht, da es schon recht hoch geht und bei guter/starker/hoch effizienter Durchlüftung des Towers einfach die komplette Luft rausgepustet wird - Bei HochleistungsTowern, oder dahingehend optimierten Machinen also halbwegs egal...

So, damit ich nicht der neue Aleinunterhalter werde hier, gebt mir mal Feedback:
Habe bei Warhed im Spiel mal die Filter ganz runter gemacht und dafür im CCC ganz hoch, leider habe ich nun keine Schattenwürfe mehr wenn etwa die Sonne durch die Palmwedel strahlt (am Himmel)
Wie macht ihr es?

a) im Spiel AA/AF hoch und im CCC runter -- oder
b) im CCC AA/AA hoch und im Spiel runter...oder beides wäre dann..--
c) alles was geht @over alls
 
Zuletzt bearbeitet:
In den meisten Fällen ist es besser alls im Spiel einzustellen, da die FSAA-Modi angepasst sind. Allerdings gibt es einige Entwickler die nur pro nVidia oder pro ATi entwickeln. Dann muss man über den Treiber FSAA erzwingen.

Bei Crysis WH ist das aber nicht der Fall. Sinnvoll ist hier lediglich den Filter unter Umständen zu ändern, aber ich kenne kein System was das in FullHD mit Edge-Detect Filter wiedergeben könnte ;)

Übrigens wird SSAO automatisch abgeschaltet wenn man die globale Texturqualität senkt. Glaube unterhalb vom Preset "Gamer".

bye Hübie
 
automatisch? hmmm....
Übrigens wird SSAO automatisch abgeschaltet wenn man die globale Texturqualität senkt. Glaube unterhalb vom Preset "Gamer"
kannst du das mal für mich anders formulieren, ich grüble über den Satz nun schon ne Weile nach, bin aber nicht sicher ob ichs gerade checke..

übrigens, wer ne neue CPU für sein CF Setup sucht, sollte evtl. dies hier mal lesen;)http://www.planet3dnow.de/vbulletin/showthread.php?t=378844
parallel dazu noch das: http://www.planet3dnow.de/vbulletin/showthread.php?p=4197082#post4197082
 
Zuletzt bearbeitet:
Kein Problem:

Wenn du das hier änderst wird SSAO ausgeschaltet


Unterschiede von SSAO on und off.
 
So Mädelz,

Dicker Karton ist gekommen (ging ja nun ganz schnell) Der Adapter ist Quatsch mal wieder, dachte das hätte ich am Telefon geklärt, was ich will *chatt*
(wenn man sich nicht täglich über irgendwelche Idiotieen ärgern muss ist es wohl nichts)

How ever, die Karten sehen klasse aus und sind richtig dicke Koffer!

nun teste ich ersmal letztmalig mit den "alten" Karten in Warhed ein paar Auflösungen um besser vergeleichen zu können, dann das selbe mit den neuen Karten erstmal ohne oc...kann dann ja berichten von meinem kleinen Abenteuer - wenn ihr möchtet;)


[s.u.]

PS: @Tspoon, sorry manchmal bin ich wohl etwas blind, werde mal deinen Afterburner testen und hier vllt. einen großen Test reinbauen über die neuen 5850er Karten, kannst ja mitmachen...
 
Zuletzt bearbeitet:
so mädels gibt ne neue übersicht:

cfcombochart.jpg


@S.I. : mein Crossfire lief noch nie auf 2x1000Ghz hab da leichte Probs siehe andere Thread.

Hab XFX mal kontaktiert die sollem mir die unterschiede nennen und ob ich auf die eselbe bios version flashen darf bzw kann...

zu deinem Crysis Problem die Testen hier mit Crysis: Warhead [1920x1200 4xAA/8xAF] was ner auflösung von 19:9 ist hast du eventuell nen 16:10 TFT und kannst deshalb nicht volle kanne?

Mann kann nie genug bekommen ;)

Overclocking 5850 Crossfire auf 2x850 Mhz GPU / 2x1200 Mhz RAM

Crysis (CPU LIMITIERT !!!)

Run #1- DX10 1680x1050 AA=8x, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 40,15
Average FPS: 40.24
Min FPS: 17.89
Max FPS: 60.31


Run #2- DX10 1680x1050 AA=16xQ, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 40,02

Average FPS: 40.02
Min FPS: 15.91 at frame 146
Max FPS: 56.47 at frame 84


17.04.2010 04:12:00 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=8x, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 54.09s, Average FPS: 36.97
Min FPS: 17.89 at frame 152, Max FPS: 52.92 at frame 1623
Average Tri/Sec: -14336637, Tri/Frame: -387767
Recorded/Played Tris ratio: -2.36
!TimeDemo Run 1 Finished.
Play Time: 49.93s, Average FPS: 40.06
Min FPS: 17.89 at frame 152, Max FPS: 57.23 at frame 67
Average Tri/Sec: -14998156, Tri/Frame: -374435
Recorded/Played Tris ratio: -2.45
!TimeDemo Run 2 Finished.
Play Time: 49.70s, Average FPS: 40.24
Min FPS: 17.89 at frame 152, Max FPS: 60.31 at frame 104
Average Tri/Sec: -14991851, Tri/Frame: -372559
Recorded/Played Tris ratio: -2.46
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Beginning Run #2 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=16xQ, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 54.35s, Average FPS: 36.80
Min FPS: 15.91 at frame 146, Max FPS: 55.13 at frame 1661
Average Tri/Sec: -14261568, Tri/Frame: -387581
Recorded/Played Tris ratio: -2.37
!TimeDemo Run 1 Finished.
Play Time: 49.98s, Average FPS: 40.02
Min FPS: 15.91 at frame 146, Max FPS: 55.13 at frame 1661
Average Tri/Sec: -14983782, Tri/Frame: -374446
Recorded/Played Tris ratio: -2.45
!TimeDemo Run 2 Finished.
Play Time: 49.97s, Average FPS: 40.02
Min FPS: 15.91 at frame 146, Max FPS: 56.47 at frame 84
Average Tri/Sec: -14892704, Tri/Frame: -372090
Recorded/Played Tris ratio: -2.46
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

17.04.2010 04:12:00 - Vista 64

Run #1- DX10 1680x1050 AA=8x, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 4015
Run #2- DX10 1680x1050 AA=16xQ, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 4002

Farcry 2

Settings: Demo(Ranch Long), 1680x1050 (60Hz), D3D10, Fixed Time Step(No), Disable Artificial Intelligence(No), Full Screen, Anti-Aliasing(8x), VSync(No), Overall Quality(Ultra High), Vegetation(Very High), Shading(Ultra High), Terrain(Ultra High), Geometry(Ultra High), Post FX(High), Texture(Ultra High), Shadow(Ultra High), Ambient(High), Hdr(Yes), Bloom(Yes), Fire(Very High), Physics(Very High), RealTrees(Very High)

* Average Framerate: 96,01
* Max. Framerate: 194,69
* Min. Framerate: 38,86
 
Zuletzt bearbeitet:
Die Radeon HD 5850 Toxic von Sapphire /2GB
...schlanker als andere, aber dennoch irgendwie üppig und ein Stück kürzer kommt sie sehr atraktiv im schicken Abendgewande daher! ... ...
Doch wie beeindruckt uns ihr smartes Auftreten nachhaltig?

Geht die Performance -Krone der (bis zu 2 GPU-) Grafikkarten zuletzt an ein 5850- Setup?
images

images
fudzilla_sapphire_hd5850toxic-02.jpg

und
CrossFireX mit zwei Radeon HD 5850 Toxic oc 2GB
(hier und weiter oben habe ich ja schon andere Reviews vorgestellt, incl. Benchmarks)
images

images

images




In den lezten Tagen ist es etwas rund gegangen, da die ersten 2GB Grafikkarten der Radeon Hd 5xxx Serie an den Ladentischen lagen.
Ausgenommen, der 5970, die ja schon etwas länger 2GB mitbrachten, jedoch in Häpchen von jeweils 1GB - eben pro GPU.


Die dicke Berta gibt uns die Ehre:


Da höchste Auflösungen von bis zu 1980x1200 oder gar höher (ggf. über mehrere Bildschirme) inzwischen möglich sind [FullHD = 1920x1080 Pixel]
steigt die Begierde Einzelner, dies auch bei sich umzusetzen.
Um auch die Filter, wie AA und AF in etwa einem Game hochsetzen zu können, ohne dass die Betrachtung einem Dia-Vortrag gleicht, ist jedoch ein Grafikram von "nur" 1GB oftmals nicht ausreichend, hier sind 2GB duchaus berechtigt.

Und genau darauf haben die ersten gewartet - seit längerem!

Doch nach dem Launch im Herbst 2009 war von den 2GB-Karten längst nichts zu sehen.(die 5970 mal ausgenommen, die als richtig "dicker Koffer" mit Überlänge von bis zu 32 cm bei weitem nicht in jeden Tower passt /nicht sehr variable dicke Stromstecker zudem bedacht!)

Nun, kaum ist der Fermi draußen (wenn auch nur in homöopatischen Dosen) gibts auch gleich die ersten 5xxx Karten mit 2GB Grafikram (GDDR5)pro GPU zur Gewährleistung eines flüssigen Games in höchtsten Settings.

Die einzelnen Karten dieses Kalliebers, die auch tatsächlich verfügbar sind ,habe ich ja die Tage schon kurz vorgestellt. Sie sind verfügbar oder unmittelbar verfügbar, wenn auch die Lager der Distributoren und Händler erstmal nur verhalten knapp gefüllt zu sein scheinen... (Angst vor zu hoher Preissenkung?)

Vor Tagen habe ich die Karten auch etwas genauer angesehen und die ersten Reviews verglichen. Zusammen mit den Eckdaten und ersten Benches hat sich ein recht klares Bild ergeben, das manchen überraschen dürfte, da sich eine Karte besonders herausgehoben hat!

Genau diese Karte kann ich euch heute mal in einem kurzen User-Test vorstellen, da sie scheinbar zur sogenannten "ersten Sahne" zu zählen sein wird!
Natürlich gleich im CrossFireX Modus, da FHD mit höchsten Filtern sonst kaum Freude bereitet!

Doch zur Karte selbst:
Brandneu und schick kommt sie daher. Gleich ab Werk übertaktet auf 765 Mhz (Standard = 725) und erhöhtem Speichertakt von 1125Mhz (eff.4500)
Sie sieht schick aus und setzt auf das bewährte VaporX -Design auf.
Zudem ist sie - dank ihrer hoch-effizienten Kühltechnik dem Referenz-Design ein spürbares Stück voraus:

Sie ist kühler und leiser!
Selbst bei einer Lüfterdrehzahl von über 50% ist sie sehr leise. So leise, dass sie im Säuseln der Gehäuselüfter etc. untergeht und damit so leise wie die VaporX der 4xxx Generation vorher im Lehrlauf!
Natürlich geht es nicht leise genug, aber ein deutlich (hörbarer) Vortschritt ist in dieser Richtung gelungen!
Doch das ist nicht alles, sie ist auch noch sehr kühl!
Sogar in Warhed ging mit dieser nicht sehr hohen Lüfterdrehzahl die Temperatur nicht über 53°C hinaus (gut durchlüfteter Tower natürlich vorausgesetzt!) was in meinen Augen fast phänomenal ist.

Doch hier erstmal ein Bildchen von der Radeon HD 5850 Toxic oc mit 2GB

sapphire-hd-5850-toxic.jpg
6_thumb.jpg
8_thumb.jpg


Die Maße, egal was so im Web steht:
Im Tower eingebaut messe ich eine Länge von ~28Cm über alles + Stromstecker, die nach hinten raus führen, also die Karte eigentlich verlängern - auf 31cm!
Das bedeutet für manche, die mit einem Kauf liebäugeln: nochmal genau nachmessen, ob hier ausreichend Platz im Tower verfügbar ist!
Dabei ist sie bei weitem nicht die größte, wie oben schon erwähnt, geht die 5970 etwa schnell auf die 32 cm zu und die hat auch noch Stromanschlussbuchsen, die entweder nach hinten hinzukommen, oder nach unten ein gutest Stück Platz benötigen!
Somit ist die 5850 Toxic von Sapphire eher eine der kleineren, der 5xxx Geschwister.

Doch vorab ein Gedanke, der machen vllt. interessieren wird:
Vorteil ?!
Was hebt die 5850 toxic ggü. der 5870 hervor? Was ist so besonders?

Von den verfügbaren derzeitigen Modellen der 5x Serie sind bisher nicht viel tatsächlich zu haben. (habe ich vorgestellt) Die meisten sind im Referenz- Design noch nicht kühl-effizient optimiert, wie es scheint. Damit sind sie klar lauter und heisser als der "kleine" Mitbewerber für das "Treppchen" des P/L-Siegers.

Preise und andere Gedanken:
Zudem sind die Karten, so erhältlich, ein gutest Stück teurer und auch größer (länger)
Und .. nicht zu allerletzt, kommt eine HD 5850 Toxic erstaunlich nahe an ihren eigentlich ein Stück größeren Bruder heran, es fehlen sogar bei nur Werkstaktung nur einzelne Frames (!)
Dies wiederum könnte bedeuten, dass die 5870 nicht immer, oder nicht überall ihre etwas höhere Anzahl von Streamprozessoren ausspielen kann, oder nicht so wie gewünscht (?)
Das wird sich aber noch klären.

Lautstärke:
Darüber hinaus kann die Karte recht leicht auch noch höhere Sprünge machen in Sachen oc: Die GPUs lassen sich, wie erste Reviews und eigene Versuche ergaben recht leicht hochsetzen ohne dass dies von der Wärme groß zu spüren wäre. Ebenso der GDDR5 Ram, der hohe Qualität zu besitzen scheint.
Der damit erhoffte Vorsprung zu den größeren Brüdern ist damit nahezu dahin:
Ein CF-Gespann von nur zwei der Pixelmonster kann es nahezu mit einer 5970 aufnehmen und fast mit zwei 5870ern, die im Referenz-Design und Standardtakt daherkommen! (da fehlt nicht mehr allzuviel!)

Doch schauen wir mal auf die
technischen Details und hernach auf das Ergebnis in unserem Referenz- Spiel Crysis Warhed:

Doch nehmen wir die Karte mal ein klein wenig unter die Lupe:
Was erhält man derzeit für wieviel Geld.

*Der billigste Anbieter sitzt in Österreich, kann oder will aber gar nicht an Deutlichland verkaufen, andere haben die Karte noch auf unbestimmte Zeit gar nicht auf Lager. Die Preise von bis auf 329€ oder sonst was sind also für "die Tonne"
Einzig Alternate konnte liefern, allerdings für 399€ (inzwischen ist der Lagerbestand schon wieder auf rot!)
Für das Geld bekommt man eine ordentlich verpackte und stabile Kiste mit ein wenig Zubehör im bewährten Eil-Tempo (rund 24h)+
Darin enthalten sind die Treiber DVDs samt Handbücher und jeweils zwei Stromadapter (dürften manche benötigen für ihr Netzteil = 1x 6Pin; 1x8 Pin)
und ein einfacher Adapter DVI -HDMI, wie er eigentlich immer beiliegt bei allern Karten.
dazu eine ArcSoft Software, deren Sinn sich mir bisher noch nicht erschließt.
Die üblichen Bilder von den Teilen verkneife ich mir, es sind immer dieselben!
images


Anschluß und Einbau, Konfiguration:

"Alte" Karten deinstalliert und deaktivert und den Rechner herunter gefahren und rausgebaut.
Neue Karten rein, CF Brücke drauf, ein paar Neustarts nach der Treiberinstallation und es lief einfwandfrei (es musste also nicht mehr wie früher tw. umständlich erst eine, dann die nächste Karte erkannt und aktiviert werden!)
Treiberupdate und Einrichten, sowie das Aktivieren und Deaktivieren funktionierte einwandfrei, von einigem tw. zweiminütigen Rumgeflackere mal abgesehen und zwei Ressets (warum auch immer)
Das mag nun schlimm klingen, ist aber ggü. früher deutlich weniger und besser geworden und kommt nich so häufig vor! Es geht oftmals auch ohne Neustarts, besonders das Deaktivieren.
Einbebaut dürfte es für etwas größere Tower dann etwa so aussehen bei erstmal einer Karte (man kann ja später erst die zweite zukaufen!?)
rssbvl.jpg


Die technischen Details im Einzelnen:
Bild18_327x303_8a1ed1d14df8ca52c75474a87584fe9a.jpg
http://www.awardfabrik.de/grafikkarten/sapphire-radeon-hd5850-toxic-4.html

Die Karte verfügt über mehr Streamprozessoren, als die Bezeichnung der Baureihe dies vllt. für manchen vermuten lässt: über 1440 zu 1600 (bei 5870/5970) also eigentlich gar nicht mal so viel weniger als der große Bruder.
Mit ein wenig oc - sei es nur moderat auf 800 Mhz GPU - und etwas angehobenem Ram wird der Abstand noch kleiner, wie bereits gesagt!
Dies ist übrigens wohl sogar so eingeplant und ausreichend Reserve vorhanden, wie es aussieht. (Ohne Volt- Anhebung und ohne nenneswerte Hitzeentwicklung !)

Die Leistung wird mit 2TFlops+ angegeben, mit moderatem oc bei um 800 Mhz dürfte die Karte leicht an die 2,2 Tflops kommen. Im CF Verbund natürlich klar mehr (im Falle von Warhed um die 100%+ was rechnerisch eine theoretische Rechenleistung über dann 2880 Streamprozessoren von bis um 4,4 Tflops ergibt)

Die Karten werden "nur" mit einem 6-Pol
Stromanschluss und einem 8-Pol-Anschluss befeuert, was viele freuen dürfte!
Das Bild im Web stimmt also nicht: es sind 6+8 (!)
images
sapphire_5850_9.jpg

Zum Betrieb:

Overclocking:
Einfach via CCC lässt sich problemlos die Taktrate, oder die Lüfterdrehzahl einstellen, was in Spielen vieles sehr vereinfacht: Einfach das voreingestellte Profil laden - wie gewohnt - und es kann losgehen.
Hier aber gleich eine Vorwarnung: Da die Karte ab Werk ja schon oc ist, ist bei CCC mit 10Mhz+ auch schon gleich wieder Schluss.
Weitere Programme, wie der Riva Tuner, MSI Afterburner und ein AMD Tool konnte ich bisher noch nicht zu höherem Takt überreden. Evtl. werde ich nach-berichten, sobald es geht, wie es geht!

Hier sei noch ein mal erwähnt, dass die Karte extrem leise ist, bis über 50% Lüfterdrehzahl! (kommt natürlich auf die Ohren und die pers. Empfindlichkeit an, aber ich empfinde sie leise. Auch die Sone-Zahlen im Web dürften stimmen, jedenfalls deutlich leiser als ihre Brüder bisher)

Aber zu den Ergebnissen, auf die viele gespannt sein dürften:
Was ist nun mit
Warhed,
unserem "Referenz-Spiel"? (da es neben der überragenden Grafik sehr gut mit CF skaliert und keine übertriebene CPU benötigt
screenuntercrysiswhmitv4g9.png
warhedscreen3860_3__8xa00f.png


Nun wirds ernst, was kann sie denn wirklich im CrossFire X Modus?

Das Testsetting:

AMD Phenom II 965 B.E. c3 @ 3,86 Ghz
Asus M4 A79 DeLuxe Bios 4/09 AM2+
Ram= Patriot DDR2 800 @900Mhz~ cl.5
Grafikkarten: Sapphire Radeon HD 5850 Toxic oc 2GB auf zwei mal 16x PCIe Lanes 8hier 1. und 3. Slot, damit genügend Luft dazwischen kann
Tower: Antec Twelfehundred mit mehreren leistungsstarken Lüftern, samt starkem Türlüfter, der aufs Board und die Grakas bläst!
NT: Tagan 900 Watt mit Kabelmgmt.

(Leider kann ich gerade kein Bild mit Fraps machen, werde es sobald es geht nachlegen!)

Zum Ergebnis selbst:

Es wurde immer die Selbe Szene auf dem Hügel mit der zu zerstörenden Radarstation ermittelt und verglichen!

Die Einstellungen im CCC:
16x AA/AF overalls; Alles sonst hoch und 1680x1050 Auflösung, bzw. 1600x1200.

Die Einstellungen in Warhed:
AA/AF: Alles auf 8x (höher ging nicht) und "entusiast" over alls, außer Wasser und Sound und Bewegungsunschärfe um mit altem Setting zu vergleichen! (Wasser ist sowieso schon mit Gamer mehr als gut, Sound trägt nicht zur Bildverbessesrung bei und Bew.-Unschärfe ist ok, da unnötig höher)

Um es gleich vorwegzunehmen:
Die Frames waren hier mit dem 5850 CF:

min. = 37 Frames
meist= 40-60~ Frames; allermeist um 60 | PEIe: 1. Slot = 16x für Einzelkarte 5850
max = 110 Frames (!!) | PCIe: 3. Slot = 16x für Einzelkarte 5850

Es wurde den Berg auf und ab gerannt, durchs Gebüsch gerannt und gesprungen usw. immer das selbe!

bei den 4850ern im Triple CF sah das im direkt vorher gemachen Vergleich so aus:

min. = 25 Frames
meist=26-46; allermeist um 30+ | PEIe: 1. Slot = 16x für Doppelkarte 4850x2
max = um 46 Frames | PCIe: 2. Slot = 8x für Einzelkarte 4850

Die Temperatur, die vorher bei den 4850ern nur mit nahezu max Lüfter (Turbinengeräusch dann!) möglich waren, gingen bis um 70°C bei um 23°C UT
Die Temperatur, die nun mit max um 50+ Drehzahl noch recht leise ist ging im selben Setting nun nur bis um 53°C bei um 22°C UT

noch ein sicher für viele nicht unwichtiges Featuere wird die Eyefinity- Technik sein und das Multimonitoring; bzw. der Anschluss mehrerer Monitore, trotz CF!
Gleich vorweg:
Wieviele Montiore gehen/ gehen so ohne weiteres?
Die beiden Hauptanschlüsse sind ohne Adapter erstmal die einzigen, die bei CF noch aktiviert sind, wenn man keinen IGP an Board hat. (integrierter Grafikprozessor, also die sog. "on Board-Grafik")
Für den Betrieb von 3 oder 4 Monitoren muss man das CF (vorübergehend) deaktivieren, oder nach einer Adapterlösung suchen um via Miniport auf DVI/HDMI zu Adaptieren.
sapphire_5850_8.jpg


Fazit:

Was mir auffiel: (positiv)

Mit der Radeon HD 5850 Toxic von Sapphire ist m.Mg. nach ein großer Wurf gelungen.
Sie ist auffallend kühl auch oc, mit dem sie ja bereits ab Werk daherkommt.
Sie ist schick, obwohl da eigentlich im eingebauten Zustand eher egal wäre.
Sie ist kühl, auch mit recht hohen Taktraten!
Sie ist sehr dynamisch, was oc betrifft, hier ist scheinbar wirklich gut Reserve gleich eingeplant!
Sie ist leise....wie ich finde unglaublich leise, selbst bei um 50% Lüfter Drehzahl!
Sie Ist kürzer als viele der größeren Geschwister und somit etwas leichter verbaubar!
Sie ist natürlich ein gutes Stück günstiger als ihre großen Brüder!
Sie kann mehrere Monitore und beherscht das Aktivieren und Deaktivieren von CFim laufenden Betrieb (wenn auch noch etwas wacklig glegentlich!)
Die Installation geht fast von selbst.

- Negativ: wäre eigentlich nur dass die Stromkabel die Kürze der Karte wieder relativieren, irgendwie gibt es wohl noch keinen optimalen Anschlussort; der am Ende der Karte ist aber sicher nicht der beste !!
und:
- CF aktivieren und deaktivieren geht inzwischen zwar deutlich einfacher, aber noch immer nicht kompfortabel!
- vllt. könnte und wird der Preis um gut 50€ sinken, was die Karte dann aber auch wirklich mehr als Wert ist
(mit aktivem Adapter könnte der Preis gleich bleiben) :
489848.jpg


hoffe es hat euch gefallen und ein paar Fragen beantwortet!
Die Karte ist allemal besondere Beachtung wert und für machen sicher ein toller Tip!

von mir bekommt sie 4,75 von 5 möglichen Sternen ***** ["Brandheiss"]
kronen5fnt.png
anim._flammen.gif


Anhang: Benchmarks.
hier nur einer herausgegriffen, um zu verdeutlichen, dass sie recht gut mit dem Takt skaliert:
Bild22.jpg

weitere Benches weiter oben!

oc- Ergebnisse im Web sind inzwischen zahlreicht, ebenso die Reviews...einfach mal rumblättern, bzw. s. obige Links
hier nur noch mal einer herausgegriffen, da der GPU MSI Afterburner(der bei mir ja noch den Diest quittiert) scheinbar sogar 900 Mhz entlockt wurden (!!!)
http://extreme.pcgameshardware.de/g...e-radeon-hd-5850-toxic-im-pcghx-check.html#a6


-------------------------
Edit:
Nachtrag/Update:

Nachdem zum Arbeiten das CF einfach via Häkchen deaktivert wurde (diesmal sogar ohne Flackern)
habe ich kurzer Hand noch versucht Warhed mit exakt derselben Auflösung/Settings und exakt der selben Stelle mit nur einer Karte mal zu testen - spasseshalber!

Ergebnis:

Min ... = 32 Fraps~
im Mittel= 36 -50~
max. ....= keine höheren Frames gesehen.

Es genügte bei 1680 und 16x AA/AF sogar eine einzelne Karten mit nur 775 Mhz/1125Mhz Speichertakt bei ansonstem identischem Setting wie oben!

das verleitet mich zu den 4,75 Kronen noch ein + zu geben! (wer hätte das gedacht!)
Für Warhed mit zum. 1680 16x Filtern Enthusiast genügt eine Karte und ich brauche nicht mal CF zu aktivieren.

Ein Nachgedanke:
Wie kann es sein, dass die 5970 scheinbar so rel. leicht von einem 5850x Gespann eingeholt werden kann?
Entweder sie profitiert allermeist nicht, oder kaum von den 160 Streamprozessoren die sie mehr hat als die 5850...oder
ihr geht der Speicher einfach aus bei den höchsten Settings....
Man wird dies wohl in Bälde erfahren, - spätestens wenn die 4 GB 5970 auf der Ladentheke liegen.

Wie auch immer: Es scheint durchdacht: Allein die werksseitige Anhebung der GPu und des Ramtaktes in Verbindung mit 2048MB Grafikram scheinen in hohen Settings bereits eine einzelne Karte über die magischen 30 Frames zu hiefen! (was sogar etwas mehr ist, als ein 4850 x3 CrossFire (!!)

Und noch ein Gedanke zur Taktung der CPU:
Immer öfter hört man von CPU-Limitierungen sogar bei einzelnen Karten!
Dazu kann ich nur sagen, das zum. im gut abgestimmten Game Crysis Wahred dies nicht, oder nur unerheblich besteht!
Beim besten (oder eher schlechtesten) Willen, kann ich nicht sehen, wo hier was begrenzt - und das bei nur moderatem oc!
(mag sein, dass dies bei CPU-Lastigeren Anwendungen wieder ganz anders aussieht, aber wie man am Beispiel sieht: Es geht auch mit CrossFire ohne nenneswerte Limitierung!)
Ganz allgemein sei jedoch geraten dass für CF nicht "kleckern" sondern "klotzen" angesagt ist, was bedeutet:
Kein zu kleines/zu knappes/zu schwaches [auf der 12V Schiene] NT
Kein zu kleiner Tower!
Gute effiziente Durchlüftung (isbesondere bei oc & CF)
und keine zu schwache CPU (oftmals bringen 3,8 Ghz noch ein wenig mehr als 3,5 und 4 Ghz noch mal ein wenig mehr als 3,8... - aber wie gesagt nur manchmal in HiEnd Systemen und entsprechenden Anwendungen!)
Für CrossFire allgemein ist jedoch eher kein "Silent PC" oder "Sparen/Green-PC" angesagt, sondern richtig Gas geben *lol*

BTW: Leider gehen derzeit keine Screnns unter Crysis: er fotografiert zwar die Bildschirme, aber nur der linke ist sichtbar, der rechte dann schwarz.
Sobald es wieder geht, wird nachgereicht!


Update:

Inzwischen geht es mit Tspoons mehrfach verlinkter Anleitung via MSI Afterburner auf 881Mhz GPUs/ 1160 Mhz G Ram.

Hier erreicht die 5850 über 2,2+ Tflops als Einzelkarte und im CF bis zu 4,4 TFlops:
url]
 
Zuletzt bearbeitet:
Das Testsetting:

AMD Phenom II 965 B.E. c3 @ 3,86 Ghz
Asus M4 A79 DeLuxe Bios 4/09 AM2+
Ram= Patriot DDR2 800 @900Mhz~ cl.5
Grafikkarten: Sapphire Radeon HD 5850 Toxic oc 2GB auf zwei mal 16x PCIe Lanes 8hier 1. und 3. Slot, damit genügend Luft dazwischen kann
Tower: Antec Twelfehundred mit mehreren leistungsstarken Lüftern, samt starkem Türlüfter, der aufs Board und die Grakas bläst!
NT: Tagan 900 Watt mit Kabelmgmt.

(Leider kann ich gerade kein Bild mit Fraps machen, werde es sobald es geht nachlegen!)

Zum Ergebnis selbst:

Es wurde immer die Selbe Szene auf dem Hügel mit der zu zerstörenden Radarstation ermittelt und verglichen!

Die Einstellungen im CCC:
16x AA/AF overalls; Alles sonst hoch und 1680x1050 Auflösung, bzw. 1600x1200.

Die Einstellungen in Warhed:
AA/AF: Alles auf 8x (höher ging nicht) und "entusiast" over alls, außer Wasser und Sound und Bewegungsunschärfe um mit altem Setting zu vergleichen! (Wasser ist sowieso schon mit Gamer mehr als gut, Sound trägt nicht zur Bildverbessesrung bei und Bew.-Unschärfe ist ok, da unnötig höher)

Um es gleich vorwegzunehmen:
Die Frames waren hier mit dem 5850 CF:

min. = 37 Frames
meist= 40-60~ Frames; allermeist um 60 | PEIe: 1. Slot = 16x für Einzelkarte 5850
max = 110 Frames (!!) | PCIe: 3. Slot = 16x für Einzelkarte 5850

Es wurde den Berg auf und ab gerannt, durchs Gebüsch gerannt und gesprungen usw. immer das selbe!

bei den 4850ern im Triple CF sah das im direkt vorher gemachen Vergleich so aus:

min. = 25 Frames
meist=26-46; allermeist um 30+ | PEIe: 1. Slot = 16x für Doppelkarte 4850x2
max = um 46 Frames | PCIe: 2. Slot = 8x für Einzelkarte 4850

-------------------------
Edit:
Nachtrag/Update:

Nachdem zum Arbeiten das CF einfach via Häkchen deaktivert wurde (diesmal sogar ohne Flackern)
habe ich kurzer Hand noch versucht Warhed mit exakt derselben Auflösung/Settings und exakt der selben Stelle mit nur einer Karte mal zu testen - spasseshalber!

Ergebnis:

Min ... = 32 Fraps~
im Mittel= 36 -50~
max. ....= keine höheren Frames gesehen.

Es genügte bei 1680 und 16x AA/AF sogar eine einzelne Karten mit nur 775 Mhz/1125Mhz Speichertakt bei ansonstem identischem Setting wie oben!

Danke für die Werte! *great*
Warhead lief mit Gamer Einstellungen oder Enthusiast?
Hast du eingentlich dein Vista mal upgedated auf SP2 und das DX11 Update drüber laufen lassen?
Wieviel RAM meldet DXdiag nun unter Windows mit den 2x HD5850?
(Bei mir sind es mit 2x 1GB VRAM = 2797MB)


MfG
 
Warhed lief mit "Enthusiast over alls" außer Wasser, Sound und Bewegungsunschärfe, auch wenn das nicht viel Unterschied ist, aber es hilft dem Bild ja nicht...;D
(wenn ich das auch noch zuschalte, ist das aber faktisch wurscht!)

und mit 1680x1050 Pixeln im Vollbildmodus

bei

16XAA/AF und sonstige Filter hoch, bis auf dieses "Box", was bei anderer Wahl ebenso kein besseres Bild bring (also auch wurscht)

Dxdiag zeigt mir sowohl in der 32Bit als auch in der 64 Bit Version nur den Ram, der komplett angezeigt wird und die Auslagerungsdatei mit 2632 MB,
In dem Register "Anzeige2" zeigt er mir "Gesamtspeicher" von 730 MB ??? / DX 10

DX 11, das Upgrade lässt er nicht zu, da nicht aktiviert, da neue Hardware und aktivierung irgendwie nicht möglich ist

was bedeutet: mit DX11 kämen noch ein paar Frames hinzu ;D

Edit 2 wird noch einen draufsetzen:Preisschwankungen im Stundentakt:
die Karten gehen scheinbar weg wie warme Semmeln (bei Alt. waren bei meiner Bestellung noch ne Ladung da, am Abend keine mehr!)
Aber hier http://www.pcgameshardware.de/preisvergleich/a518181.html
werden die Karten gerade zwischen 450 und 350€ gehandelt (!) Euch vllt. zur Freude, mir zum Ärgerniss -aber geht ok, ist ja einfach oft so...
 
Zuletzt bearbeitet:
Ja, mit der DX11 API wird Multicore besser ausgenutzt! ;)
Du hast 16GB RAM drin stimmt es? Evt. bist du an der Adressierungsgrenze wegen Anzeige2! *noahnung*
 
wie Adressierungsgrenze....vorher hatt er 1022 Mb Ram für jede GPU angezeigt, nun hab ich 2x2 GB und er zeigt weniger an?

Soll ich etwas Ram rausbauen?
Das hab ich überhaupt noch nicht bedacht- nee oder? *kopfkratz*


Naja ließe sich rel. einfach testen: einen Riegel raus und DXdiag nochmal aufrufen...hmmmm
Das Board dürfte nicht begrenzen, dem gehts nur ums Ram, aber das OS kann nur 16GB....uiui
Wenn dem so wäre...(dann stünde er derzeit bei 16,7GB Ram, incl. Teilweise GraKaRam...) klingt plausibel...müsste ein Riegel raus (am einfachsten) oder ein upgrade auf k.a. Vista Ultimate...?
Mal nachforschen...
 
Zuletzt bearbeitet:
Vista Home Premium kann max. 16GB Verwalten
jo, war mir schon bekannt, aber nicht, dass dadurch der Grafikram, der ja ganz anders verwaltet...ach wurscht...
ne stimmt schon, klar, das muß der ja mit da rein quetschen, nur warum hatte ich dann vorher mehr?? *kopfkratz*

how ever: habe mal einen Riegel raus! (also nun 12GB Ram)

Ergebnis: noch immer nur 700MB am 5xxx Chip lt. DX Diag...???
(wie gesagt, weniger als mit den kleineren 4xxx Karten), da is was faul....

PS: warum sollte die 965 mit 8 GB schneller gehen, sehe ich nicht...zudem geht sie bis 4,06 Ghz (allerdings nicht ohne extremes Gepfiremel, was ich mir nicht antue, zudem nicht mit leisen Lüftern und nicht ohne weitere Probleme...usw...)
aber das mit dem Grafikram gibt mir nun zu denken, an der Adressierung scheint es jedoch NICHT zu liegen! :)
 
Zuletzt bearbeitet:
Dann liegt es wohl an den fehlenden Updates von Vista, aber solange es funktioniert hast du ja keinen Handlungsbedarf.

Wegen dem Speicher, nun ja das sind halt ein paar Watt weniger mit 8GB gegenüber 16GB.
Das kann was bringen muß aber nicht! ;)

MfG
 
aber solange es funktioniert hast du ja keinen Handlungsbedarf
naja schon, auch wenn es so läuft und irre schnell ist, möchte ich schon den bezahlten GraRam nutzen...*buck*

so, Vista ist aktiviert, special Thanks @ Patata!
GPU z ist neuestes drauf
und CPU z ist neuestes drauf! dieses zeigt mit 2048Mb Grafikram auf beiden GPUs (!)
warum dxdiag dann nicht? (da trau ich dxdiag nicht, sorry)
werd glatt wieder den 4. Riegel reinsopfen und gucken, ob der nicht doch die 2x2GB GraRam dennoch anzeigt?
(wobei erkennen nicht gleich adressieren können ist...hmmm....na, da komm ich schon noch hinter, was da ist!)

SP2 ging wieder nicht, hat irgendwie wieder nur das für 32 bit geladen und dann klar nicht ausgeführt, unerklärlich, mal gucken...
 
Zuletzt bearbeitet:
Wenn du Vista aktiviert hast, dann sollten die SP und das DX11 Update mit der Auto Update funktion kommen.
Kann aber etwas dauern und je nach dem ob du es aktiviert hast (Automatisch Updates herunterladen)

Was du auch noch schauen kannst, im Bios ob das Memory Hole remapping an ist.
dxdiag ist das Diagnose Programm von Direct X, demnach traust du DX11 auch nicht, wa? *buck*
dxdiag Zeigt nicht nur den Hardware Speicher der GraKa an (wie GPUz z.B.) sondern auch den gemappten RAM im normalen Speicher (16GB bei dir). Das muß aber innerhalb der ersten 4GB sein.


MfG
 
dxdiag Zeigt nicht nur den Hardware Speicher der GraKa an (wie GPUz z.B.)
naja aber eben irgendwie doch nicht, jedenfalls zeigt das neueste CPUz 2x2GB an und dxdiag nur jew.730MB...;)

Memory hole remapping sollte an sein, ja? Du meinst das könnte es sein (nach wie vor nur 3x4GB Riegel drin, sollte ja eigentlich nun spätestens passen!- vorher waren es ja 3x 1022* + 16378 vom Ram !! ) na ich guck mal. [*warum so ungrade war mich zwar nicht klar, aber immerhin]

laden tu ich heute nichts mehr, habe heute fast das halbe Web leergesaugt *buck*
 
Zuletzt bearbeitet:
ja, hab ich vorher auch gelesen, die können sich das erlauben!
hat mich schon bei meinem schönen WinNT4.0 Workstation genervt...!
Wobei dann die Frage wäre, was mit denen ist, die Vista haben und behalten möchten, aber vllt. in 2 Jahren mal ihr System neu aufspielen möchten?
Bekommen die dann scheinbar keine Updates incl. Sp1 und SP2 mehr ???
(das würde ja an eine Frechheit sodergleichen grenzen und einen völligen Windows-Beukott rechtfertigen !)

how ever, so schnell passiert ja nichts, wird ja nicht abgeschaltet oder so und wenn die auto-Upgrade- Option aktivert ist, sollte ich mein Sp2 ja bald wieder haben!

so nun noch im Bios gucken...

ja, nee, is angewesen!

so, sorry 4oT ..aber irgendwie hängt das ja auch mit CF und dem Grafikram zusammen...

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Die höchste adressierbare Ram-Adresse... und wie es was mit dem Grafikram wird, mit Vollbestückung des Rams...
Ein kleiner Excurs - ein wenig Theorie, ganz praktisch von großem Nutzen!
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------

EDIT: So Leute, bin grade noch mal am Auffrischen und Belesen betreffs max. adressierbarer Adressraum, ob, wo, wie da der Grafikram mitreinspielt.
Das dürfte spätestens "morgen" auch andere interessieren, oder schon früher!
Somit möchte ich gern mal einen kleinen Excurs zum Thema vom Zaun brechen!

Um es gleich vorwegzunehmen, meine Zeit als Informatiker ist ne ganze Weile her, meine Kentnisse sind bei weitem nicht mehr die frischesten, manches ist wegen "nichtaufrufens" aus des SwapFiles gelöscht worden - Nur noch weniges Cache-Hits sind vorhanden

Also her mit eurem (fundierten) Wissen, wo sind die Informatiker, wo sind die Cracks!
Bisheriger Stand:
(zunächst: Es geht hier nur um 64/48Bit Maschinen, es geht nicht um die 4GB Grenze in 32 Bit OS Systemen!)

* es gibt einen virtuellen Adressraum, der auf Seiten im Ram, tw. auch auf die HD ausgelagert wird, bei nichtgebrauch überschrieben wird und und und...
Dieser ist klar größer als der physikalische Ram. Soweit, sogut...Bei 64 Bit geht es bis auch 16Exabyte, leider in vielen OS vom OS begrenzt:
Etwa das hier zu Recht häufig verwendete Vista Home Premium 64Bit = hier ist eben bei 16 GB, also 16378 MB prinzipiell Schluss. [M.W.nach jeoch + zus. Virtuellen Adressraumes, was u.U. den Grafikram tw. oder ganz oben draufsetzten könnte ?
Wobei ich vorher bereits mit 3x1GB +16GB ja bereits um 19 GB adressiert habe.
Was uns wiederum zu den virtuellen Adressbereichen führen könnte !? (Es geht also ein wenig mehr!)
* Zumindest die Postition des Grafikrams: (es geht ja nicht um dem adressierten Bereich des IGPs, der klar im Ram sein muß!)
Dieser sollte m.Ea. nur mit seiner Seitenadresse im physikalischen Ram liegen oder? (dann könnte er zu den hier angesprochenen 16 GB hinzugezählt werden?!)

BTW: um es noch mal zu verdeutlichen: Vorher hatte ich 3x1GB Grafikram und 16GB Ram; in Dxdiag, bzw. anderen Programmen wurden die jew 1GB Grafikram auch angezeigt! Nun habe ich 2x2, also 4GB Grafikram + 16GB Ram.
In DXDiag wurde jeweils nur 2x 730MB angezeigt.
Ein RamRiegel wurde entfernt, sodass nur 3x4GB = 12GB Ram als physiklischer Ram dem OS zur Verfügung stand. Nach ein paar Neustarts und einem Kaltstart heute Morgen zeigt DXDiag nun 997 MB Grafikram pro Karte an, obwohl selbst bei max 16GB [Vista HomePremium 64Bit] ja nun genügend Adressbereiche zur Verfügung stehen sollten. (4+12GB) also selbst wenn der Grafikram miteinbezogen würde...
In GPUz, 0.3.0 und 0.3.1 steht nun allerdings "0" MB Memory Size, als GDDR5 ausgewiesen...
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten