Optimierte MilkyWay@home Applikation

@Gipsel*massa*

Also Die 19e läuft super gut und meine Lags hab ich so gut wie weg.
Die Einstellung >f40< ist für mich ziemlich gut :)
Sie läuft übrigens, wie auch bei 19d, perfekt mit Catalyst 9.2.
4 mal Poem und 4 mal Ati Gpu.
Hatte auch schon mal 16 WU´s gleichzeitig auf der Ati ;) HD4870 mit 1024 MB, aber so 3-4 WU´s ist ganz ok denke ich.

Super Ding Gipsel, danke dafür*great*
 
Zuletzt bearbeitet:
Scheint ganz ordentlich zu laufen. Wenn bis morgen keine Probleme auftauchen, kann die morgen sozusagen offiziell werden.
Achja, für alle die es interessiert, die Task Details sehen jetzt so aus:
task details 0.19e schrieb:
CPU time 1.825212
stderr out <core_client_version>6.6.15</core_client_version>
<![CDATA[
<stderr_txt>
Running Milkyway@home ATI GPU application version 0.19e by Gipsel
CPU: Intel(R) Core(TM)2 Quad CPU Q6600 @ 2.40GHz (4 cores/threads) 2.99697 GHz (276ms)

CAL Runtime: 1.3.145
Found 2 CAL devices

Device 0: ATI Radeon HD 4800 (RV770) 512 MB local RAM (remote 830 MB cached + 830 MB uncached)
GPU core clock: 625 MHz, memory clock: 993 MHz
800 shader units organized in 10 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

Device 1: ATI Radeon HD 4800 (RV770) 512 MB local RAM (remote 830 MB cached + 830 MB uncached)
GPU core clock: 625 MHz, memory clock: 993 MHz
800 shader units organized in 10 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

3 WUs already running on GPU 0
3 WUs already running on GPU 1
No free GPU! Waiting ... 82.744 seconds.
Starting WU on GPU 0

main integral, 160 iterations
predicted runtime per iteration is 119 ms (33.3333 ms are allowed), dividing each iteration in 4 parts
borders of the domains at 0 400 800 1200 1600
Calculated about 2.45253e+012 floatingpoint ops on GPU, 6.34181e+007 on FPU. Approximate GPU time 20.9356 seconds.
Calculated about 1.7886e+009 floatingpoint ops on FPU (stars).

WU completed.
CPU time: 1.82521 seconds, GPU time: 20.9356 seconds, wall clock time: 146.814 seconds, CPU frequency: 2.997 GHz

</stderr_txt>
]]>

Validate state Valid
Claimed credit 0.00967138302318915
Granted credit 18.407399
Die angegebene GPU-Zeit ist übrigens eine obere Grenze. Das heißt die echte Zeit (läßt sich schwer messen, sollte aber normalerweise nicht so weit weg sein) ist nie größer als der angezeigte Wert. Die GPU-Zeit beeinhaltet auch Zeit, die der GraKa-Treiber oder die CAL-Bibliotheken benötigen, z.B. für das Kompilieren des GPU Codes für die jeweils eingebaute Grafikkarte (der Code liegt als eine Art Assembler in der sogenannten Intermediate Language, kurz IL, vor). Da das erst zur Laufzeit gemacht wird, ermöglicht dies die App unverändert auch auf zukünftigen Karten laufen zu lassen (hat hier irgendwer 4890 gesagt?;D).
 
Läuft hier jetzt deutlich smoother als alle Versionen vorher.

Die Taktfrequenzen werden anscheinend nicht ganz korrekt erkannt, da bei mir beide mit 700MHz laufen, beide aber mit 669MHz erkannt werden.
 
Läuft hier jetzt deutlich smoother als alle Versionen vorher.
Das war der Plan 8)
Schön das es funktioniert ;D
Die Taktfrequenzen werden anscheinend nicht ganz korrekt erkannt, da bei mir beide mit 700MHz laufen, beide aber mit 669MHz erkannt werden.
Da kann ich wenig machen, ohne direkt auf die Hardware zuzugreifen. Das ist einfach das, was der Treiber über das CAL-Interface als Taktfrequenz meldet. Hast du irgendwelche Tools laufen, um die Frequenz zu ändern?

Gerade mal geschaut, bei einigen WUs zeigt er auch 700MHz an. Du hattest doch eine X2-Karte, oder? Wenn ich mich richig erinnere, hat er da doch gar nicht beide GPUs voll benutzt. Eventuell taktet der Treiber die Karte wegen fehlender Auslastung herunter? Einer im MW-Forum behauptet, bei ihm wäre das so (HD4870X2 lief nur auf 500MHz).

Also wenn Du mal ein wenig rumprobieren willst, kannst Du ja mal den Cat 9.2 ausprobieren (das mit dem Kopieren und Umbenennen der dlls nicht vergessen). Zumindest bei UL1 von SG liefen damit auch 4 GPUs (allerdings keine X2) mit voller Last. Vielleicht wäre das einen Versuch wert, insbesondere da der Cat 9.2 ja schon zum StreamSDK 1.4 gehört, welches morgen oder spätestens Montag rauskommen soll und Multi-GPU-Support bieten soll (ich habe den in der jetzigen Version einfach mal selbst in die Brook-Runtime eingebaut ;D).
.
EDIT :
.

insbesondere da der Cat 9.2 ja schon zum StreamSDK 1.4 gehört, welches morgen oder spätestens Montag rauskommen soll und Multi-GPU-Support bieten soll (ich habe den in der jetzigen Version einfach mal selbst in die Brook-Runtime eingebaut ;D).
Ups, jetzt ist es da. Das liest sich ja erstmal gut:
With v1.4-beta comes:

Significant feature enhancements to Brook+:
  • Support for multiple GPUs in a single program.
    ..
  • Support for the ATI Radeon HD 4870X2 and 3870X2.
    ..
Außerdem ist das SDK 1.4 angeblich schon mit dem Cat 9.3 getestet und für kompatibel befunden worden *suspect*
Vor allem wenn man das noch liest:
SDK1.4 download page schrieb:
NOTE: ATI Catalyst 9.3 does not work properly on Windows XP systems for ATI CAL applications, including Brook+ applications. If you are using a Windows XP system, you will need to use ATI Catalyst 9.2 or wait for the hotfix for ATI Catalyst 9.3 or a later driver.

Edit:

Nochmal gerade die Doku durchgeblättert, hat sich wirklich was an der Funktionalität getan. Jetzt kommt man auch über Brook an ein paar Dinge ran, die vorher nicht möglich waren. Und die Multi-GPU-Unterstützung und die mögliche Freigabe der CPU während der GPU-Berechnungen sind jetzt standardmäßig drin in der Brook-Runtime. Meine Modifikation der brook.dll wird damit eigentlich überflüssig. Die Funktionalität ist dabei sogar noch deutlich größer. Man könnte jetzt z.B. auch eine WU verteilt auf mehreren GPUs rechnen :D Das wäre also praktisch wie Crossfire bei der Grafik. Aber das werde ich wohl eher nicht machen.

Aber um nochmal auf das Problem von NOFX zurück zu kommen, ich habe jetzt mal so auf die Schnelle nichts Besonderes zu den X2 oder Crossfire gefunden. Also wenn man der Doku glauben kann, sollte die Aktivierung oder Deaktivierung von Crossfire hier keinen Unterschied machen. Da jetzt offiziell die X2 unterstützt werden (war bei SDK 1.3 mit Cat 8.12 und 9.1 nicht der Fall) müßte das wirklich ein neues Feature des Cat 9.2 sein.
 
Zuletzt bearbeitet:
Also die aktuelle Version 19e läuft bei mir ziemlich smooth ;D

Beide GPU werden wie es scheint optimal genutzt und das System ist deutlich ansprechbarer als vorher, dabei hab ich an den Standardeinstellungen in der XML nicht mal was angepassr *greater*

Planst du eine Anpassung deiner App. an die aktuelle Brook.dll?
 
Ihr könnt ja mal ein wenig mit der neuen Option f rumspielen (höhere Werte sollten bessere Reaktion des Systems aber auch etwas weniger Durchsatz ergeben), auch in Kombination mit w (w1.1 oder so). Werte oberhalb von 60Hz sollten eigentlich nichts mehr bringen. Standard ist übrigens 30. Das ist deutlich höher, als die effektiv wirksame Wert von ~6 mit einer HD4800 oder gar nur 2-3 mit einer 3800er bei der 0.19d Version.

Gar nicht nötig :) Kurz von meinen beiden 3850er berichtet (Beispiel Task-ID 22511630), inzwischen versuche ich mich an einer Übertaktung (669>799), Werte, die ich unter folding@home erfolgreich betrieben habe. Läuft auf´s Erste stabil.

Nach Installation des 19e lud der Client zunächst nichts, die zwei laufenden Projekte rosetta und POEM kurzerhand deaktiviert ... klappt schon mal.
Code:
13.03.2009 07:57:36|Milkyway@home|Sending scheduler request: Requested by user.  Requesting 1599621 seconds of work, reporting 0 completed tasks
13.03.2009 07:57:41|Milkyway@home|Scheduler request completed: got 0 new tasks
...
13.03.2009 07:58:57|Milkyway@home|Sending scheduler request: Requested by user.  Requesting 2073603 seconds of work, reporting 0 completed tasks
13.03.2009 07:59:02|Milkyway@home|Scheduler request completed: got 24 new tasks

Standardmäßig sind ja drei WUs eingestellt (statt bei mir zuvor auf zwei gesenkt) und siehe da: keine Mausspur-Verzögerungen, keine sich langsam öffnenden Fenster mehr, selbst das P3D-Forum hier lädt die bremsenden Werbeeinblendungen ohne irgendwelche Verzögerungen.*clap* Da nehme ich etwaige Performance-Verluste gerne in Kauf.
- Beispiel mit 19e berechnete Task-ID 22526099

Code:
3 WUs already running on GPU 0
3 WUs already running on GPU 1
No free GPU! Waiting ... 160.391 seconds.
Starting WU on GPU 0

main integral, 160 iterations
predicted runtime per iteration is 342 ms (33.3333 ms are allowed), dividing each iteration in 11 parts
borders of the domains at 0 145 290 436 581 727 872 1018 1163 1309 1454 1600
Calculated about 3.70012e+012 floatingpoint ops on GPU, 6.34181e+007 on FPU. Approximate GPU time 72.0781 seconds.
Calculated about 2.67297e+009 floatingpoint ops on FPU (stars).

WU completed.
CPU time: 13.7969 seconds,  GPU time: 72.0781 seconds,  wall clock time: 378.193 seconds,  CPU frequency: 3.0057 GHz

Einzig: meine feste Lüftereinstellung von 55% reicht wg. OC (allein?) nicht mehr aus, 105 Grad waren das Ergebnis nach wenigen WUs/Minuten, eine Besonderheit in meiner Konfiguration kommt zum Tragen: setze ein P35 mit x16/x4 (PCIe 1.0) ein, auf Slot 1 (x16) steigt die Temperatur bei gleicher Lüftereinstellung von 75% auf 10 Grad mehr (95 statt 85 Grad). Trotz flüssigem Arbeiten auf der GUI wird offenbar trotzdem beiden GPUs Höchstleistung abverlangt. [Grafikkarten sind beides identische Modell von Sapphire mit SingleSlot-Kühler im Referenzdesign, quasi die "schlechteste" Kühlerwahl, aber es tut.)

Die Belastung der GPUs ist gefühlt deutlich höher als mit folding@home, dort kam es vor, daß verschiedene Projekte entweder die eine oder andere Karte auf x16 oder x4 ausgebremst haben und GPU-Z nicht mehr volle 99% GPU-Last anzeigte. Mit MW sehe ich konstant 97-99% auf beiden Karten. Anhalten des BOINC-Manager (nur MW) zeigt 178 Watt auf dem Messgerät, Fortsetzen gerade mal 222 Watt, Taskman zeigt 10-15% CPU-Auslastung (beide GPUs aktiv mit insgesamt 6 laufenden WUs). Schalte ich rosetta und POEM (je zwei WUs) dazu sehe ich 288 Watt auf der Anzeige. (Netzteil ist ein be quiet Dark Power Pro 550W mit extra 12V-Stromversorgung für den Boardanschluß/Betrieb mit zwei Grafikkarten, CPU ist ein Q6600@3,0, WinXP/32.)

Der Taskmanager zeigt mir nach einiger Beobachtungszeit schwankend 85% bis 100% an, tatsächlich wird je nach Auslastung durch MW eine WU von rosetta (die mit spätererem Abgabedatum) zeitweise inaktiv, trotzdem: zuvor ging es automatisch gar nicht, jetzt scheint der Scheduler gut und vor allem schnell zu schalten und zu funktionieren. *great*

Bin sehr zufrieden, es macht richtig Spaß MW so gecruncht zu sehen, sogar auf meinen beiden "Auslaufmodellen" *lol*
 
Planst du eine Anpassung deiner App. an die aktuelle Brook.dll?
Direkt planen noch nicht, aber es ist natürlich klar, daß ich mittelfristig wohl lieber den offiziellen Multi-GPU-Support der API benutzen sollte als meinen momentanen Mod der alten 1.3 Version.

In der 0.19f Version wird auch höchstwahrscheinlich die GPU-Zeit als offizielle WU-Zeit ausgegeben und nicht mehr die CPU-Zeit (muß das noch mit Travis absprechen). Die CPU-Zeit ist ja wenig aussagekräftig und das Ganze kann auch zu Problemen mit den Arbeitsanforderungen des BOINC-Clients führen. Durch die geringen CPU-Zeiten sinkt ja der "duration correction factor" (damit sagt der BOINC-Client die Laufzeiten der WUs voraus) ins Bodenlose. Ist der unter 0.02 gesunken (was bei CPU-Zeiten um 2 Sekunden recht schnell passieren sollte), fordert der Client nämlich keine neue Arbeit mehr an, bevor nicht alle vorhandenen WUs berechnet wurden. Das ist natürlich unerfreulich. Mit Angabe der GPU-Zeit sollte das auf jeden Fall immer oberhalb dieser Grenze bleiben (es sei denn einer packt eine ATI-Karte auf ein VIA Nano Board *buck*).

Die Grenze soll wohl vor fehlerhaften Apps/Hosts schützen, die nur Fehler produzieren und deswegen wie wild durch die WUs rasen *lol*
 
Hallo Leute,
ich habe gerade probieren MilkyWay auf der neuen Grafikkarte (HD4870) meiner Freundin laufen zu lassen.
Es gibt aber sofort Berechnungsfehler. Woran könnte das liegen?

MfG Michael
 
ATI Treiberversion? Sollte 8.12 oder 9.1 sein. 9.2 soll zwar auch gehen aber ich fahre mit 9.1 ganz gut. Habe einen Downgrade von 9.2 auf 9.1 gemacht.
Welche Gipsel App hast Du installiert? Hast Du Boinc gestoppt, dann die Sachen im MW Ordner gelöscht und dann Gipsels MW App eingefügt?
 
Hallo Leute,
ich habe gerade probieren MilkyWay auf der neuen Grafikkarte (HD4870) meiner Freundin laufen zu lassen.
Es gibt aber sofort Berechnungsfehler. Woran könnte das liegen?
Bei solchen Fragen hilft es ungemein, wenn Du die genaue Fehlermeldung angibst (task details). Habe mir jetzt mal die Mühe gemacht, Deine Rechner bei MW zu suchen.
Bei dem Phenom II 940 ist es einfach:
Running Milkyway@home ATI GPU application version 0.19e by Gipsel
CPU: AMD Phenom(tm) II X4 940 Processor (4 cores/threads) 3.00637 GHz (578ms)

CAL Runtime: 1.3.145
Found 0 CAL device

No supported GPU found!
Das sollte selbsterklärend sein. Eine unterstützte GraKa sollte schon im System stecken :]

Der Phenom 9650 meldet:
<message>
CreateProcess() failed - Das System kann die angegebene Datei nicht finden. (0x2)
</message>
Höchstwahrscheinlich hast Du entweder die brook.dll nicht mitkopiert, BOINC nicht komplett beendet gehabt oder irgendwas anderes ist faul. Welcher Treiber ist da installiert?

Ansonsten auch einfach mal die mitgelieferte Readme lesen, da ist so ziemlich alles erklärt.
.
EDIT :
.

Hast Du Boinc gestoppt, dann die Sachen im MW Ordner gelöscht und dann Gipsels MW App eingefügt?
Das Stoppen reicht nicht. Das muß richtig beendet werden. Dafür muß man die Dateien nicht unbedingt löschen (schadet aber auch nicht).
 
Hallo danke für die Antwort,
laut Catallyst Control habe ich den Treiber-Paketversion 8.501. Ich werde jetzt mal 9.1 aufspielen und dann Berichten. Habe die neuste Gipsel App 0.19e drauf mit der 0.19d war es aber das gleiche.

Mfg Michael

PS: habe es gestern auf meiner 3200 onboard probiert daher 0 Cal Device.

PPs: habe Boinc nur normal beendet, es sind aber alle drei Datein da.
 
Zuletzt bearbeitet:
Hallo danke für die Antwort,
laut Catallyst Control habe ich den Treiber-Paketversion 8.501. Ich werde jetzt mal 9.1 aufspielen und dann Berichten. Habe die neuste Gipsel App 0.19e drauf mit der 0.19d war es aber das gleiche.
Cat 8.5 geht nun wirklich nicht.

PS: habe es gestern auf meiner 3200 onboard probiert daher 0 Cal Device.
Die erkennt er aber eigentlich auch als CAL Device (selber auf 780G Chipsatz ausprobiert), bemängelt dann nur, daß die kein double precision kann, aber die Daten (Taktfrequenz, Anzahl der Shader) der integrierten Grafik müßte er noch ausspucken.
Bei einer Service-Installation von BOINC unter Vista (das ist ja bei Dir Vista64) funktioniert die App genauso wie CUDA Apps für nvidia nicht. Vista blockiert da einfach den Zugriff auf die Hardware. Da bis zur Client-Version 6.2.xx (die hast Du auch) BOINC sich standardmäßig als Service (protected mode) installiert hat, dürfte das bei Dir auch zutreffen. Also mußt Du wahrscheinlich sogar BOINC nochmal neu installieren.

PS:
Wenn Du über Remotedesktop auf dem Rechner angemeldet bist, läuft das übrigens auch nicht. Frage mal MS warum. Mit VNC geht es.
 
Mit dem neuen 9.1 Treiber läuft es jetzt.

Ein großes Dankeschön an euch.​

*great*

MfG Michael

PS: nur zu Info die Onboard Grafikkarte (780g) war untertaktet (spart strom) und ich muß zugeben ich habe kein Ahnung was da für ein Treiber läuft.
 
Zuletzt bearbeitet:
Es läuft auch mit einer HD3200 ?
Hab ich zufällig onboard ^^

Falls es läuft, bringt es was ?
 
Glaube nicht kein "double precision" oder habe ich das falsch verstanden?
 
Mit dem neuen 9.1 Treiber läuft es jetzt.

Ein großes Dankeschön an euch.​

*great*
Und wie ist es so? Scheiße schnell oder? Kennst Du eigentlich den Vergleich mit der CPU?
Die Karte macht da übrigens etwas mehr als 1 credit/Sekunde, also gute 90k am Tag, falls Du Dir den Lärm 24h am Tag antun möchtest *lol*
PS: nur zu Info die Onboard Grafikkarte (780g) war untertaktet (spart strom) und ich muß zugeben ich habe kein Ahnung was da für ein Treiber läuft.
Das ist der Cat 8.12 ;)
Erkennt man der Version der CAL runtime bei den Task details auf der MW Seite.
Es läuft auch mit einer HD3200 ?
Hab ich zufällig onboard ^^
Nein, das läuft nicht. Nur die GPU-Erkennung zeigt den als CAL Device an, weil er bei Projekten, die nur single precision benötigen mitrechnen könnte. Also nach einer Beschwerde daß keine der erkannten GPUs double precision kann, würde der auch mit einer HD3200 abbrechen.

Von der Leistung her könnte der auch kaum mithalten. Der hat 40 Shader, also nur 5% der Einheiten einer HD4800er Karte. Also an Leistung würde da nicht so viel bei rumkommen :]
 
....

Nein, das läuft nicht. Nur die GPU-Erkennung zeigt den als CAL Device an, weil er bei Projekten, die nur single precision benötigen mitrechnen könnte. Also nach einer Beschwerde daß keine der erkannten GPUs double precision kann, würde der auch mit einer HD3200 abbrechen.

Von der Leistung her könnte der auch kaum mithalten. Der hat 40 Shader, also nur 5% der Einheiten einer HD4800er Karte. Also an Leistung würde da nicht so viel bei rumkommen :]

Schade aber danke für den schnelle Antwort.
Naja so hab ich wenigstens mal den Treiber aktuallisiert^^
Aber 5% wären immerhin 5% *chatt*
 
Und wie ist es so? Scheiße schnell oder? Kennst Du eigentlich den Vergleich mit der CPU?
Die Karte macht da übrigens etwas mehr als 1 credit/Sekunde, also gute 90k am Tag, falls Du Dir den Lärm 24h am Tag antun möchtest

Leider habe ich MilkyWay nie auf der CPU laufen lassen. Und zum Lärm ;D meine freundin wohn 90km von mir entfernt8). Aber sowas schnelles hab ich noch nie bei Boinc gesehen. Du machst keine halben Sachen was. ;)

MfG Michael
 
Mit n1 läufts bei mir jetzt sehr rund. Sowohl w1.5, als auch f100 führten doch sehr regelmäßig zu VPU Recovers.

Ich habe zwei 3850 im Einsatz, bei denen jetzt auch der Takt richtig erkannt wird. Vorher waren die auf 700MHz getakt und er hat die originalen 669 MHz bei beiden erkannt, obwohl die zweite von Haus aus mit 690MHz (MSI OC) getaktet ist und nie bei 669MHz lief.

Jetzt läufts erstmal sehr gut, auch wenn die GPU-Auslastung nicht bei 100% liegt. ImLaufe des Tages hatte sich in meiner Abwesenheit die VPU mal wieder recovered und ich hatte eine WU mit sage und schreibe 26.000 Sekunden Laufzeit.
 
was Gipsel schon wusste ;)

Bildquelle: c´t 07/09, Seite 95, heise Zeitschriften Verlag
 
Bei mir laufen 4x PrimeGrid bzw. 4x ABC parallel zu 3 MW auf einem Phenom 9850 mit einer Sapphire 3870 unter Vista 64 mit dem 8.12er Treiber jetzt ohne Ruckeln/Lags sauber. Hoffe, dass jetzt der Treiber damit auch mal länger als 6 Stunden ohne Fehler läuft, denn mit der 19b stürzte der 8.12er Treiber manchmal schon innerhalb einer Stunde ab, der 9.1 sogar schon 5 Sekunden nach dem BOINC-Start.
.
EDIT :
.

Nach 15 Minuten hing der Rechner, ausser Reset keine Eingriffsmöglichkeit mehr. Ich versuch jetzt mal den 9.2er Treiber.
 
@Gipsel

Danke für die neue App. Sie läuft bislang echt gut; ich kann jetzt sogar wieder nebenbei DVB-Viewer anwerfen ohne das ich Standbilder "sehe". Ich würde zwar tippen, dass es so 18-20 Frames sind, also etwas träge, aber man gewöhnt sich daran. Läuft die App denn nun unter dem aktuellsten Catalyst?
 
Bei mir laufen 4x PrimeGrid bzw. 4x ABC parallel zu 3 MW auf einem Phenom 9850 mit einer Sapphire 3870 unter Vista 64 mit dem 8.12er Treiber jetzt ohne Ruckeln/Lags sauber. Hoffe, dass jetzt der Treiber damit auch mal länger als 6 Stunden ohne Fehler läuft, denn mit der 19b stürzte der 8.12er Treiber manchmal schon innerhalb einer Stunde ab, der 9.1 sogar schon 5 Sekunden nach dem BOINC-Start.
.
EDIT :
.

Nach 15 Minuten hing der Rechner, ausser Reset keine Eingriffsmöglichkeit mehr. Ich versuch jetzt mal den 9.2er Treiber.

Hallo
ich habe schon seit einer längerer Zeit unerklärliche Gefierer meines PII, das komische ist wenn ich Prime mache war er bis 3h stabil (habe dann aufgehört) und das bei 3750MHz. Auch eine Neuistallation brachte keinen Erfolg

kurze Frage benutzt Du LogMeIn bzw Speedfan??? Ich kann leider erst wirklich ab nächte Woche testen woran es liegt, aber bitte sage mir mal bescheid wenn Du doch noch einen anderen Grund finfest oder vermutest


mfg Schneckel
 
Zuletzt bearbeitet:
Hi Leutz

Wollte nur mal euch wissen lassen, daß auch der Catalyst 9.3 funzt. Allerdings muss genau wie beim 9.2 die dlls kopiert und umbenannt werden. Aber geht gut ab.

LG Tox
 
Zurück
Oben Unten