ATIs Fudo und Multi-VPU-Technologie AMR

Toonfish

Grand Admiral Special
Mitglied seit
05.01.2002
Beiträge
5.971
Renomée
30
Standort
München
SLI, so dürfte wohl der größte Dorn im Auge der kanadischen Chipschmiede <a href="http://www.ati.com" TARGET="b">ATI</a> heißen. Denn genau mit dieser Technik schaltet Hauptkonkurrent <a href="http://www.nvidia.com" TARGET="b">NVIDIA</a> zwei Platinen zu einer großen Recheneinheit zusammen und erreicht damit mit großem Abstand die Performance-Krone. Selbst der bereits im letzten Jahr <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1094052589">angekündigte</a> R520 - Codename "Fudo" - soll wohl einem GeForce-6800-Ultra-Gespann nicht das Wasser reichen können.<p>So gesehen bleibt ATI wohl nicht anderes übrig als selbst eine Multi-VPU-Lösung zu präsentieren und das neue Flagschiff erstmal in der Werft zu lassen. Über diesen Plan spekuliert Englands Computergerüchteküche Nr. 1 <a href="http://www.theinquirer.net/?article=23097" TARGET="b">the INQUIRER</a> heute.<p>Die neue Technik bringt Vor- und Nachteile mit sich. Im Gegensatz zu NVIDIAs SLI Variante können bei ATIs "AMR" getauften Technik zwei beliebige Grafikkarte miteinander verbunden werden. Der AMR-Treiber übernimmt die Verteilung der Rechenaufgaben angepasst an die unterschiedlichen Leistungen der Grafikkarten, so schreibt die <a href="http://www.gamestar.de" TARGET="b">GameStar</a> in ihrer aktuellen Ausgabe. Aufrüster aufgepasst!<p>Die Kehrseite der Medaille: Ganz so frei ist man bei der Wahl nun doch nicht. <a href="http://www.theinquirer.net/?article=23053" TARGET="b">the INQUIRER</a> schreibt nämlich auch, dass AMR auf einem Master-/Slave-Prinzip basieren wird. Eine Karte führt das Gespann an, in ihrem Speicher wird letztendlich das Bild gerendert. Die andere unterstützt nur. Uneinigkeit herrscht noch bei der Verbindung der beiden Platinen. Zunächst hörte man von einer reinen PCI-Express-Verbindung, welche den Bus doch stark belasten würde. Inzwischen ist von einer Art Durchschleifkabel die Rede, das jeweils einen DVI-Anschluss an jeder Karte belegt.<p>Wird das Ganze ordentlich umgesetzt, dürfte der Frames-Pokal zurück an ATI wandern. Eine Radeon X850 PE ist dem aktuellen NVIDIA Flagschiff überlegen, akkumulieren sich die Leistungen bei ATI in gleicher Weise wird der Vorsprung gar größer. Verwirrung dürfte es durch die unterschiedliche Wertigkeit der Karten geben. Ist der Laie im Namensbezeichnungsdschungel nicht eh schon hoffnungslos verloren, so muss nun auch noch darauf geachtet werden, ob man ein Master- oder ein Slave-Modell ersteht. Eventuell wird es die Master Karten nur von ATI direkt geben, das würde zumindest helfen die Problematik einzuschränken.<p>Interessant ist ATIs AMR auf jeden Fall, bietet es doch die Möglichkeit seine "alte" X800 durch eine X700 auf eine X850 PE "upzugraden". Vor allem in der mittleren Preisklasse entstehen neue Aufrüstmöglichkeiten. Im High-End-Bereich frisst eine X850 PE-Kombi aber ein Riesenloch in den Geldbeutel, doch das ist man von SLI her ja gewohnt... Bis Herbst ist ja noch viel Zeit, dann erst wird die neue 3D-Runde durch den Fudo eingeläutet, oder wird es doch NVIDIAs "G70" sein...?
 
Bitte das Ganze noch für AGP, damit ich meine jetzige GraKa weiterbenutzen kann... *suspect*

Mhm, aber verschiedene GraKatypen kombinieren zu können, ist natürlich schon genial (ordentliche Realisierung vorausgesetzt).
 
Hmm,

erst musste man bei den NVidias auf das gleiche BIOS achten von dem selben Karten Typ, aber nix extern verstöpselt. Hier isses nun fast egal, nur Master-Slave-Karten und externe Verbindung. *noahnung* Was is denn davon nu die eleganteste Lösung, oder kommt die dann erst mit SLI2 ;D Also bequem sind beide irgendwie nich. Da is noch viel Entwicklungsarbeit zu leisten, nach meiner Meinung, aber was solls.

MfG Micky
 
Micky1980 schrieb:
Was is denn davon nu die eleganteste Lösung?

Na, ati's Lösung ist ja noch lange nicht auf demn Markt. Der Inquirer gibt idR die nebulösesten Gerüchte *suspect* wieder, also erstmal auf richtige Tests/Reviews warten. Dann kann man die Frage beantworten.
 
Die neue Technik bringt Vor- und Nachteile mit sich. Im Gegensatz zu NVIDIAs SLI Variante können bei ATIs "AMR" getauften Technik zwei beliebige Grafikkarte miteinander verbunden werden. Der AMR-Treiber übernimmt die Verteilung der Rechenaufgaben angepasst an die unterschiedlichen Leistungen der Grafikkarten,

Das einzige gute Haar an der Suppe mit Fliege. Wuä.

Dass man beliebige Karten (welche AMR unterstützen, haha) miteinander kombinieren kann, is ja schon sehr gut.

Falls man Grakas von Slave zu Master per Bios change o.Ä. modden könnte ginge es ja noch z.T. - aber das bietet wohl nicht jeder Anbieter an etc.

Total unbrauchbar in dieser Beziehung. Das müsste 'dynamischer' ablaufen, also wenn man z.B. ins GraKa bios gehen könnte und da einstellungen vornehmen würde odedr so. Oder man kann es gleich im Windoof per Treiber machen...

Dann müssten sie noch den SLI - LInk von NVidia übernehmen. Als flexibles kabel, damit die breite nicht fix ist.

man kann doch bei NVIDIA mit SLI 4 MOnitore ansteuern - oder? Sollte man halt schon können, und nicht wi ebei ATI, dass dann 2 Anschlüsse verloren gehen...


Also ich bekomm von den Techniken immer mehr den Gräuel. N gemeinsamer Standard für ATI & NVidia würde wohl gut tun (schwer realisierbar, klar).

Für mich ist das unausgegorenes zeuchs. Absolut nich koscher. Kommt mir nich ins Haus.
Nvidias (ältere!) Lösung hinterlässt bei mir immer noch den ausgereifteren Eindruck...
cya
 
Hi..

Ähnelt der 3DFX-Lösung, im Prinizp war es damals nur ein beliebige Grafikkarte. Und ein Beschleuniger der per Kabel an die erste Karte gekoppelt wurde, und so die die spez. 3D-Anwendungen auf den Beschleuniger zugreifen konnten. Und hier die 2 Karte nun mehr unterstützt, aber scheinbar von dem Speicher nicht profitieren kann, da dieser ja von der ersten Karte genutzt wird, was wiederum ein kleiner Nachteil ist.

Aber dennoch sowohl bei NV als auch bei ATI ist es schade, das keiner der beiden in der Lage ist, bzw technisch wohl nicht möglich ist, alles auf einer Karte zu realisieren, ähnlich der Vodoo 5 5000/6000 und dann eben nur 1 Slot braucht, wobei der 2 Chip nur den ersten unterstützt, und somit im Prinzip spezielle Boards braucht, ein stärkeres NT, und ein Std der zueinander nicht kompatibel ist, was wohl das Hauptproblem sein, wo in der Praxis wohl dann für ATI Karten spez. Boards und Chipsätze von nöten sein werden, da es mit NV-SLI nicht kompatibel ist, und umgekehrt wohl auch nicht.

Am besten wäre 1 gemeinsamer Std. für Dual-Core Karte, zumindest das beste für den Kunden.
 
Zidane schrieb:
Hi..

Ähnelt der 3DFX-Lösung, im Prinizp war es damals nur ein beliebige Grafikkarte. Und ein Beschleuniger der per Kabel an die erste Karte gekoppelt wurde, und so die die spez. 3D-Anwendungen auf den Beschleuniger zugreifen konnten. Und hier die 2 Karte nun mehr unterstützt, aber scheinbar von dem Speicher nicht profitieren kann, da dieser ja von der ersten Karte genutzt wird, was wiederum ein kleiner Nachteil ist.

Aber dennoch sowohl bei NV als auch bei ATI ist es schade, das keiner der beiden in der Lage ist, bzw technisch wohl nicht möglich ist, alles auf einer Karte zu realisieren, ähnlich der Vodoo 5 5000/6000 und dann eben nur 1 Slot braucht, wobei der 2 Chip nur den ersten unterstützt, und somit im Prinzip spezielle Boards braucht, ein stärkeres NT, und ein Std der zueinander nicht kompatibel ist, was wohl das Hauptproblem sein, wo in der Praxis wohl dann für ATI Karten spez. Boards und Chipsätze von nöten sein werden, da es mit NV-SLI nicht kompatibel ist, und umgekehrt wohl auch nicht.

Am besten wäre 1 gemeinsamer Std. für Dual-Core Karte, zumindest das beste für den Kunden.
Die 6600 GT gibt es doch schon als "SLI-On-a-Card", die 6800 GT-Variante dürfte nicht mehr allzu lange auf sich warten lassen, wenn sich die Dual 6600 GT ordentlich verkaufen sollte.

4 Chips auf einer Karte wird es jedoch meiner Ansicht nach auf absehbare Zeit nicht geben, da der Strom- und Platzverbrauch immens wäre, die neueren schnellen Karten brauchen schon für einen Chip relativ viel Platz um die ganzen Spannungsregler etc. unterzubringen, mit mehr Chips wird das immer schwieriger.
 
Toonfish schrieb:
...
Verwirrung dürfte es durch die unterschiedliche Wertigkeit der Karten geben. Ist der Laie im Namensbezeichnungsdschungel nicht eh schon hoffnungslos verloren, so muss nun auch noch darauf geachtet werden, ob man ein Master- oder ein Slave-Modell ersteht. Eventuell wird es die Master Karten nur von ATI direkt geben, das würde zumindest helfen würde die Problematik einzuschränken.
...
Nein, ich denke eher, daß der Treiber die Zuordnung regelt, also die schnellere Karte einfach als Master bezeichnet; die Karten selbst dürften austauschbar sein. Wäre ja hochgradig unsinnig, für die paar Leute, die das einsetzen, nochmal extra Karten zu bauen.

Ich stelle mir das so vor, daß man einen Komplettrechner mit onboard Ati Grafik kauft und wenn man merkt, daß Doom3 nicht so ganz flüssig läuft :], kauft man eben eine X600 oder so dazu. Vorteil für den Käufer ist, daß er die Grafikleistung des onboard Chips mitnutzen kann, Vorteil für Ati ist, daß Komplettrechnerkäufter so eher Ati-Karten kaufen statt zur Konkurrenz zu greifen.
 
ich könnte durchdrehen !!!! :[
wer will denn diesen SLI oder AMR mist ???

ich wollte auf die r520 warten aber wenn die bis ende juli nicht raus ist, werde ich wieder nvidia kunde !!! die bremmsen meine aufrüstpläne aber so was von aus ....

ati sollte lieber karten mit pixelshader 3 auf den markt bringen (und das schnell) um nvidia wieder das wasser reichen zu können, dieses sli/amr gedöns wird sich in der masse nicht durchsetzen. meiner meinung nach!

guinnes
 
Guinnes schrieb:
ich könnte durchdrehen !!!! :[
wer will denn diesen SLI oder AMR mist ???

ich wollte auf die r520 warten aber wenn die bis ende juli nicht raus ist, werde ich wieder nvidia kunde !!! die bremmsen meine aufrüstpläne aber so was von aus ....

ati sollte lieber karten mit pixelshader 3 auf den markt bringen (und das schnell) um nvidia wieder das wasser reichen zu können, dieses sli/amr gedöns wird sich in der masse nicht durchsetzen. meiner meinung nach!

guinnes

Genau meine Meinung. Ich habe mir jetzt auch eine 6800 GT gekauft und werde diese zur Ultra optimieren. Na ja, Geduld ist eine sehr wichtige Tugend, nicht wahr? ;D
 
Also ich rechne mit großen Probelem (Treiber etc.) da ATI außer der Rage Fury Maxx (die ganz anders zusammen Arbeiteten) kein 2 Karten mit je 1 GPU's bisher gebaut hat, und NV dank 3Dfx einen Technischen Vorsprung hat. ATI wird es wohl sehr schwer haben da aufzuschließen...
 
die c't hat in der letzen ausgabe p4 mainboards getestet, u.a. zwei exemplare mit intel-chipsatz (i915p & i955) und zwei peg-slots.

dabei hat man spaßeshalber versucht, zwei nvidia-grafikkarten im sli-modus zu betreiben.

erstaunlicherweise (vor allem im verbindung mit dem alten i915p) mit erfolg

Quelle : c't Ausgabe 10/2005 - Prüfstand Pentium-4-Mainboard - Seite 175

Verbotenes SLI

Bislang war die SLI-Technik zur Kopplung zweier Grafikkarten Nvidias heilige Marketing-Kuh, um die Nforce4-Chipsätze im lukrativen Enthusiasten-Markt zu positionieren. Mit dem 915P Dual Graphics und dem 955XBK bieten jetzt aber auch Boards mit NICHT-Nvidia-Chipsätzen zwei PEG-Slots. Diese schreien geradezu danach, im SLI-Betrieb gekoppelt zu werden - das mag zwar deutlich mehr Prestige als Performance bringen, fordert aber den Basteltrieb heraus. Insbesondere, weil wohlweislich weder Gigabyte noch Intel das Thema ansprechen.

Ein erster Versuch mit der SLI-Brücke eines anderen Mainboards und den aktuellen Grafiktreibern (71.84) scheiterte, der Treiber erkannte den fremden Chipsatz und bot die SLI-Option gar nicht erst an. Nach kurzem Stöbern in den FTP-Archiven von Nvidia fanden wir allerdings ältere Treiber, die den Chipsatz auf dem Mainboard nicht abfragen und die SLI-Option klaglos anbieten. Mit zu alten Treibern (66.77) stürzt das System zwar ab, aber mit der 66.81-Variante hatten wir schließlich Erfolg: Die zwei Grafikkarten teilten sich die Rechenleistung im SLI-Betrieb und erreichten bei Doom3 rund zwölf Prozent mehr Frames pro Sekunde als eine einzelne Karte. Ob sich der Aufwand lohnt, muß jeder selbst entscheiden. Das Experiment beweist, dass SLI kein Feature des Chipsatzes, sondern der Grafikkarten ist.

fragt sich, wie lange es dauert, bis es modifizierte treiber gibt (oder gibt es sowas schon ?), die die chipsatzerkennung ausschalten können.

damit könnte man dann die grafikkarten auf jedem beliebigen mainboard mit zwei peg-slot koppeln.
 
mal sehen, wann dualcore-grakas kommen :)
dürfte doch nicht nur den cpu´s vorenthalten bleiben oder??

mfg
 
Hi..

NV wir eh früher oder später nachgeben müsen, und den Support freischalten in allen Treibern. Gibt genug OEMs etc, die auf andere Chispätze als NV setzen, Intel, VIA etc und dort sollte es auch funzen. Hört sich jedenfalls gut an.
 
OBrian schrieb:
Nein, ich denke eher, daß der Treiber die Zuordnung regelt, also die schnellere Karte einfach als Master bezeichnet; die Karten selbst dürften austauschbar sein. Wäre ja hochgradig unsinnig, für die paar Leute, die das einsetzen, nochmal extra Karten zu bauen.
.

Eben nicht. Bisher gibt's keine Infos, dass man die Karten per Jumper oder Software von Master auf Slave oder umgekehrt regeln könnte.
Vielleicht könnte man sich ja eine Lösung mit Ansteckmodul oder so überlegen, aber in der derzeitigen Form ist es sicherlich sehr umständlich.
 
BLJ schrieb:
Für mich ist das unausgegorenes zeuchs. Absolut nich koscher. Kommt mir nich ins Haus.
Nvidias (ältere!) Lösung hinterlässt bei mir immer noch den ausgereifteren Eindruck...
cya

Aber dir (und auch sonst jedem hier) ist schon klar, dass du dich über gerüchte aufregst?
 
na gut, du hast natürlich Recht, dass ich das Gerücht kommentiere und das Gerücht nicht kaufen werde ;-) =)

Naja wir werden ja sehen wies rauskommt. Werde mich natürlich auch weiter darüber informieren und mir ne Meinung bilden...

cya
 
BBott schrieb:
Also ich rechne mit großen Probelem (Treiber etc.) da ATI außer der Rage Fury Maxx (die ganz anders zusammen Arbeiteten) kein 2 Karten mit je 1 GPU's bisher gebaut hat, und NV dank 3Dfx einen Technischen Vorsprung hat. ATI wird es wohl sehr schwer haben da aufzuschließen...


ATI bastelt bereits seit einiger Zeit 2x,4x usw. Karten für Simulatoren-Systeme.
 
Zurück
Oben Unten