Zuhause bei AMD und nie mehr zurück zu NVIDIA!

@Thunderbird 1400
Akzeptiere DU doch einfach , das sich andere Leute nicht , wie DU , verarschen lassen und sich mit nem Beschissenen Bild zufrieden geben nur um den Längsten zu haben.
 
Diesbezüglich wäre wohl Matrox auch die bessere Wahl. Zumindest was 2D betrifft :)
 
@Thunderbird 1400
Akzeptiere DU doch einfach , das sich andere Leute nicht , wie DU , verarschen lassen und sich mit nem Beschissenen Bild zufrieden geben nur um den Längsten zu haben.

Oh mann, das Niveau hat den neuen Tiefpunkt erreicht *lol* *lol* Ok, ich wünsche dir einfach nur viel Spaß mit deinem guten Bild *lol*
 
Anscheinend ja nicht. Ansonsten würdet ihr alle eure sinnfreies Fanboy Gelabere oder aber das immer wieder aufwärmen von längst abgefrühstückten Themen einstellen.

Ob man nun eine nVidia oder AMD Karte kauft, rechtfertigen oder aber etwas beweisen muß niemand. Man sollte auch die Wünsche oder Vorlieben anderer Menschen respektieren.

Wenn man lieber 'ne Birne mag als 'nen Apfel ist das halt so.

dem gibts eigentlich nichts mehr hinzuzufügen.
 
Diesbezüglich wäre wohl Matrox auch die bessere Wahl. Zumindest was 2D betrifft :)

DAS ist auch immer mein Reden. In 2D Darstellung war Matrox die beste Wahl. Schade, daß die nur noch Spezialkarten für extreme Multi-Monitor-Anwendungen bei aktuellen Karten anbieten.
 
Ja, sie haben ihre Qualität genutzt und sind sehr früh aus dem Desktopmarkt herausgegangen. Prinzipiell war das (und man muss es auch zugegeben) die zu diesem Zeitpunkt vernünftigste Wahl. Wie viele Hersteller aus dieser Ära haben sonst noch überlebt? Das Geschäft war damals leider nicht ertragreich genug. Wer weiß, vielleicht gibt es irgendwann einen Sponsor der Matrox überredet eine neue 3D Karte zu entwickeln. Das wäre dann mal wirklich ein Hammer :)
 
Anscheinend ja nicht. Ansonsten würdet ihr alle eure sinnfreies Fanboy Gelabere oder aber das immer wieder aufwärmen von längst abgefrühstückten Themen einstellen.

Ob man nun eine nVidia oder AMD Karte kauft, rechtfertigen oder aber etwas beweisen muß niemand. Man sollte auch die Wünsche oder Vorlieben anderer Menschen respektieren.

Wenn man lieber 'ne Birne mag als 'nen Apfel ist das halt so.

Hier sollen alle positiven Erfahrungen und Meinungen zu Grafikkarten mit AMD/ATI Chip rein. Nach dem ich mehrfach privat, als auch beruflich überwiegend schlechte Erfahrungen mit NVIDIA gemacht habe.

Es ist hier erst verkommen (zu einem "ICH-KAUF-NVIDIA-UND-MUSS-ES-DER-WELT-SAGEN-UND-RECHTFERTIGEN-Thema"), seit die NVDIA Fanboys mit dabei sind. Es kann ja schließlich in ihren Augen nicht sein, dass man sich über positive Erfahrungen mit AMD in einem/in DEM inoffiziellen AMD Forum austauscht.
 
Zuletzt bearbeitet:
Ja, sie haben ihre Qualität genutzt und sind sehr früh aus dem Desktopmarkt herausgegangen. Prinzipiell war das (und man muss es auch zugegeben) die zu diesem Zeitpunkt vernünftigste Wahl. Wie viele Hersteller aus dieser Ära haben sonst noch überlebt? Das Geschäft war damals leider nicht ertragreich genug. Wer weiß, vielleicht gibt es irgendwann einen Sponsor der Matrox überredet eine neue 3D Karte zu entwickeln. Das wäre dann mal wirklich ein Hammer :)
Und da sie ihre Qualität natürlich hochhalten wollen sind sie bei AMD gelandet. :)
 
Das Matrox aus dem Otto-Normal-Endkundenmarkt raus ging, hat u.a. auch was mit dem Scheitern der hoch gelobten Parhelia zu tun. Noch vor AMD und nVidia Karten konnte sie Direct X 9 und bot damals schon die Anschlussmöglichkeit für drei Monitore.

Nur die Leistung in den Games war dann nicht wirklich so überzeugend und die Karte vom Preis nicht wirklich gut positioniert.
 
Hm, und aktuell haben sie eine Karte raus-gebracht die alleine 9 Monitore ansteuern kann. Damit lässt sich doch locker ein episches Heimkino bauen ;D
 
[3DC]Payne;5073272 schrieb:
...welche ja bekanntlich AMD Chips einsetzen und KEINE NVidia Chips...

Wenn Matrox in einem solchen Fall genannt wird, dreht es sich um die eigenen Matrox Schöpfungen aus Zeiten der PCI und AGP Grafikkarten, als es auch u.a. noch eine Elsa AG in Aachen gab, eine Firma Diamond Multimedia, Spea...etc. Wo auch Creative Labs Grafikkarten baute...

Nachtrag: da wir eh nicht mehr auf einen wirklich vernünftigen Zweig hier kommen, wäre ich dafür, daß ein Mod oder Admin den Thread schließt.
 
Zuletzt bearbeitet:
Noch vor AMD und nVidia Karten konnte sie Direct X 9 und bot damals schon die Anschlussmöglichkeit für drei Monitore.
Nein, die Parhelia konnte nur DX8, die erste DX9 Karte ist und bleibt die R300, die nVidia damals quasi vernichtet hat.
Leider hat man damals nicht nachgelegt und ebenso große Dies angeboten wie nVidia...

Man stelle sich mal eine imaginäre Radeon HD4X70 vor, die ähnlich groß wie der G200 Chip von nVidia...
Und wenn man mal im Hirn behält, dass nVidia damals einen ~600mm² Chip brauchte, um mit einem 260mm² Chip mitzuhalten...

Aktuell sieht man ja auch sehr schön, dass AMD den Fortschritt bringt.

AMD hat uns DX12/Vulcan beschert.
nVidia hat uns den Proprietären Gameworks Mist beschert, mit dem man nur die Mitbewerber ausschließen will.

AMDs Grafikprozessoren sind auch deutlich fortschrittlicher als die nVidia Prozessoren, siehe Asynchrounous Compute.
Die nVidia Prozessoren sind hier sehr rückständig und bieten nur das, was die DX11 Spec vorschreibt - seit ~3 Generationen...
 
Es ist hier erst verkommen (zu einem "ICH-KAUF-NVIDIA-UND-MUSS-ES-DER-WELT-SAGEN-UND-RECHTFERTIGEN-Thema"), seit die NVDIA Fanboys mit dabei sind. Es kann ja schließlich in ihren Augen nicht sein, dass man sich über positive Erfahrungen mit AMD in einem/in DEM inoffiziellen AMD Forum austauscht.
Könnt ihr gerne machen, aber wundert euch doch nicht, wenn andere User sich äußern, wenn hier fröhlich Verleumdungen, Falschaussagen, höchst zweifelhafte Theorien, usw. zum Besten gegeben werden, um Propaganda zu machen. Dem muss man sich halt stellen, wenn man mit voller Absicht einen Thread mit provokantem Titel erstellt (der rein als Trotzreaktion auf den fast gleichnamigen nVidia Thread erstell wurde, wo ihr auch schon völlig aus dem Nichts mit provokativen Stänkereien eingestiegen seid).
Was dachten denn einige Leute, wie das hier ablaufen wird in diesem Thread? *lol* Nee, da müsst ihr durch. Wer Argumente verbreitet, muss auch Gegenargumente ertragen können.

Ja, ich diskutiere gerne und scharf. Sieht man ja in diesem Thread und ich habe auch kein Prolem damit, das zuzugeben. Aber ich versuche immer, sachlich zu bleiben, ich beleidige niemanden und ich ziele nicht unter die Gürtellinie, nur weil ich argumentativ nicht mehr weiter kommt. Das kann man leider von gewissen anderen Personen hier nicht behaupten. Da kommt dann nur noch kindisches Mimimi, aber deine Grafikkarte ist kacke! *lol*
 
Zuletzt bearbeitet:
Ich glaube niemand wird bestreiten, daß Microsofts schnelle Entwicklung von Direct X 12 auf Mantle von AMD zurückgeht...aber wahrscheinlich auch gleichzeitig IMHO der Todesstoß für Mantle sein wird.
 
Ich schätze es war sowieso lediglich der Plan von AMD dieses zu erreichen. Eine Company ins Boot holen die sich wesentlich besser um die Software kümmert und auch gleichzeitig zugunsten ihrer Hardware mit entwickelt. Mal abgesehen davon das Microsoft seine Mitarbeiter dafür bezahlt und nicht AMD *buck*
 
Glaube ich eher nicht. Mit Mantle hatte man ein schönes Eisen im Feuer und die großen Spielefirmen wie Square Enix und EA hatten nicht nur angekündigt, Patches für damals aktuelle Games wie Tief oder Battlefield 4 zu machen, sondern es wurden auch Ankündigungen gemacht, man wolle diverse neue Titel, u.a. auch Mass Effect 4 mit Mantle Support bringen.

Wie viel von den Plänen jetzt noch umgesetzt wird, wo DX 12 da ist, wird man sehen. Für die "Windows 10 Hasser" Fraktion wird es ggf. etwas enttäuschend werden.

Eine zusätzliche API einzubinden und vernünftig zu unterstützen braucht mehr Zeit und sowas kostet Geld, da die Informatiker ja ihre Arbeitszeit auch vergütet haben wollen.
 
Zuletzt bearbeitet:
Oh mann, das Niveau hat den neuen Tiefpunkt erreicht *lol* *lol* Ok, ich wünsche dir einfach nur viel Spaß mit deinem guten Bild *lol*

War mir klar du DU die harten Fakten mal wieder ins Lächerliche ziehst.

UND nicht vergessen,du musst es auf ner AMD APU oder Graka sehen sonst siehst den Unterschied ja nicht.:P
 
Glaube ich eher nicht. Mit Mantle hatte man ein schönes Eisen im Feuer und die großen Spielefirmen wie Square Enix und EA hatten nicht nur angekündigt, Patches für damals aktuelle Games wie Tief oder Battlefield 4 zu machen, sondern es wurden auch Ankündigungen gemacht, man wolle diverse neue Titel, u.a. auch Mass Effect 4 mit Mantle Support bringen.

Wie viel von den Plänen jetzt noch umgesetzt wird, wo DX 12 da ist, wird man sehen. Für die "Windows 10 Hasser" Fraktion wird es ggf. etwas enttäuschend werden.

Eine zusätzliche API einzubinden und vernünftig zu unterstützen braucht mehr Zeit und sowas kostet Geld, da die Informatiker ja ihre Arbeitszeit auch vergütet haben wollen.
Wie meinst du das mit den patches für Mantle?
Ich hab hier 5 Spiele die alle unter windows 10 laufen sogar mit crossfirX Support.
Das heise Eisen ist nach wie vor im Feuer und wird auch ewig ein Argument für AMD bleiben.
Vulkan führt es nun weiter, mal sehen wer schneller mehr spiele bringt: DX12 oder Vulkan.

Ich glaube eher (h)Jen hat sich bei Lisa ausgeheult sie soll doch bitte langsam machen.
Darauf Lisa, sorry the stone is rolling...
 
Zuletzt bearbeitet:
ERNSTGEMEINTE FRAGE: (Betrifft auch den Erwerb einer neuen AMD Karte)

Kann ich mittlerweile bei AMDs (R9 390/X Fuy/Nano/X) mehr als 2 Monitore anschließen wenn ich KEINEN Displayport (sondern nur HDMI) an selbigen habe? (Konkret gehts um 2 TFTs und nen TV, aller per HDMI bzw. ein Monitor HDMI zu DVI)

Ich frage nur weil ich noch einen 3. potenten PC für den Zweitwohnsitz brauche und da AMD wieder ne Chance geben würde, WENN ich o.g. Scenario realisieren kann (Was mir mit 5850 / 6950 / 7970 und R9 280X ebenso wenig gelang wie mit 6670 und 7750) und wenn AMD endlich die Problematik des Energieverbrauchs im IDLE bei Multi-Monitoring erkannt und behoben hat.
 
Mittels DP-HDMI Adaptern sollte das kein Problem sein, je nach Karte.

Der Verbrauch im Zweimonitorbetrieb ist schon seit einigen Monaten gefixt. Inzwischen ist nVidia hier schlechter :P
Bei 3 angeschlossenen Anzeigegeräten verhält es sich aber so, dass kein Hersteller die idle Taktraten halten kann.
Bei Monitoren mit mehr als 120Hz sieht es auch ganz schlecht aus. Auch da werden die vollen 3D-Takte gefahren.
 
Hilf mir mal auf die Sprünge. Warum keine 3 Monitore gleichzeitig per HDMI und/oder DVI?
Bei den 390er hast Du teils 2 DVI + 1 HDMI + 1 DP
 
Geräte haben nur 50/60Hz, ist also nicht so problematisch , ich schätze aber mal, dass diese DP Adapter wieder aktive sein müssen, oder?

Wenn ich diesem Test glauben schenke, dann hat AMD das Prob aber auch wirklich NUR bei den "neuen" R9 im Griff (bei den 380/X/390/X welche ja Rebrands sind) eben noch nicht, hmm..schwierig

--- Update ---

Hilf mir mal auf die Sprünge. Warum keine 3 Monitore gleichzeitig per HDMI und/oder DVI?
Bei den 390er hast Du teils 2 DVI + 1 HDMI + 1 DP

Anschlüsse sind genug da, aber das es lassen sich (ohne Displayport) nur 2 Ausgänge gleichzeitig nutzen
 
Den Test hatte ich auch im Sinn. Allerdings weiß ich nicht, ob die älteren Karten hier noch mit älteren Treibern eingeflossen sind. In dem Fall geht dann probieren über studieren.
 
Zurück
Oben Unten