News Radeon RX Vega ein Schluckspecht? (Update)

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.445
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
MSIs Marketing-Direktor Eric van Beurden hat sich in einem niederländischen Forum zur kommenden Radeon RX Vega geäußert. Obwohl die RX Vega erst Ende Juli, Anfang August auf der SIGGRAPH vorgestellt werden soll, müssen die Grafikkarten-Hersteller natürlich bereits mit Vega hantieren (Entwicklung, Produktion, interne Tests) und verfügen somit über Erfahrungen mit der neuen AMD-GPU.
(…)

» Artikel lesen
 
Die Maximalleistungsaufnahme tritt ja nur in Kraft, wenn sie auch benötigt wird.
Wenn die Karte bei "Halbgas" (60 Hz Monitor und VSync z.b.) dann sparsam ist, wo andere Vollgas geben muesen, um die gleichen fps zu erzeugen, sieht das ganz anders aus.

Ich ahne aber wieder schlimmes, wenn die Karte bei Furmark dann 50 Watt mehr nimmt, als das grüne Lager.

Gruß,
skell.
 
Ach, ich seh das ähnlich wie van Beurden. Wenn RX Vega den direkten Gegenspieler aus dem grünen Lager in den relevanten Benchmarks verbläst, kräht kein Hahn nach der Verlustleistung. Wenn... ;)
 
Das Problem ist nur, es muss der bald kommende Gegenspieler von Nvidia sein und nicht der alte, abgehangene.
 
Volta kommt doch auch erst am Ende des Jahres (vielleicht sogar nur auf Papier) und auch nur als "Deep-Learning-Karte" und die nuckelt auch n bisschen an der Leitung...
 
Wenn der Bitcoin Boom weiter anhält dann ist es relativ egal was die Karte schluckt. Die Läger sind ausgeräumt und schon mehrmals durchsucht ob da noch irgendwas rummliegt.*buck*

Zu den Preisen die verlangt werden fällt einem ein Kauf schwer, da wiegt man die alten in Gold auf.
 
Die Meldung solltet ihr wieder einstampfen. Es war ein absichtlicher? Übersetzungsfehler, "von verdammt viel Watt" steht nichts in der Originalmeldung.
 
Ach, ich seh das ähnlich wie van Beurden. Wenn RX Vega den direkten Gegenspieler aus dem grünen Lager in den relevanten Benchmarks verbläst, kräht kein Hahn nach der Verlustleistung. Wenn... ;)

Ich vermute eher das gerade dann mangels anderer Argumente über den Strombedarf gejammert wird, nämlich von denen die sie ohnehin nicht kaufen würden. *buck*
 
Mist dann muss ich mir ja doch wieder ein Netzteil mit mehr als 300Watt kaufen.*buck*
 
Ich vermute eher das gerade dann mangels anderer Argumente über den Strombedarf gejammert wird, nämlich von denen die sie ohnehin nicht kaufen würden. *buck*

Was soll man kaufen? Ach ja den Papiertiger, von dem man bis jetzt kaum etwas weiß, nicht mal das Relasedatum?
 
Häh? Die Quelle redet doch nicht davon, dass die Karte "viel Watt aufnehme" ?!

Specs van Vega RX gezien. Tering wat power heeft die nodig.

Die Übersetung ist doch "Habe die Spezifikationen gesehen. Verdammt, hat die viel Power nötig".

Ergo: In der Spec steht ein hoher Wert. Aber für was? Board Power, TDP, Engineering Sample, Serien-Chip? Und über den realen Verbrauch macht dieses Statement überhaupt keine Aussage.
 
Die Quelle schreibt auch noch etwas mehr zum Thema. Und zwar sagt der Mann in einem weiteren Post, soviel wie "man bekommt aber auch entsprechend viel Leistung geboten".

Ist also wohl mitnichten so, dass die Karte unverhältnismäßig viel Strom verbrauchen würde. Noch ein guter Monat und dann wissen wir hoffentlich endlich genau bescheid. Zeit wird es allemal.
 
@mulle
Danke, hab die Meldung korrigiert. Der Online-Translator hatte vorgeschlagen, dass "wat" ein Schreibfehler sein könnte und es "watt" heißen müsste. Daher die ursprüngliche Formulierung. Ist ausgebessert. Bin leider des Niederländischen nicht mächtig; nach Deutsch, Englisch, Latein und Bayerisch hört's auf ;D

@ Santas Little Helper
Genau, deswegen ja der letzte Absatz der News:
Allerdings kommt es selbstredend darauf an, wie viel Performance am Ende dabei herauskommt. 100 fps bei 300 W in Spiel X wären schließlich besser (effizienter) als 50 fps bei 200 W. So ließ van Beuden auf Nachfrage eines potenziellen Käufers, dass das doch kein gutes Zeichen sei, fallen, es käme auf die Performance an, die man dafür erhält. Wenn man Kaffeesatz lesen möchte: Ein positives Signal in Sachen Leistung? Es bleibt spannend.
 
Zuletzt bearbeitet:
Leistung ist also vorhanden. *chatt*

Jetzt packt MSI noch einen SEA Hawk EK drauf, damit auch Ruhe im Raum ist und dann hört man nur noch in der Ferne ein leises Krähen eines nvidia (t|f)ermi.
 
die üblichen pre-launch-spekulationen.

frag mich nur, was nun gerade msi mit solchen aussagen bezweckt. *kopfkratz
 
möglicherweise eine Nvidia-freundliche Aussage im Hinblick auf irgendwelche Verhandlungen, die MSI mit denen führt *noahnung*

So eine halbgare Verlautbarung ist in jedem Falle unseriös; daß sowas von einem Offiziellen kommt, wundert etwas, normalerweise wird sowas als "Leak" getarnt, wenn eine Firma Infos streuen will.

Ich hoffe aber trotzdem weiterhin auf eine auf Effizienz getrimmte, sparsame "Nano 2". Die Fury-Karten waren ja auch Öfen, die Nano nicht, ein paar MHz weniger bringen also viel Einsparpotenzial. Oder zumindest ein Spar-BIOS zur Auswahl, das wäre ja auch schon genug.
 
Ich frage mich auch was das Gejammer soll wegen der Leistungsaufnahme. Leistung braucht nun mal Strom und gerade so ein mächtiger Chip wie der Vega, welcher im HighEnd/Enthusiast-Markt platziert werden wird, mit ca. 12 TFLOPS Rechenleistung, 4096 Shadern und HBM2 kann doch ruhig 300W schlucken...die OC-Karten der 1080 Ti verbrauchen da auch nicht weniger...und wenn Vega hier sogar noch 10-20% schneller sein sollte, ist man sogar effizienter als nVidia mit ihrem GP102. Aber erstmal abwarten, diese ganzen Gerüchte kann man doch wirklich nicht ernst nehmen. Aus Mangel an Infos ist man überall aber natürlich auch sofort hellhörig und nimmt was man kriegen kann.
 
Ich hoffe aber trotzdem weiterhin auf eine auf Effizienz getrimmte, sparsame "Nano 2". Die Fury-Karten waren ja auch Öfen, die Nano nicht, ein paar MHz weniger bringen also viel Einsparpotenzial.

Die Furys waren aber auch nur deshalb solche Stromschlucker, weil die Spannung (wieder mal) viel zu hoch angesetzt wurde. Die Nano erreicht mit gesenkter Spannung auch von sich aus die Taktraten der Fury X, und das trotz der deutlich limitierteren TDP. Keine Ahnung was AMD da reitet, dauerhaft die Spannungen so unnötig hoch zu setzen.
 
Damit sie die Ausbeute erhöhen können.
Mit den Spannungswerten können auch "schlechte" Dies sicher betrieben werden.
 
Schon klar, aber die kann man doch nicht alle in ein und den selben Topf werfen. Der ruf der zu hohen Verlustleistung ist damit ein hausgemachtes Problem, das nicht hätte sein müssen. Scheinbar war die dadurch entstandene Rufschädigung wirtschaftlich nicht so schwerwiegend wie ein verbessertes Binning *noahnung*
 
ich finde es komisch, dass mancheiner in den weiten des internets das ganze nun schon als gegeben ansieht. dabei weiß doch niemand, was am ende tatsächlich dabei rauskommt. vielleicht wird es gar nicht so schlimm, vielleicht betrifft es ausschließlich das top-modell. als kompromiss, um die performance-krone zu erreichen. vielleicht sind kleinere modelle viel genügsamer. vielleicht, vielleicht, vielleicht ... abwarten und tee trinken ...
 
Jo, abwarten. Bis dahin wird meine Fury X durchhalten - dann hat sie länger als 2 Jahre (nach RMA absolut klaglos) ihre Dienste getan. Unter 1440p und den verwendeten Spielen bei mir hat sie auch mit dem VRAM noch keine Probleme.

Abgesehen vom Verbrauch eine der besten Grafikkarten die ich hatte.

Das Vega da besser sein wird und mehr VRAM hat steht ja ausser Frage, und was vom anderen Lager werde ich vermeiden.
 
Auf wccftech geht es ab heute rund. Hier werden in einem Artikel gerade Usererfahrungen mit der VEGA Frontier Edition zusammengefasst. Lässt nicht unbedingt Gutes in Richtung RX VEGA vermuten. Recht hoher Verbrauch bei GTX 1080 Leistungsniveau. Man kann natürlich argumentieren, dass man mit einer Karte für den Professionellen Bereich keine Rückschlüsse auf die RX VEGA ziehen kann - aber: AMD hat selbst einen Gaming Mode zum Umschalten eingebaut. Ist klar, dass da die Versuchung groß ist.
In meinen Augen war das ein große Fehlentscheidung, die VEGA Frontier Edition jetzt auf den Markt zu werfen. Die Meinungen die sich die User jetzt über VEGA bilden, wird sich in den Köpfen festsetzen. Auch wenn sich bis zum VEGA Launch durch den Treiber noch etwas tun wird. Hinzu kommt auch noch die schlechte HBM2 Verfügbarkeit die wahrscheinlich dazu beitragen wird das die RX VEGA lediglich mit 8GB HBM2 kommen wird.
Erinnert mich irgendwie an die Fury. An sich eine passable Karte (habe selber eine). Aber zu wenig Speicher für Zukunftssicherheit und zu hoher Stromverbrauch.
Da hätte AMD auch auf einen Fiji Chip in 14nm setzen können. Der würde wahrscheinlich mit höherer Taktfrequenz laufen und man hätte ihm in der Zwischenzeit auch einen GDDR5 Speichercontroller spendieren können. Und den großen Wurf hätte sich AMD dann für Navi aufsparen können.
 
Zuletzt bearbeitet:
Modus hin Modus her es gibt aber nur den Radon Pro Driver im Moment und keinen Crimson. Hier gilt immer noch sich nicht verrückt machen lassen. Wenn es dann mit Vega für Spieler Ende Juli / Anfang August trotzdem schlecht aussieht dann ist es halt so - muss man ja nicht kaufen.

Die 4 - 6 Wochen kann man nun auch noch abwarten und dann ein Fazit ziehen.
 
Zurück
Oben Unten