News AMD: Rome, Matisse und Navi im dritten Quartal

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.365
Renomée
9.689
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Im Zuge des Earning Calls zu den Zahlen des ersten Quartals 2019 hat sich AMD zum weiteren Vorgehen im Jahre 2019 geäußert. Demnach werden alle 7‑nm-Produkte frühestens im Juli erscheinen, da AMD bei “Rome” und “Navi” explizit von einer Vorstellung im dritten Quartal 2019 spricht.
(…)

» Artikel lesen
 
Es kommt mir dennoch so vor als wenn Navi nie erscheint. Es wäre so dringend, dass endlich mal wieder etwas konkurrenzfähiges erscheint ist NVidia ja beinahe konkurrenzlos, obwohl sie das teurere Sync-System haben
Bezüglich Matisse beunruhigt etwas, dass man seitens AMD absolut keine (positiven) Meldungen mehr vernimmt. Wo doch anfangs gesagt wurde, dass es auch jegliche interne Erwartungen überträfe.
 
Bezüglich Matisse beunruhigt etwas, dass man seitens AMD absolut keine (positiven) Meldungen mehr vernimmt. Wo doch anfangs gesagt wurde, dass es auch jegliche interne Erwartungen überträfe.

AMD ist halt sehr tight mit Informationen geworden. Die letzten "richtigen" Roadmaps stammen von Anfang 2018 und mittlerweile sickern auch fast keine mehr von irgendwelchen Businesspräsentationen durch.

Infos wird es wohl wirklich erst kurz vor der Computex gegeben. Und da kommt dann ja erst mal der Desktop "Picasso".
 
Ach man. Noch so lange bis überhaupt klar ist was Navi kann und wirklich ist. Ich warte schon so lange mit dem Kauf einer wirklich guten GPU/Grafikkarte. Wenn es nicht bald wirklich mal ein paar Infos gibt könnt es noch passieren das ich was von NV kaufe was dann echt nicht gut wäre. Ich brauch wirklich mal was aktuelles schnelles und gutes aber ja die Hoffnung geht zu Letzt unter.
 
AMD ist halt sehr tight mit Informationen geworden.

Das kann aber auch tatsächlich arg nach hinten losgehen.

Es gibt ja doch einige potenzielle Kunden, die nun schon länger auf Navi warten. So langsam wird es mal Zeit, dass AMD dazu etwas mehr verlauten lässt. Ansonsten verliert man nämlich auch noch den letzten wartenden Zahler an NVidia.
 
Annähernd jede Leistungsklasse im GPU Segment ist doch aktuell auch von AMD besetzt.
Was vermisst du denn?

Auch wenn meine RX 580 absolut ausreichend ist für meine Zwecke, so hat man doch immer noch brutal gute Angebote von Vega 56 (+ UV + OC + FWFlash zu 64er) ...
oder die R7 (+ UV + OC und der üppige Speicher).

Klar wünsche ich mir auch eine Karte mit 2080 Leistung für 300 €uro bei 150 Watt Verbrauch.
Aber das wird auch Navi nicht schaffen mit GCN als Basis.

nVidia aber für -20% Verbrauch und +20% Leistung, gleich 50% mehr Geld zu geben, versteh ich nicht.

Das einzige Segment welches nicht mit AMD besetzt ist, bleibt oberhalb der 2080 ... ergo die ti und die Titans ..

Das ist kein Brot und Butter Segment. Sondern Enthusiast. Sicher ein Bereich mit extrem hohen Margen.
Aber auch kleinem Käuferkreis.

Ob AMD sich überhaupt nochmal an High End wagt ...

Soll doch die nächste ti ihre 2000 €uro kosten....

Mittelklasse reicht doch aus .. man muss nur mal einen Regler nach links bedienen können.
 
Mittelklasse reicht doch aus .. man muss nur mal einen Regler nach links bedienen können.
Wenn da nur der Faktor des Images nicht wäre. Auch wenn ich dir Recht gebe, dass AMD sozusagen bis auf die 2080 Ti jeder Consumkarte einen Gegenpart entgegenstellen kann, kann ich dem zitierten Abschnitt nicht zustimmen. Die größeren Modelle färben immer auch auf das Lineup darunter ab, gerade bei der Käuferschaft, die sich nicht oder nur oberflächlich mit der Thematik auseinandersetzt - und da gehören auch sehr viele z.B. der Computerbase-Balkengucker dazu, also Leute die wahrscheinlich von sich behaupten, sich auszukennen. Die stärksten Modelle sind mMn extrem wichtig, selbst wenn sie kaum etwas zum Umsatz oder zum Gewinn direkt beitragen.

LG
 
Zuletzt bearbeitet:
Nach der Argumentation wäre es dann aber wichtiger leistungsfähige Konsolenchips zu entwickeln mit denenn man ein e erheblich breitere Spielergemeinde erreicht und da dürften sie schon länger am Ball sein. Eines habe die letzten Jahre vor allem bei den Grafikkarten doch recht eindrucksvoll gezeigt. Der großteil der PC Spielerschaft rennt inzwischen mit einem solchen Tunnelblick zum Marktführer rum das es am Ende vollkommen egal ist was man in dem Bereich auf den Markt bringt und das Risiko verdammt hoch sein dürfte dass man die Entwicklungskosten für die Chips kaum wieder raus bekommt. Es rentiert sich damit ganz einfach nicht ein Produkt für einen Markt zu entwickeln der überwiegend keine kaufbaren alternativen Produkte wünscht. Genau so sehen zumindest die letzten Produkt Generationenn aus, nahezu alles Produktableger von anderen Markt Bereichen und damit für diesen Einsatz eher suboptimal ausgelegt.
 
Klar wünsche ich mir auch eine Karte mit 2080 Leistung für 300 €uro bei 150 Watt Verbrauch.
Aber das wird auch Navi nicht schaffen mit GCN als Basis.


Das einzige Segment welches nicht mit AMD besetzt ist, bleibt oberhalb der 2080 ... ergo die ti und die Titans ..

Das ist kein Brot und Butter Segment. Sondern Enthusiast. Sicher ein Bereich mit extrem hohen Margen.
Aber auch kleinem Käuferkreis.


laut vergangenen Aussagen soll Navi Polaris beerben, nicht Vega.... von daher wäre ich vorsichtig mit den Erwartungen.
Mittelklasse reicht doch aus .. man muss nur mal einen Regler nach links bedienen können.

Ebend

Man sollte da einfach mal den Ball flachhalten und gewahr sein, dass AMD im Gegensatz zu intel, Nv oder Apple monetär die Möglichkeiten im Blick halten muss!
Die mischen gerade den CPU-Sektor schön auf, können sich daher wohl weniger leisten eine Materialachlacht gegen Nvidia auch noch vom Zaun zu brechen :-/
Die machen das unter Lisa schon ganz geschickt, falls es funzt, Ryzen2 nochmal 15% mehr IPC bringt, und in 7nm noch moderat an der Taktschraube gedreht wird, dürften gerade TR2 und vor allem Epyc Intel deftig Feuer unterm Allerwertesten machen ;D
Vektor 1
Nachgelegt wird dann mit den APUs (Vektor2) - sagen wir einfach Navi liegt in etwa auf Veganiveau bei besserer Effizienz & in 7nm bekommt der R3 10 GPU-Cores, sowie der R5 14 von denen, klatschen die, vorausgesetzt die Assemblierer ziehen mit, im Sektor der 500-700€-Bürorechner Intel ganz gehässig in den Voloumenmarkt :-*

Da kann man das Enthusiast-Daddlersegment bei den GraKas auch mal 2-3 Jahre auf die lange Bank legen 8)
 
Das kam aber erst mit der Generation nach Thermi. Schon komisch..
 
Eine Folge des Versagens der Bulldozer Architektur im Markt mit dem darauf folgenden Investitions und Entwicklungsdruck für eine Nachfolgearchitektur? Zudem war bereits dort der Tunnelblick im Grafikkarten Markt absehbar.
 
Das kam aber erst mit der Generation nach Thermi. Schon komisch..

Jop, weil das damals der einzige Grund war, den höheren Preis der GTX680 zu rechtfertigen.
Die 7970 war gleichwertig oder besser, verbrauchte aber etwas mehr, daher haben die ganzen nVidia Fans angefangen die Effizienz in den Vordergrund gestellt haben.

Weil ohne den Effizienzbonus wäre die AMD Karte ohne Frage die bessere Wahl gewesen!
 
Nicht nur das, ich kann mich noch gut daran erinnern dass die normale HD7970 eher der GTX670 zugeordnet wurde weil diese zu dem Zeitpunkt etwas langsamer war, der größere Speicher und das größere Featureset der Radeon wurde natürlich konsequent ignoriert oder klein geredet. Da passte dann auch die Argumentation über den Preis wieder.
Was waren noch gleich die primären Argumentationspunkte beim R9 290x vs. Titan bzw. Fury vs. GTX980Ti Vergleich? Ich hab da heute noch so ein Klingeln in den Ohren.
 
Das Image wird meiner Meinung nach durch fehlende Effizienz wesentlich stärker beschädigt als durch fehlende Leistung.
War schon bei den CPUs so und seit einigen Generationen auch bei den GPUs.

Da könnt ich mich immer schlapplachen , wenn Intel eine Nasenlänge schneller ist , aber anderthalb mal soviel säuft (AthlonXP vd P4), rubbeln sich alle ganz gewichtig einen auf die 7% mehr Performance - Verbrauch egal.... aber wenn AMD mal 5-10Watte mehr will ... hallt es wieder von Zeter und Morido
 
Jop, weil das damals der einzige Grund war, den höheren Preis der GTX680 zu rechtfertigen.
Die 7970 war gleichwertig oder besser, verbrauchte aber etwas mehr, daher haben die ganzen nVidia Fans angefangen die Effizienz in den Vordergrund gestellt haben.

Weil ohne den Effizienzbonus wäre die AMD Karte ohne Frage die bessere Wahl gewesen!
Da muss ich schon widersprechen, denn das Argument ist deutlich älter als die GTX680.

Früher wurde es maßgeblich seitens AMD Fans benutzt um gegenüber Intel zu argumentieren, wie mmoses schon korrekt bemerkt hat.
Unter anderem dadurch sind dann mehr und mehr die Leistungsbenchmarks (im Sinne von Verbrauch) auch in die Benchmarks mit eingeflossen, was ich auf jeden Fall positiv finde.
Hier schneidet AMD in den aktuellen und letzten Generationen leider nicht immer ganz so gut, was sich aber gerade mit Navi wieder zum Positiven hin ändern könnte.
Die VII zeigt ja auch schon, dass die Grafikkarten mit 7nm sehr effizient werden können, wenn man sie in einem geeigneten Bereich betreibt.

Natürlich ist das aber eine sehr vielfältige Thematik, da es sehr stark vom Einsatzprofil und der CPU/GPU abhängt, ich will das auch gar nicht als generellen Kritikpunkt an AMD anbringen.
Mit den APUs hat AMD ja z.B. für den Office-Desktop auch eine fast unschlagbar effizienzte Lösung im Programm.
Nur in anderen Bereichen gibt es eben Nachholbedarf.
Ich hab keine Ahnung, was du mir mit den Links sagen willst.
Ich sprach nicht von Performance, sondern von Effizienz, d.h. wie hoch der Verbrauch bei typischer Nutzung ist (sowohl Idle als auch Teillast als auch Vollast).
 
.

Ich hab keine Ahnung, was du mir mit den Links sagen willst.
Ich sprach nicht von Performance, sondern von Effizienz, d.h. wie hoch der Verbrauch bei typischer Nutzung ist (sowohl Idle als auch Teillast als auch Vollast).
Ja,und was kannst z.b. sehen?!
Richtig das auch ein i7 langsamer ist als ein FX.
Das die FX zum Teil weniger Last haben als die Intel.
Das Problem ist immer nur das Alle NUR auf die Fake Benchmarks schauen wo die Tatsachen total Verdreht werden um Leute wie Dich da zu zu bringen so etwas zu Denken das die Effizienz total Beschissen ist .
 
Das Problem ist das sich bis heute fast niemand um einen ernsthaften Test zur Leistungsfähigkeit des Prozessors bemüht denn dazu zählt nicht nur die 0815 Programme durchzuleidern und sich einen Dreck um die Auslastung des Prozessors und die Ursachen zu scheren.
Dann würden nämlich auf einmal Fragen aufkommen warum nur ein Bruchteil des teuer erkauften Prozessors genutzt wird wenn er zum limitierenden Faktor für das Programm wird.
 
Ja,und was kannst z.b. sehen?!
Richtig das auch ein i7 langsamer ist als ein FX.
Das die FX zum Teil weniger Last haben als die Intel.
Das Problem ist immer nur das Alle NUR auf die Fake Benchmarks schauen wo die Tatsachen total Verdreht werden um Leute wie Dich da zu zu bringen so etwas zu Denken das die Effizienz total Beschissen ist .

Ja wenn man die CPU noch zusätzlich unter Last setzt. Super. Wer macht das schon, wenn er zockt?
 
@sompe
Deswegen auch der verlinkte Multi test.
Es wurde Früher geschrieben das der FX 8150 schlechter war als der PhenomII 1090T.
Es wurde auch NIE erwähnt das sobald man mal mehr als eine Anwendung laufen lies der PhenomII Extrem in den Keller ging und es z.b. nicht mehr möglich war nen Film umzuwandeln und dabei zu Spielen,mit dem FX war das überhaupt kein Problem.
Auch diese Vergleiche mit dem i3..........ja,nur war der i3 dem FX REAL Extrem Unterlegen........
ABER diese künstlichen SW Bremsen fallen seit Zen ja zum Glück weg und es ist Extrem schwierig geworden noch nen Intel an die Spitze zu bringen.

--- Update ---

Ja wenn man die CPU noch zusätzlich unter Last setzt. Super. Wer macht das schon, wenn er zockt?

Warum kaufst dir dann z.b. nen FX 8350 wenn deine Spiele nicht mehr als 3-4 Kerne Verwenden?!
Wo ist da die Logik.
 
Zuletzt bearbeitet:
Ja,und was kannst z.b. sehen?!
Richtig das auch ein i7 langsamer ist als ein FX.
Das die FX zum Teil weniger Last haben als die Intel.
Das Problem ist immer nur das Alle NUR auf die Fake Benchmarks schauen wo die Tatsachen total Verdreht werden um Leute wie Dich da zu zu bringen so etwas zu Denken das die Effizienz total Beschissen ist .
Mag sein, ist dennoch total am Thema vorbei.
 
@sompe
Deswegen auch der verlinkte Multi test.
Es wurde Früher geschrieben das der FX 8150 schlechter war als der PhenomII 1090T.
Es wurde auch NIE erwähnt das sobald man mal mehr als eine Anwendung laufen lies der PhenomII Extrem in den Keller ging und es z.b. nicht mehr möglich war nen Film umzuwandeln und dabei zu Spielen,mit dem FX war das überhaupt kein Problem.
Auch diese Vergleiche mit dem i3..........ja,nur war der i3 dem FX REAL Extrem Unterlegen........
ABER diese künstlichen SW Bremsen fallen seit Zen ja zum Glück weg und es ist Extrem schwierig geworden noch nen Intel an die Spitze zu bringen.

--- Update ---



Warum kaufst dir dann z.b. nen FX 8350 wenn deine Spiele nicht mehr als 3-4 Kerne Verwenden?!
Wo ist da die Logik.

Oh ich hab mit dem Phenom gezockt und gewandelt. Ging schon. Nur wurde da der Speicher knapp.

Ich selber hab mir nie einen 8350 geholt. Nur einen 6300 für das Zweitsystem. Und den hab ich durch den 200 GE ersetzt.

In meinem Hauptsystem hatte ich lieber einen i7, der war in Spielen schneller.
 
@Casi030
Der PCGH Test ist zwar in der Hinsicht besser aber auch alles andere als vollständig denn es gibt nur ein Ergebnis von dem Spiel, nicht wieviel Leistung beim anderen Programm ankommt. Wenn der i7 mit SMT und der FX beim Multitasking Test beim Spiel vergleichbare Resultate liefern aber bei x264 deutlich unterschiedliche Resultate liefern dann sind sie eben nicht gleich schnell/gut. Es wurde am Ende eben doch nur ein Teil des Prozessors getestet. Unterm Strich hängen die CPU Tests damit in der Masse immernoch im Singlecore Zeitalter fest denn damals gab es diese Auslastungsprobleme nicht und waren damit irrelevant, heute werden sie von der Masse eher konsequent ignoriert.

PS: Ich hatte mir damals den FX geholt obwohl ich wusste dass die Spiele nicht fähig sind den auszulasten. Warum? Ganz einfach.
1. Ich habe gern Leistungsreserven im System um einen flüssige Abarbeitung von Hintergrundprozessen sicherzustellen.
2. Ich bin an der Stelle eher ein preisbewusster Langzeitkäufer. Der FX war billiger als der i7 und insgesammt schneller als der i5 und es war am Ende nur eine Frage der Zeit bis er den i5 bei neueren Spielen überholt.
 
Zuletzt bearbeitet:
Zurück
Oben Unten