News AMD Radeon Rx 300 Serie: Vorstellung zur Computex 2015, bis auf Fiji-GPU nur Rebrands

Tja, da hatte ich leider nicht Recht :-(
http://www.computerbase.de/2015-06/rebrand-amd-radeon-r7-370-ohne-freesync-und-trueaudio/

Ich bin auf die Tests der Fury in einer Woche gespannt.
Aber 500€+ für ne Graka gebe ich sicher nicht aus.

Als Nutzer einer HD7950 kann mich da nichts so richtig locken. Vielleicht sind die 290/390 mit custom-Kühler im idle leise und sparsamer geworden? Mal sehen, was die Test so sagen...
Wahrscheinlich wirds doch ein Warten auf 16nm GPUs. Da werden ja wieder die Fabriken wichtiger (Nvidia bei TSMC und AMD be GF). Ach, ist das spannend.

Ich halte das 370 = 270 Gerücht auch für totalen Quatsch.
Die Argumente wurden hier ja schon gebracht.
1. Laut c't-Gerücht: "Die Radeon R9 370 soll 200 US-Dollar kosten und sich leistungsmäßig zwischen der Radeon R9 270X und der R9 285 einpendeln..." AMD müsste den Chip also ordentlich übertakten.
2. AMD versucht FreeSync zu pushen. Die 270 und auch die 370 sind aber in dem Preissegment, wo sicher mehr Karten als von den ?80 oder ?90 verkauft werden. Sie würden also den großen Teil der Grafikkartenkäufer von FreeSync ausschließen.
3. Wie hieß die 3D-Audio-Technologie noch gleich? Wird die noch gepusht?

Aber zum Glück ist die Computex nicht mehr so weit weg :-)
Ich warte jedenfalls auf blickwinkelstabile FreeSync-Monitore, und dann muss auch ne neue Grafikkarte her.
 
Als Nutzer einer HD7950 kann mich da nichts so richtig locken. Vielleicht sind die 290/390 mit custom-Kühler im idle leise und sparsamer geworden? Mal sehen, was die Test so sagen...
Wahrscheinlich wirds doch ein Warten auf 16nm GPUs. Da werden ja wieder die Fabriken wichtiger (Nvidia bei TSMC und AMD be GF). Ach, ist das spannend.
290/390 brauchen aber mehr Strom als Fury, also wenn du mehr Leistung bei weniger Verbrauch haben möchtest bleibt höchstens noch die Fury nano.
Wenn sie denn für unter 500€ erhältlich sein wird. ;)
 
Fury ist sehr interessant,besonders die Nano.Bin gespannt was unbefangene Testseiten so berichten werden.....
 
290/390 brauchen aber mehr Strom als Fury, also wenn du mehr Leistung bei weniger Verbrauch haben möchtest bleibt höchstens noch die Fury nano.
Wenn sie denn für unter 500€ erhältlich sein wird. ;)

Danke, das ist mir bewusst.
Verbrauch ist mir in erster Linie nur im idle wichtig (da werkelt die Karte bei mir die meiste Zeit rum). Wenn ich spiele oder die GPU rechnen soll, dann darf sie ruhig Strom ziehen - so lange de Kühlung nicht nervig laut wird.

Die Fury nano klingt wirklich gut. Da scheint AMD eine wirklich sexy Karte gelungen zu sein. Leider vermute ich, dass auch die nano nicht günstig werden wird...
 
Beim Idle verbrauch unterscheiden sich GPUs heutzutage nur noch minimal.
 
Beim Idle verbrauch unterscheiden sich GPUs heutzutage nur noch minimal.

Das ist natürlich auch sehr subjektiv. Ich finde 5W Unterschied für nen Rechner der den ganzen Tag läuft schon nicht unwichtig - zumal so ein Unterschied schon zwischen custom-Grafikkarten mit der gleichen GPU auftritt :-(
 
Ich für meinen Teil bin gespannt ob sie bei den 390er Modellen eine bessere Taktsteuerung verbaut haben denn die Arbeitsweise bei der 290(x) (harte Steuerung nach Zieltemperatur) hatte ihnen ja schon mehr als genug Probleme bereitet und war erst kein Thema mehr als die Custom Modelle mehr als genug Kühlleistung hatten und sie mit voller Taktfrequenz laufen konnten.....was sich allerdings wieder negativ auf den Strombedarf auswirkte.
 
Bin gespannt was unbefangene Testseiten so berichten werden.
Dann gibt's ja leider keine Tests die man lesen kann *buck*

Beim Idle verbrauch unterscheiden sich GPUs heutzutage nur noch minimal.
Schmarrn, wir reden hier von 10 bis 25 Watt bei aktuellen Karten. Das ist weder absolut noch prozentual minimal. Minimal ist einzig das was die Differenz kostet, sofern das Teil nicht 24/7 läuft.
 
Dann gibt's ja leider keine Tests die man lesen kann *buck*
Schauen wir mal,da wo die "Leut" am meisten Fake schreien,da ist die richtige Adresse wenns um AMD geht.......

--- Update ---

Wie kommst auf 10 BIS 25 Watt unterschied wenn selbst die älteren 200er NUR 20 Watt brauchen?!Sind wir mal wieder am Übertreiben?!
http://ht4u.net/reviews/2015/nvidia...hs_gigabyte_hauptspeicher_im_test/index16.php

--- Update ---

ODER sind da bei dir x2 / 2,3,4 Grafikkarten mit dabei?!
Dann hättest auch schreiben können von 10 -80 Watt..........
 
Keine 10W bis 25W Unterschied, sondern absolute Werte. Davon ab: Fake schreien, hä?
 
Complicated hatte aber was anders geschrieben als DU jetzt geantwortet hast.
Er hat doch recht,der Unterschied ist doch nur MAX wie im Test zu sehen bei 10Watt (min 10,Max 20Watt).
Der normale Mix sind dann rund 4-6Watt,minimal wie er schreibt.Da hast bei HDDs ja schon fast größere Unterschiede.....

Wenn dem Intel/nvidia Fanboys ein Test nicht passt,ist es ein FAKE oder nicht?!
Im meiner Zeit als ich noch im Deppen Forum Computer Base war,war das doch eins der meist verwendeten Wörter wenn eine Seite / ein YouTub Video zu gut über AMD berichtet hatte und die Intel /nvidia Balken nicht min doppelt so lang waren.
 
Ein Gsync Monitor hat 5-10 Watt mehr Verbrauch als ein Freesync Monitor selber Ausstattung.
Das ist nun plötzlich nicht mehr minimal? In jedem Fall sollte man eben das Gesamtsystem auch als ganzes betrachten. Ohne Monitor kann keiner zocken.
 
Du schreibst schon wieder 40 Hz und meinst 40 FPS. Ein GSync-Monitor taktet nicht unter 40 Hz.
 
Zurück
Oben Unten