TRINITY & Co: alles um Bulldozer-based APUs von AMD und deren Plattform

Status
Für weitere Antworten geschlossen.
Laut ES-Kennung hat OBR's Trinity-Beispiel 8 physikalische Cores, von denen 4 dann aktiv waren und ansonsten gleicht die Kennung einem BD FX-4xxx Sample.
 
Trinity kann ja als erste APU die TDP zwischen GPU und CPU hin und herverschieben.
??? Was soll da anderst sein als bei Llano geht da auch.
Was ist, wenn für 3dmark11 ein (Grafikkarten-)Profil geladen wird in der die GPU höher getaktet wird und dafür die CPU niedriger, nur um einen insgesamt höheren Gesamtscore bei gleicher Gesamt-TDP zu erreichen.

Das würde dann heissen die APU würde GCN verwenden, da HD7950), was eigentlich nicht angenommen wird, ...
 
Was soll das bringen?

Es soll bringen das CPU-lastige Applikationen mehr TDP für die x86 Einheiten erhalten und GPU-lastige Applikationen mehr TDP für die Shader. Da sich das Verhalten einer Applikation kaum sekundenweise voraus berechnen läßt müßte man das mehr pauschalisieren - zum Beispiel in Form eines AOD Profils das beim Starten von bekannten Applikationen entsprechend zupackt.

Da AMD es - korrigiert mich wenn ich irre - bisher nicht einmal geschafft hat AOD auf Llano und Brazos anzupassen liegt die bekanntlich zuletzt sterbende Hoffnung jedoch bereits blau angelaufen am Boden und wartet bisher vergebens auf Reanimation.
.
EDIT :
.

??? Was soll da anderst sein als bei Llano geht da auch.
Nach dem was ich gelesen habe: Nein, Llano kann das nicht. Llanos x86 Core takten nur in Abhängigkeit voneinander, nicht in Abhängigkeit von der Auslastung der Shader, mehr oder weniger rauf.
 
Laut ES-Kennung hat OBR's Trinity-Beispiel 8 physikalische Cores, von denen 4 dann aktiv waren und ansonsten gleicht die Kennung einem BD FX-4xxx Sample.

Stimmt Dresdenboy...
Außerdem ist mir als wäre das AMD Pike Board immer in Verbindung mit BD-Test gewesen.

Gruß Lehmann

Edit: Daher hatte ich den Gedanken
 
AOD-Profil?
Was Verhältnis zwischen geforderter CPU- und GPU-Leistung wechselt doch auch mit den Einstellungen und mit der Szene. Da muss der Anwender nur an den Details oder der Auflösung drehen und schon pfuscht ihm das Profil rein. Oder schau dir Skyrim an. Innenlevel massiv GPU-limitiert, Außengebiete gehen dafür fast nur auf die CPU. Das springt von einem Extrems ins Andere. Nein, das halte ich nicht für praktikabel und auch nicht für wünschenswert, da sich so ein Verhalten störend in das Spieleerlebnis einmischen könnte.

Bei Anwendungen wie Bitcoin-Mining oder so kann man das sicher machen, aber nicht bei 3D-Anwendungen.
 
...It is said in the industry that GloFo’s 32/28nm yields are measured in wafer per die rather than die per wafer...

Dieser Bryant lässt aber ähnliche Kommentare auch über TSMC ab. Zudem sind diese Kommentare vov ihm vom Nov. 2011, erscheinen aber erst jetzt. Womöglich gilt Ähnlichesfür seine Aussagen zu Glofo. Hier ein ausführlicherer Bericht über dessen Kommentare zu TSMC: http://eetimes.com/electronics-news/4234961/TSMC-manufacturing-process-in-trouble

Hab das jetzt hier als Antwort rein, aber auch im Prozess-Thread, weil es dann dort hin gehört. Bitte dort evtl. drauf antworten.
 
Zuletzt bearbeitet:
AOD-Profil?
Was Verhältnis zwischen geforderter CPU- und GPU-Leistung wechselt doch auch mit den Einstellungen und mit der Szene.

Mein NOD32 braucht regelmäßig minimalst GPU-Leistung. Meine VB mit Thunderbird ebenfalls,Winzip 8 genauso.

Ein OpenCL-Programm dürfte dagegen künftig sehr wenig CPU und sehr viel GPU-Anteil haben.

Diese Einteilung ist grob, unvollständig und birgt die Gefahr das mans verschlimmbessert. Aber sie ließe sich auch beliebig feintunen bis hin zum Extremfall das die APU bei geeigneten Anwendungen die Auslastung mißt und die TDP selbst umverteilt. Dann natürlich deutlich konservativer als per Profil, als fiktives Beispiel um +-10%.
 
Nach dem was ich gelesen habe: Nein, Llano kann das nicht. Llanos x86 Core takten nur in Abhängigkeit voneinander, nicht in Abhängigkeit von der Auslastung der Shader, mehr oder weniger rauf.
Naja, wie manns nimmt halt nicht abhängig von der Shaderauslastung, aber abhängig vom Shadertakt und deren Leistungsaufnahme, denn die x86 Cores bekommen nur den Rest der TDP, welche nicht von der GPU gebraucht wird zur Verfügung gestellt (hier Lano (p 27+ oder so ähnlich) oder Powermanagement Folien). Sehe deshalb nicht was, daran für Trinity neu sein soll.
 
Mein NOD32 braucht regelmäßig minimalst GPU-Leistung. Meine VB mit Thunderbird ebenfalls,Winzip 8 genauso.

Ein OpenCL-Programm dürfte dagegen künftig sehr wenig CPU und sehr viel GPU-Anteil haben.

Diese Einteilung ist grob, unvollständig und birgt die Gefahr das mans verschlimmbessert. Aber sie ließe sich auch beliebig feintunen bis hin zum Extremfall das die APU bei geeigneten Anwendungen die Auslastung mißt und die TDP selbst umverteilt. Dann natürlich deutlich konservativer als per Profil, als fiktives Beispiel um +-10%.

Ich sag ja, außerhalb von Spielen ist das sinnvoll. In Spielen sehe ich da aber nur Probleme.
 
Naja, wie manns nimmt halt nicht abhängig von der Shaderauslastung, aber abhängig vom Shadertakt und deren Leistungsaufnahme, denn die x86 Cores bekommen nur den Rest der TDP, welche nicht von der GPU gebraucht wird zur Verfügung gestellt (hier Lano (p 27+ oder so ähnlich) oder Powermanagement Folien). Sehe deshalb nicht was, daran für Trinity neu sein soll.

Folie 27 ist recht eindeutig, ich muß Dir zustimmen. Es verblüfft mich aber das das so untergegangen ist.
.
EDIT :
.

Ich sag ja, außerhalb von Spielen ist das sinnvoll. In Spielen sehe ich da aber nur Probleme.

Auch Schach ist ein Spiel :-)
 
Laut ES-Kennung hat OBR's Trinity-Beispiel 8 physikalische Cores, von denen 4 dann aktiv waren und ansonsten gleicht die Kennung einem BD FX-4xxx Sample.
Es geschehen noch Zeichen und Wunder, er räumts selbst ein:
APU "Trinity" results from 3D Mark 11 was chinese fake ...
3:15

CPU is some Bulldozer ES, because motherboard "AMD Pike" is AM3+ board ... sorry for that mistake ... previous article was removed.
Da muss man ihn ja fast loben ^^
 
Hihi, ja, wieder etwas Arbeit gespart ;-)
 
Ich sag ja, außerhalb von Spielen ist das sinnvoll. In Spielen sehe ich da aber nur Probleme.
Deine Aussage ist schon sehr kurz gegriffen.
Wichtig bei solchen Szenarien wie Gaming: CPU und GPU Auslastung ist die Stärke der Korrelation. Korreliert die Auslastung von CPU und GPU sehr stark, z.B. eine anspruchsvolle Szene mit vielen Einheiten benötigt gleichzeitig ein Maximum an CPU-Performance und ein Maximum an GPU, wäre die Art Turbomodus wie bei Intel mit kurzen, zeitlich orientierten Leistungsschüben die vorteilhaftere Variante. Bestehen jedoch nur schwache Korrelationen zwischen CPU- und GPU-Auslastung (multiple Kerne, unterschiedliche Funktionseinheiten der GPU, das wird bei üblichem Wald-und Wiesen-Code nie gleichmäßig ausgelastet), macht das Turbo-Modell von Trinity (sollte es so kommen) mehr Sinn, da ein gewisser Anteil an Transistoren (bezogen auf die Gesamttransistorzahl der APU) konstant und relativ gleichmäßig ausgelastet werden kann. Hier müsste man einfach mal die Auslastungsdaten bei gängigen Spielen statistisch auswerten. Raum für Spielereien und Optimierungen gäbe es da zur Genüge.
 
Ähm...warum so komplziert? - CPU-Kerne können doch auch schlafengehen und ihre brüder entsprechend hochtakten wenn TDP-Reserven frei werden.
Warum sollte das selbe nicht auch mit der GPU gehen?
AFAIK besitzt sogar Llano schon das Konzept der "Power Tokens", die zwischen GPU und CPU-Teil hin- und er geschoben werden können um dem einen oder anderen mehr/weniger vom TDP-Budget zuzugestehen.
Dass Llanos GPU zu statisch ist was Powergating und Stromsparmechanismen betrifft, unter Fertigungsproblemen leidet und die CPU-Teile sowieso nicht hochgenug takten können zum bei GPU-minimallast groß zu profitieren, tut dem Konzept als solchem keinen Abbruch und sagt nichts über Trinity aus. *noahnung*
Und für den Turbomodus braucht Llano keinen treiber.
 
Nö - pack da auch ne 20GB SSD rein und die wachen auch in 2-3s auf ;)

Die SSD ist der Grund weshalb da Windows so schnell aus dem Hibernate kommt ...
 
Zuletzt bearbeitet:
Nö - pack da auch ne 20GB SSD rein und die wachen auch in 2-3s auf ;)

Die SSD ist der Grund weshalb da Windows so schnell aus dem Hibernate kommt ...

und wo soll ich die zusätzlich zur HDD unterbringen *noahnung* alternativ könnte man wahrscheinlich eine Seagate Momentus XT einbauen ist aber auch nicht ganz billig und hat weniger Cache.
 
Eh? eher eine Intel 310 mit mSATA einfach....
Da kann man ein kleines Modulchen dazupacken und gut ist. Das kostet auch nicht viel extra.
 
Wenn du die Bauform erreichen willst wird das kleine "Modulchen" trotzdem unter Umständen zum Problem.
Ich hab in einem test zum Acer gelesen das die Schaniere so schwach sein sollen, das arbeiten im Zug völlig unmöglich sein soll weil er ständig auf oder zuklappt bei kleinsten Bewegungen.

Dafür finde ich dann die 700 Euro schon wieder zu teuer ;-)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten