App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
GT300 Spekulationsthread
- Ersteller p4z1f1st
- Erstellt am
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
@ Cordelier
Der RV870 im vergleicht wäre noch interessant.
Der RV870 im vergleicht wäre noch interessant.
Sehr schön das mit den 104 GF100 wusste ich, das gt200 sogar größer ist war mir so nicht klar.
Der Vergleich zum Atom war sehr schön, so optisch.
Tolles Tool hatte das zwar schon mal gesehen, mich aber nie damit beschäftigt RV870 hätte ich auch schön gefunden als Vergleich.
Der Vergleich zum Atom war sehr schön, so optisch.
Tolles Tool hatte das zwar schon mal gesehen, mich aber nie damit beschäftigt RV870 hätte ich auch schön gefunden als Vergleich.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Wie schon länger von mir vermutet, soll Fermi anscheinend noch stärker beschnittenen Varianten von Fermi geben, vermutlich weil einfach das Yield von Fermi so grottenschlecht ist, und damit zu viele nur teilweise funktionierende Dice entstehen, die nun auch einer Weiterverwendung zugeführt werden: http://www.hardware-infos.com/news.php?news=3534
Als GTX460 soll nun angeblich der Fermi in folgender Version Verwendung finden:
- nur 384 Cores (statt 512, was 75% entspricht)
- nur 256bit-Bus (statt 384, was 67% entspricht)
Eine solche GTX460 dürfte deutlich unter einer HD5850 zu liegen kommen, was deren Preis entsprechend niedrig machen wird, wohl kaum über $200.
Dass Nvidia mit Fermi kaum Geld verdienen kann, wenn sie diese teuren Monster-Fermis für günstige $200-Grakas einsetzen müsse, liegt wohl auf der Hand.
Wie sich aber die Energieaufnahme dieser GTX460 verhalten wird, ist noch nicht bekannt. Wird Nvidia die Takte hoch ansetzen, wird womöglich eine solche GTX460 gar die doppelte Energie einer HD5850 aufnehmen. Oder Nvidia wählt niedrige Takte, um mit der Energieaufnahme runter zu kommen, aber mit der Gefahr, dass man dann womöglich gar nur noch HD5770-Niveau hat? Ob sich aber so eine GTX460 überhaupt für $200 verkaufen läßt ist wohl sehr fraglich.
Meiner Meinung nach ist die Fermi-Architektur schon gescheitert: der Ansatz ist zu schwach und viel zu ineffizient (von Diesize her als auch Energieaufnahme). Fermi hat meiner Meinung nach keine Zukunft und kaum Chancen. Für Notebooks ist Fermi wohl kaum sinnvoll zu realisieren. Meiner Meinung nach wird es vermutlich auch keinen GT104-Fermi geben. Womöglich einen ganz kleinen GT108, um wenigstens eine kleine DX11-GPU für Intel-based Produkte zu haben, aber mehr macht wohl kaum Sinn.
Meines Erachtens arbeitet Nvidia längst an einer ganz neuen Architektur und hat den Fermi schon komplett begraben. Vermutlich hat man bei Nvidia jegliche weiteren 40nm-Ansätze (bis auf einen möglichen Minimalst-Fermi "GT108") als auch die 28nm-Fermi-Ansätze verworfen und bastelt an einer neuen Architketur auf 28nm, von der vermutlich vor H2/2011 kaum was kommen dürfte. Von daher könnten womöglich in H2/2010 unerwartet große Wafer-Mengen in 40nm bei TSMC an ATI fallen, womit dann ATI dann seine HD6xxx fast konkurrenzlos in den Markt geben kann.
Gegen diese kommenden Southern-Islands hat Fermi ja noch weniger Chancen und Anfang 2011 kommen dann gar ATIs erste 28nm-Derivate, gegen die wohl auch ein 28nm-Fermi keine Chancen haben dürfte. Daher gibt es wohl nur eine Chance für Nvidia: einen ganz neuen Ansatz zu probieren...was aber keine Garantie auf Erfolg ist. Scheintert auch dieser, heißt es womöglich game-over für Nvidias GPU-Geschäft.
Eins ist wohl offenkundig: es wird eine bittere Dürre-Periode für Nvidia geben. Die große Frage dürfte sein: wie wird Nvidia diese überstehen und wird es für Nvidia irgendwann in 2011 wieder ein Comeback geben?
Als GTX460 soll nun angeblich der Fermi in folgender Version Verwendung finden:
- nur 384 Cores (statt 512, was 75% entspricht)
- nur 256bit-Bus (statt 384, was 67% entspricht)
Eine solche GTX460 dürfte deutlich unter einer HD5850 zu liegen kommen, was deren Preis entsprechend niedrig machen wird, wohl kaum über $200.
Dass Nvidia mit Fermi kaum Geld verdienen kann, wenn sie diese teuren Monster-Fermis für günstige $200-Grakas einsetzen müsse, liegt wohl auf der Hand.
Wie sich aber die Energieaufnahme dieser GTX460 verhalten wird, ist noch nicht bekannt. Wird Nvidia die Takte hoch ansetzen, wird womöglich eine solche GTX460 gar die doppelte Energie einer HD5850 aufnehmen. Oder Nvidia wählt niedrige Takte, um mit der Energieaufnahme runter zu kommen, aber mit der Gefahr, dass man dann womöglich gar nur noch HD5770-Niveau hat? Ob sich aber so eine GTX460 überhaupt für $200 verkaufen läßt ist wohl sehr fraglich.
Meiner Meinung nach ist die Fermi-Architektur schon gescheitert: der Ansatz ist zu schwach und viel zu ineffizient (von Diesize her als auch Energieaufnahme). Fermi hat meiner Meinung nach keine Zukunft und kaum Chancen. Für Notebooks ist Fermi wohl kaum sinnvoll zu realisieren. Meiner Meinung nach wird es vermutlich auch keinen GT104-Fermi geben. Womöglich einen ganz kleinen GT108, um wenigstens eine kleine DX11-GPU für Intel-based Produkte zu haben, aber mehr macht wohl kaum Sinn.
Meines Erachtens arbeitet Nvidia längst an einer ganz neuen Architektur und hat den Fermi schon komplett begraben. Vermutlich hat man bei Nvidia jegliche weiteren 40nm-Ansätze (bis auf einen möglichen Minimalst-Fermi "GT108") als auch die 28nm-Fermi-Ansätze verworfen und bastelt an einer neuen Architketur auf 28nm, von der vermutlich vor H2/2011 kaum was kommen dürfte. Von daher könnten womöglich in H2/2010 unerwartet große Wafer-Mengen in 40nm bei TSMC an ATI fallen, womit dann ATI dann seine HD6xxx fast konkurrenzlos in den Markt geben kann.
Gegen diese kommenden Southern-Islands hat Fermi ja noch weniger Chancen und Anfang 2011 kommen dann gar ATIs erste 28nm-Derivate, gegen die wohl auch ein 28nm-Fermi keine Chancen haben dürfte. Daher gibt es wohl nur eine Chance für Nvidia: einen ganz neuen Ansatz zu probieren...was aber keine Garantie auf Erfolg ist. Scheintert auch dieser, heißt es womöglich game-over für Nvidias GPU-Geschäft.
Eins ist wohl offenkundig: es wird eine bittere Dürre-Periode für Nvidia geben. Die große Frage dürfte sein: wie wird Nvidia diese überstehen und wird es für Nvidia irgendwann in 2011 wieder ein Comeback geben?
VlaDeZ
Lieutnant
- Mitglied seit
- 29.05.2009
- Beiträge
- 83
- Renomée
- 2
ATI hatte meiner Meinung nach mit dem r600 noch größere Probleme als Nvidia zur Zeit und man sieht, was aus ihm geworden ist.
rv670 -> eigentlich ganz gut
rv770 -> ATI spielt wieder oben mit
rv870 -> wow
Nvidia dürfte in der g80/g92 Ära viel Geld eingenommen haben -> Fermi kann sich prächtig entwickeln.
rv670 -> eigentlich ganz gut
rv770 -> ATI spielt wieder oben mit
rv870 -> wow
Nvidia dürfte in der g80/g92 Ära viel Geld eingenommen haben -> Fermi kann sich prächtig entwickeln.
Cordelier
Commodore Special
- Mitglied seit
- 04.03.2008
- Beiträge
- 390
- Renomée
- 66
Also hier noch mal die GF100
Dann die RV870 aka HD5870
Und hier mal eine RV830 aka HD5650/5670
Dazu ein Foto eines entsprechenden Wafers
Verlässliche Angaben zur RV840 aka HD5750/5770 konnte ich bisher nicht finden.
Vielleicht könnte man es demnächst mit einer neuen Variante von Hybrid-Crossfire versuchen, diesesmal in Verbindung mit Llano.Vielleicht hilft´s ja.
Dann die RV870 aka HD5870
Und hier mal eine RV830 aka HD5650/5670
Dazu ein Foto eines entsprechenden Wafers
Verlässliche Angaben zur RV840 aka HD5750/5770 konnte ich bisher nicht finden.
Nvidia wird nächsten Monat mit hoher Wahrscheinlichkeit wieder mit guten Zahlen aufwarten können. Diese Runde endet mit einem Patt, TSMC sei Dank oder Schuld,Unvermögen oder Absicht, jedenfalls konnte AMD dadurch leider nicht viel an den bestehenden Verhältnissen ändern. AMD muß weg von TSMC und schnellstmöglich bei GF fertigen lassen.Ausserdem müssen sie ihre Plattform insgesamt attraktiver machen, es muß AMD zu denken geben das es dem größten Kunden HP vollkommen egal scheint welchen Chipsatz und welche Grafik in ihren Rechnern verbaut werden.Eins ist wohl offenkundig: es wird eine bittere Dürre-Periode für Nvidia geben. Die große Frage dürfte sein: wie wird Nvidia diese überstehen und wird es für Nvidia irgendwann in 2011 wieder ein Comeback geben?
Vielleicht könnte man es demnächst mit einer neuen Variante von Hybrid-Crossfire versuchen, diesesmal in Verbindung mit Llano.Vielleicht hilft´s ja.
mariahellwig
Grand Admiral Special
Nvidia wird nächsten Monat mit hoher Wahrscheinlichkeit wieder mit guten Zahlen aufwarten können. Diese Runde endet mit einem Patt, TSMC sei Dank oder Schuld,Unvermögen oder Absicht, jedenfalls konnte AMD dadurch leider nicht viel an den bestehenden Verhältnissen ändern.
Nun ja, so etwas schlägt nicht sofort durch. Aber mittelfristig wird das schon eine Dürreperiode bedeuten wenn nVidia nicht die Produktion hochgefahren bekommt. Letztlich entscheiden Stückzahlen.
mibo
Grand Admiral Special
- Mitglied seit
- 05.01.2003
- Beiträge
- 2.297
- Renomée
- 65
- Standort
- Hannover
- Mein Laptop
- Lenovo T450s
- Prozessor
- Ryzen 5800X3D
- Mainboard
- ASUS B550M-PLUS
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x16GB DDR4 ECC
- Grafikprozessor
- AMD 6700XT
- Display
- HP X27i
- SSD
- Samsung 860EVO, 960EVO, WD 850X
- Optisches Laufwerk
- DVD-Brenner :-)
- Netzteil
- BQ Dark Power 12 750W
- Betriebssystem
- Suse Tumbleweed / Win10 64Bit
- Webbrowser
- Firefox
Wenn Nvidia demnächst behauptet, viele 40nm GPUs verkauft zu haben, sollte man das im Hinterkopf behalten:
http://www.heise.de/newsticker/meld...nahme-der-PS3-um-ueber-20-Prozent-986530.html
http://www.heise.de/newsticker/meld...nahme-der-PS3-um-ueber-20-Prozent-986530.html
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
@VlaDeZ
Das sehe ich nicht so ganz der R600 war zwar nicht die schnellste GPU, aber der Stromverbrauch war nicht so viel höher im Vergleich zu damaligen Konkurrenz, als wie aktuell beim Fermi. Das ist eben Brechstange oder Brute Force Methode.
Wobei die schnellste Grafikkarte wohl eh noch die 5970 ist
Ob der Fermi genauso schlimm ist wird erst die Zeit zeigen, allerdings muss bis zum 28nm Prozess nv eine sehr lange zeit überbrücken.
Ein Refesh in 40nm wir auch nicht gravierend besser werden, entweder bei gleicher Leistung bei 20% weniger Stromverbrauch oder nochmals ca. 15% mehr Speed bei gleichem oder leicht höherem Stromverbrauch. Mehr ist idR bei einem Refresh im gleichem Prozess möglich. Auf jeden Fall sind beide Szenarien nicht berauschend.
Und dann kommen noch South Islands... vielleicht ist nv dann nicht mehr ganz so vorlaut
Also was nun schlimmer war / wird ob R600 oder Fermi wird die Zeit zeigen, ich habe und würde mir jedenfalls niemals eine der beiden kaufen. Wahrscheinlich wird das Spiel von vorne beginnen und sich ATI/AMD nun etwas auf die Faule Haut legen, leider.
Intel (bzw. Mitarbeiter) hatte ja mal auch explizit den RV870 und nicht den Fermi gelobt, das war scheinbar wohl nicht Grundlos
Das sehe ich nicht so ganz der R600 war zwar nicht die schnellste GPU, aber der Stromverbrauch war nicht so viel höher im Vergleich zu damaligen Konkurrenz, als wie aktuell beim Fermi. Das ist eben Brechstange oder Brute Force Methode.
Wobei die schnellste Grafikkarte wohl eh noch die 5970 ist
Ob der Fermi genauso schlimm ist wird erst die Zeit zeigen, allerdings muss bis zum 28nm Prozess nv eine sehr lange zeit überbrücken.
Ein Refesh in 40nm wir auch nicht gravierend besser werden, entweder bei gleicher Leistung bei 20% weniger Stromverbrauch oder nochmals ca. 15% mehr Speed bei gleichem oder leicht höherem Stromverbrauch. Mehr ist idR bei einem Refresh im gleichem Prozess möglich. Auf jeden Fall sind beide Szenarien nicht berauschend.
Und dann kommen noch South Islands... vielleicht ist nv dann nicht mehr ganz so vorlaut
Also was nun schlimmer war / wird ob R600 oder Fermi wird die Zeit zeigen, ich habe und würde mir jedenfalls niemals eine der beiden kaufen. Wahrscheinlich wird das Spiel von vorne beginnen und sich ATI/AMD nun etwas auf die Faule Haut legen, leider.
Intel (bzw. Mitarbeiter) hatte ja mal auch explizit den RV870 und nicht den Fermi gelobt, das war scheinbar wohl nicht Grundlos
VlaDeZ
Lieutnant
- Mitglied seit
- 29.05.2009
- Beiträge
- 83
- Renomée
- 2
Das sagte man bei rv670 --> rv770 auch.bbott schrieb:Ein Refesh in 40nm wir auch nicht gravierend besser werden, entweder bei gleicher Leistung bei 20% weniger Stromverbrauch oder nochmals ca. 15% mehr Speed bei gleichem oder leicht höherem Stromverbrauch. Mehr ist idR bei einem Refresh im gleichem Prozess möglich. Auf jeden Fall sind beide Szenarien nicht berauschend.
150% mehr Ausführungseinheiten (SPUs; TMUs; ...) auf 33% mehr Fläche und 44% mehr Transistoren. 8)
Das habe ich wohl verpasstbbott schrieb:Intel (bzw. Mitarbeiter) hatte ja mal auch explizit den RV870 und nicht den Fermi gelobt, das war scheinbar wohl nicht Grundlos
Link?
Edit.
selbst wenn Nvidia sowas wie ATI vollbringen kann, ein voll funktionstüchtiger Fermi, also alle 512 SP, und den gleichen Taktraten wie jetzt bei etwa 15 Watt weniger Stromverbrauch sollte mit einem B Stepping eigentlich "problemlos" möglich sein.
Wenn man dann auch noch schön selektiert wäre eine hypotetische GTX485 Ultra mit 780/1560/1000 sogar bei unter 300 Watt möglich , die dann tatsächlich mit einer 5970 konkurrieren könnte.
Zuletzt bearbeitet:
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Das sagte man bei rv670 --> rv770 auch.
150% mehr Ausführungseinheiten (SPUs; TMUs; ...) auf 33% mehr Fläche und 44% mehr Transistoren. 8)
Ausnahmen bestätigen die Regel, und die Regel Spiegelt der Refresh RV770 -> RV790 ab.
Selbst der G200 (65nm) -> G200(b) (55nm) war kleiner!
Der RV770 dürft enorm durch AMDs Fertigungs- Fähigkeiten Profitiert haben. Das war wohl die erste Frucht, dass AMD ATI aufgekauft hat.
Bei nv ist so etwas nicht zu erwarten, aber vielleicht vollbringt nv ein Wunder
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Das sagte man bei rv670 --> rv770 auch.
150% mehr Ausführungseinheiten (SPUs; TMUs; ...) auf 33% mehr Fläche und 44% mehr Transistoren. 8)...
...selbst wenn Nvidia sowas wie ATI vollbringen kann, ein voll funktionstüchtiger Fermi, also alle 512 SP, und den gleichen Taktraten wie jetzt bei etwa 15 Watt weniger Stromverbrauch sollte mit einem B Stepping eigentlich "problemlos" möglich sein.
Wenn man dann auch noch schön selektiert wäre eine hypotetische GTX485 Ultra mit 780/1560/1000 sogar bei unter 300 Watt möglich , die dann tatsächlich mit einer 5970 konkurrieren könnte.
So wie RV770 ein "Refresh" des RV670 war, wird auch der kommende RV970 (40nm Southern Islands) von RV870 ein "Refresh" sein.
Ein solcher "Refresh" ist ein komplett überarbeitetes Desing. Dass man aber alleine mit einem neuen Stepping (B-Step von Fermi) so einen Sprung erreichen kann, ist wohl ziemlich utopisch.
AMD wird mit dem "Refresh" von RV870 -> RV970 im Herbst wohl den größeren Sprung machen, als Nvidia mit einem überarbeiteten Fermi-Stepping.
Somit wird sich der Abstand von HD6970 auf Fermit-B-Stepping wohl deutlich vergrößern statt verkleinern, vermutlich wird dann der kommende RV970 (HD6870) B-Fermi schon weit überholen. Fermi hat kaum eine Zukunft, es sei denn Nvidia gelingt ein Wunder.
VlaDeZ
Lieutnant
- Mitglied seit
- 29.05.2009
- Beiträge
- 83
- Renomée
- 2
Der kleine Radeonexkurs sollte doch nur ein Beispiel sein, dass Fermi keine Todgeburt sein muss. Nicht mehr und nicht weniger.
Dazu war der Vergleich mit dem rv670 und rv770 gedacht; dass soetwas keinem B Stepping entsrpicht sollte doch klar sein...
Das B Stepping habe ich eigentlich nur noch mit reingebracht, weil ich meinte, dass mannicht so pessimistisch denken sollte.
Dazu war der Vergleich mit dem rv670 und rv770 gedacht; dass soetwas keinem B Stepping entsrpicht sollte doch klar sein...
Das B Stepping habe ich eigentlich nur noch mit reingebracht, weil ich meinte, dass mannicht so pessimistisch denken sollte.
bbott schrieb:Ein Refesh in 40nm wir auch nicht gravierend besser werden, entweder bei gleicher Leistung bei 20% weniger Stromverbrauch oder nochmals ca. 15% mehr Speed bei gleichem oder leicht höherem Stromverbrauch. Mehr ist idR bei einem Refresh im gleichem Prozess möglich. Auf jeden Fall sind beide Szenarien nicht berauschend.
Zuletzt bearbeitet:
Wie gut Fermi wirklich wird, wird sich halt bald zeigen.
Grundsätzlich sehe ich beim Fermi nicht so viel AusbesserungsPotential wie beim R600, wo sie beim RV670 mit diesesmal guter Fertigung (80nm war ja auch nicht gut, während 90nm-G80 gut war) und Entmisten (Ring-Bus) einiges Aufholen konnten.
Grundsätzlich hat benötigt Nvidia trotz immensen Stromverbrauch von +50% in Games immer noch um eine 0,15 Volt niedere Spannung.
Viel kann Nvidia nicht mehr runtergehen, während ATI da noch einige Reserven hat.
Dazu hat AMD momentan noch eine deutlich bessere Performance pro mm².
Eigentlich siehts mit Fermi IMO langfristig schlechter als R600 aus.
a) Seit R670 konnte AMD immer sehr schnell & Problemlos & nach Plan (Takt) einführen, während GT300 so wie GT200 verspätet und den Plan/Takt verfehlte und somit alte Probleme beibehalten hat.
b) Nvidia alle 3 Jahre große Architektur-Sprünge bringt, während ATI alle 1,5 Jahr halbe große Sprünge bringt und somit hätte Fermi ordentlich vorlegen müssen, weil bald North-Island kommt!!!!!!!!!!!
c) Monentan TSMC-40nm-Probleme und Sonder-Verträge für mainstream & Low-End sowie längsten Fermi-Balken noch die Lage halbwegs gut aussehen lässt.
Mit North-Island @ 28nm-GF bzw. Fermi @ 28nm können eben Punkt a) & b) & c) voll bemerkbar werden, da North-Island eben früh & problemlos eingeführt werden, und eben einen neue Architektur ist und mit GF wahrscheinlich keine Probleme gibt, während bei TSMC schon und der Vorsprung von ATI Low-End & Mainstream aufgrund des Shrink so groß sein kann, dass die Sonderverträge auch nichts mehr helfen, unter anderem weil Fermi @ 28nm wieder verspätet & vielleicht wieder den Takt oder Stromverbrauch nicht wie geplant erreicht.
PS: Ich denke, Fusion & Bulldozer wird in den Medien positiv überraschen, wo sich das aufstrebende Image auch positiv auf die Grafikkarten übertragen könnte.
Denn CPU & GPU & Chipsatz aus einer Hand hört sich umsointeressanter an, wenn sie jeweils die besten sind bzw. jeweils extrem Top-Produkte sind.
Grundsätzlich sehe ich beim Fermi nicht so viel AusbesserungsPotential wie beim R600, wo sie beim RV670 mit diesesmal guter Fertigung (80nm war ja auch nicht gut, während 90nm-G80 gut war) und Entmisten (Ring-Bus) einiges Aufholen konnten.
Grundsätzlich hat benötigt Nvidia trotz immensen Stromverbrauch von +50% in Games immer noch um eine 0,15 Volt niedere Spannung.
Viel kann Nvidia nicht mehr runtergehen, während ATI da noch einige Reserven hat.
Dazu hat AMD momentan noch eine deutlich bessere Performance pro mm².
Eigentlich siehts mit Fermi IMO langfristig schlechter als R600 aus.
a) Seit R670 konnte AMD immer sehr schnell & Problemlos & nach Plan (Takt) einführen, während GT300 so wie GT200 verspätet und den Plan/Takt verfehlte und somit alte Probleme beibehalten hat.
b) Nvidia alle 3 Jahre große Architektur-Sprünge bringt, während ATI alle 1,5 Jahr halbe große Sprünge bringt und somit hätte Fermi ordentlich vorlegen müssen, weil bald North-Island kommt!!!!!!!!!!!
c) Monentan TSMC-40nm-Probleme und Sonder-Verträge für mainstream & Low-End sowie längsten Fermi-Balken noch die Lage halbwegs gut aussehen lässt.
Mit North-Island @ 28nm-GF bzw. Fermi @ 28nm können eben Punkt a) & b) & c) voll bemerkbar werden, da North-Island eben früh & problemlos eingeführt werden, und eben einen neue Architektur ist und mit GF wahrscheinlich keine Probleme gibt, während bei TSMC schon und der Vorsprung von ATI Low-End & Mainstream aufgrund des Shrink so groß sein kann, dass die Sonderverträge auch nichts mehr helfen, unter anderem weil Fermi @ 28nm wieder verspätet & vielleicht wieder den Takt oder Stromverbrauch nicht wie geplant erreicht.
PS: Ich denke, Fusion & Bulldozer wird in den Medien positiv überraschen, wo sich das aufstrebende Image auch positiv auf die Grafikkarten übertragen könnte.
Denn CPU & GPU & Chipsatz aus einer Hand hört sich umsointeressanter an, wenn sie jeweils die besten sind bzw. jeweils extrem Top-Produkte sind.
Zuletzt bearbeitet:
Ich lese immer öfters CPU und GPU aus einer Hand. Was bringt das? Läuft eine ATI GPU auf einem AMD-System besser als auf einem Intel-System? Ich denke nicht, schließlich muß die GPU/Karte nur die PCIE-Protokollspecs erfüllen, oder etwa nicht?
Markus Everson
Grand Admiral Special
Ich lese immer öfters CPU und GPU aus einer Hand. Was bringt das?
Mir als Aktionär bringts Gewinn.
Läuft eine ATI GPU auf einem AMD-System besser als auf einem Intel-System?
Ganz sicher nicht.
Ich denke nicht
Das tut mir echt leid für Dich!
schließlich muß die GPU/Karte nur die PCIE-Protokollspecs erfüllen, oder etwa nicht?
Doch doch, die ATI GPUs sind so hochwertig das sie grundsätzlich in den Systemen sauber laufen die entsprechend den Spezifikationen aufgebaut und betrieben sind.
Auch die AMD-CPUs sind so großartig, das die sogar mit Grafikkarten und Chipsätzen anderer Hersteller stabil laufen sofern das System sauber und entsprechend den Spezifikationen aufgebaut und betrieben wird. Absoluter Wahnsinn!
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Was mir ja gerade durch den Kopf geschossen ist: Eigentlich könnte AMD schön brav weiter Kapazitäten von TSMC beauftragen, um die Pipeline für nV zu verstopfen und trotzdem zeitgleich bei GF produzieren lassen...
Ok, sowas müsste mal ein BWL'er durchrechnen, ob sich das kostenmäßig lohnt, aber ne Idee wärs ja
Ok, sowas müsste mal ein BWL'er durchrechnen, ob sich das kostenmäßig lohnt, aber ne Idee wärs ja
Mach dich nicht lächerlich! Bleib mal ernsthaft.Mir als Aktionär bringts Gewinn.
Ganz sicher nicht.
Das tut mir echt leid für Dich!
Was soll diese Ironie?!Doch doch, die ATI GPUs sind so hochwertig das sie grundsätzlich in den Systemen sauber laufen die entsprechend den Spezifikationen aufgebaut und betrieben sind.
Auch die AMD-CPUs sind so großartig, das die sogar mit Grafikkarten und Chipsätzen anderer Hersteller stabil laufen sofern das System sauber und entsprechend den Spezifikationen aufgebaut und betrieben wird. Absoluter Wahnsinn!
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
@ Twodee
Wie viele haben Jahre lang nur Intel gekauft, weil Intel CPU + Mainboard liefern konnte/kann?!
Jetzt kann AMD CPU, Chipsatz und GPU liefern.
Vorteil:
1. Ansprechpartner (OEMs wissen das zu schätzen)
2. Entwicklungen können aufeinander besser abgestimmt werden.
3. Wissens Austausch, Patente...
und vieles mehr.
Wie viele haben Jahre lang nur Intel gekauft, weil Intel CPU + Mainboard liefern konnte/kann?!
Jetzt kann AMD CPU, Chipsatz und GPU liefern.
Vorteil:
1. Ansprechpartner (OEMs wissen das zu schätzen)
2. Entwicklungen können aufeinander besser abgestimmt werden.
3. Wissens Austausch, Patente...
und vieles mehr.
Cordelier
Commodore Special
- Mitglied seit
- 04.03.2008
- Beiträge
- 390
- Renomée
- 66
Was bringt das? - Diese Frage stellt ja nicht nur Twodee von P3D, sondern auch HP und gibt tagtäglich darauf eine Antwort, weil eben AMD darauf keine Antwort parat hat.
Das AMD Partner Programm "Fusion" kann nur auf den Verkauf abzielen,also kauf alles bei mir,kriegst es zusammen etwas billiger. Scheint aber auch nicht der Knüller zu sein.
Das AMD Partner Programm "Fusion" kann nur auf den Verkauf abzielen,also kauf alles bei mir,kriegst es zusammen etwas billiger. Scheint aber auch nicht der Knüller zu sein.
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
@ Twodee
Wie viele haben Jahre lang nur Intel gekauft, weil Intel CPU + Mainboard liefern konnte/kann?!
Jetzt kann AMD CPU, Chipsatz und GPU liefern.
Vorteil:
1. Ansprechpartner (OEMs wissen das zu schätzen)
2. Entwicklungen können aufeinander besser abgestimmt werden.
3. Wissens Austausch, Patente...
und vieles mehr.
Bei Intel ist das auch einfach für die OEMs, aber AMD baut keine eigenen Mainboards, weshalb die OEMs so oder so auf mehrere Zulieferer angewiesen sind.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
AMD kann den Treiber so für die Grafikkarte auslegen, dass tatsächlich die Stärken einer AMD-CPU vollständig ausgenutzt werden. Das mag angesichts der relativen CPU-Schwäche nicht so wichtig erscheinen ... aber wer weiss, wie die ATI-Treiber ohne AMD-Konzernmutter ausgesehen hätten?Ich lese immer öfters CPU und GPU aus einer Hand. Was bringt das? Läuft eine ATI GPU auf einem AMD-System besser als auf einem Intel-System? Ich denke nicht, schließlich muß die GPU/Karte nur die PCIE-Protokollspecs erfüllen, oder etwa nicht?
Es gab in der Vergangenheit immer wieder Beispiele, dass zwar die Intel-Instruktionen vollständig ausgenutzt wurden, bzw. genau passend auf Intels Prozessoren rund liefen ... aber eben nicht auf AMD, Cyrix, VIA Prozessoren.
Es geht mithin eben doch darüber hinaus, als nur die exakte Einhaltung von Schnittstellenstandards ...
... wobei VIA einstmals doch über einen blinden Fleck in einer PCI-Spezifikation bei den Chipsätzen stolperte. Insbesondere Crative-Soundkarten hatten (glaube ich) für "viel Freude" bei VIA-Mainboard-Besitzer gesorgt ... und war doch letztenendlich für VIAs berühmt berüchtigten Southbridgebug verantwortlich?!
MFG Bobo(2010)
Zuletzt bearbeitet:
@ Twodee
Wie viele haben Jahre lang nur Intel gekauft, weil Intel CPU + Mainboard liefern konnte/kann?!
Jetzt kann AMD CPU, Chipsatz und GPU liefern.
Vorteil:
1. Ansprechpartner (OEMs wissen das zu schätzen)
2. Entwicklungen können aufeinander besser abgestimmt werden.
3. Wissens Austausch, Patente...
und vieles mehr.
Äpfel-Birnen-Vergleich?
Bei CPU+Chipsatz sehe ich es ja ein, aber nicht bei Chipsatz + GPU.
Die GPU ist nur ein standardisiertes Device, mehr nicht. Und nein ich meine damit nicht Fusion [ welches intern auch nur als (PCIe?)-Device angesprochen wird [laut Opteron]].
.
EDIT :
.
Das ist natürlich ein Punkt, aber kann man sich das erlauben/leisten?AMD kann den Treiber so für die Grafikkarte auslegen, dass tatsächlich die Stärken einer AMD-CPU vollständig ausgenutzt werden. Das mag angesichts der relativen CPU-Schwäche nicht so wichtig erscheinen ... aber wer weiss, wie die ATI-Treiber ohne AMD-Konzernmutter ausgesehen hätten?)
Nicht das dann das vermeindlich schnellere Konkurrenz-Produkt vorgezogen wird, weil es "runder" läuft
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Äpfel-Birnen-Vergleich?
Das ist natürlich ein Punkt, aber kann man sich das erlauben/leisten?
Nicht das dann das vermeindlich schnellere Konkurrenz-Produkt vorgezogen wird, weil es "runder" läuft
Äpfel- Birnen- Vergleich?
Warum sollte man es sich nicht leisten können seinen eigenen schwächen zu kaschieren, das bedeutet ja nicht das man Intel künstlich aus bremst.
Das eine hat nichts mit dem anderen zu tun
Manche Vorteile lassen sich schwer erfassen, aber ich gehe einfach auch mal stark davon aus das AMD z.B. stark beim Shink von RV670 auf RV770 geholfen hat.
Der Llano wird zeigen "Was es bringt", du scheinst einfach zu ungeduldig zu sein. Die Entwicklung von CPUs brauch Jahre, also wird erst nach Bulldozer, tief greifende Antworten auf die Frage geben werden können (wenn überhaupt, wegen Firmengeheimnissen).
Schau dir die neue Treibern Politik an, da sieht man doch sehr deutlich das sich was tut.
Aber um deine Frage Sinnvoll zu beantworten, müsste man wohl Mitarbeiter von AMD sein und Zugriff auf sensible Daten haben.
Was hat das noch mit meiner eigentlichen Frage in Bezug auf GPU/Karte zu tun?Äpfel- Birnen- Vergleich?
Warum sollte man es sich nicht leisten können seinen eigenen schwächen zu kaschieren, das bedeutet ja nicht das man Intel künstlich aus bremst.
Das eine hat nichts mit dem anderen zu tun
Manche Vorteile lassen sich schwer erfassen, aber ich gehe einfach auch mal stark davon aus das AMD z.B. stark beim Shink von RV670 auf RV770 geholfen hat.
Der Llano wird zeigen "Was es bringt", du scheinst einfach zu ungeduldig zu sein. Die Entwicklung von CPUs brauch Jahre, also wird erst nach Bulldozer, tief greifende Antworten auf die Frage geben werden können (wenn überhaupt, wegen Firmengeheimnissen).
Klar die Qualität nimmt zu, sehe aber nicht das das nur auf AMD-Plattformen der Fall ist. Die ATI läuft auch auf nicht AMD-Plattformen besonders gut.Schau dir die neue Treibern Politik an, da sieht man doch sehr deutlich das sich was tut.
Aber um deine Frage Sinnvoll zu beantworten, müsste man wohl Mitarbeiter von AMD sein und Zugriff auf sensible Daten haben.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.760
- Renomée
- 286
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Die ATI läuft auch auf nicht AMD-Plattformen besonders gut.
Die Aussage ist ja nicht, dass es gut läuft, sondern dass es garantiert läuft. Und diesen Vorteil hat man nunmal bei Systemen aus einer Hand.
Ähnliche Themen
- Antworten
- 296
- Aufrufe
- 37K
- Antworten
- 264
- Aufrufe
- 68K
- Antworten
- 123
- Aufrufe
- 19K
G
- Antworten
- 1K
- Aufrufe
- 166K