App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
CeBIT: Kommt der AMD/ATI R600 gleich in 65 nm?
- Ersteller Nero24
- Erstellt am
Über das "Phantom" der CeBIT 2007, den kommenden AMD/ATI R600 DX10 Grafikprozessor, haben wir bereits ausführlich <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173984639">berichtet</a>. Auch über die möglichen <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1172244573">Gründe</A> für die <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173282456">Verzögerung</A> gibt es bereits Meldungen auf Planet 3DNow!
Obwohl man sich bei AMD zum R600 ungewöhnlich zugeknöpft zeigt und die paar definitiv existierenden R600 Karten der Presse nicht einmal im Hinterzimmer zeigt, will man bei <a href="http://uk.theinquirer.net/?article=38292" TARGET="_blank">INQ</A> erfahren haben, dass der Grund für die Verzögerungen ein Umschwenk auf den 65 nm Herstellungsprozess sein soll. Damit soll es möglich sein, die über 720 Millionen Transistoren starke GPU mit über 1 GHz Taktfrequenz arbeiten zu lassen, ohne - wie offenbar momentan noch - Probleme mit Stromverbrauch und Wärmeentwicklung zu bekommen. Demnach sollen die Karten ausschließlich in der 65 nm Version in den Handel kommen und über ein Drittel weniger Strom verbrauchen, als die 80 nm Karten der Vorserien-Generation.
Danke nazgul99 und cruger für den Hinweis
Obwohl man sich bei AMD zum R600 ungewöhnlich zugeknöpft zeigt und die paar definitiv existierenden R600 Karten der Presse nicht einmal im Hinterzimmer zeigt, will man bei <a href="http://uk.theinquirer.net/?article=38292" TARGET="_blank">INQ</A> erfahren haben, dass der Grund für die Verzögerungen ein Umschwenk auf den 65 nm Herstellungsprozess sein soll. Damit soll es möglich sein, die über 720 Millionen Transistoren starke GPU mit über 1 GHz Taktfrequenz arbeiten zu lassen, ohne - wie offenbar momentan noch - Probleme mit Stromverbrauch und Wärmeentwicklung zu bekommen. Demnach sollen die Karten ausschließlich in der 65 nm Version in den Handel kommen und über ein Drittel weniger Strom verbrauchen, als die 80 nm Karten der Vorserien-Generation.
Danke nazgul99 und cruger für den Hinweis
boidsen
Grand Admiral Special
- Mitglied seit
- 21.11.2004
- Beiträge
- 18.214
- Renomée
- 153
- Standort
- Negnidürtressaw
- Mein Laptop
- DIN-A 5, kariert, ohne Rand
- Prozessor
- Brain 2.0
- Verschiedenes
- System?!? Ähhh - bin total unsystematisch... LOL
Ich wills mal so sagen: Der MUSS in 65nm kommen - ansonsten kann AMD/ATI das Geschäft mit dezidierten Grakas auf der Stelle aufgeben!
Denn angesichts sicher bald kommender Energieverbrauchsrichtlinien in weiten Teilen der Welt, dürfte eine Grafikkarte mit Verbräuchen jenseits der 150 Watt sehr schnell unverkäuflich sein - in manchen Ländern sogar gesetzlich geregelt...
Und auch 65nm darf nur ne kurze Zwischenstation auf dem Weg zu 45nm sein, dessen Fertigung ja so gut wie serienreif is...
IMHO is mittelfristig bei Highend-Grakas eine Obergrenze bei 100 Watt zu ziehen!
Denn angesichts sicher bald kommender Energieverbrauchsrichtlinien in weiten Teilen der Welt, dürfte eine Grafikkarte mit Verbräuchen jenseits der 150 Watt sehr schnell unverkäuflich sein - in manchen Ländern sogar gesetzlich geregelt...
Und auch 65nm darf nur ne kurze Zwischenstation auf dem Weg zu 45nm sein, dessen Fertigung ja so gut wie serienreif is...
IMHO is mittelfristig bei Highend-Grakas eine Obergrenze bei 100 Watt zu ziehen!
Zuletzt bearbeitet:
Azi
Grand Admiral Special
- Mitglied seit
- 10.09.2002
- Beiträge
- 2.270
- Renomée
- 13
- Standort
- .at
- Aktuelle Projekte
- PdM :)
- Meine Systeme
- div.ominöse.
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Sony Vaio FS 115M; Medion Akoya Mini Netbook
- Prozessor
- Q6600@3,0
- Mainboard
- Gigabyte X35-DS5
- Kühlung
- Skythe
- Speicher
- 4*2GB Aeneon
- Grafikprozessor
- Ati Radeon HD 4870 1GB
- Display
- DELL 22" TFT
- HDD
- 500GB Samsung,1TB Hitachi
- Optisches Laufwerk
- DVD LW Samsung, DVD Brenner Samsung extern
- Soundkarte
- onboard
- Gehäuse
- Aerocool I - Curve
- Netzteil
- Be Quiet Quad Rail 600Watt
- Betriebssystem
- Vista Ultimate x64 SP1
- Webbrowser
- Firefox
Jop und wenn AMD nicht Gas gibt, dann haben wir wieder ein Monopol und können uns die derzeitigen Traumpreise in die Haare schmieren...
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
Bis die Gesetze tatsächlich durch sind - Herr Gabriel z.B. will das ja am liebsten gleich auf EU-Ebene klarmachen, sonst bringt das ja auch wenig - werden GPUs sicher bereits in 45nm produziert. Sowas dauert halt. Und auf R600 (80nm) wäre ja ohnehin in kurzem Abstand die 65nm-Version gefolgt - durch die Verzögerung schrumpfte dieser wahrscheinliche Abstand gegen Null.
Irgendwo hab ich übrigens gelesen (Mist, Link nicht gemerkt, war es golem.de? War jedenfalls aktuell von der CeBIT), daß AMD ab 2009 GPUs in den eigenen Chipfabriken fertigen will. Chipsätze dann ja sicherlich auch. Wahrscheinlich war das ja ohnehin, dies war nun die erste Bestätigung. Und es verbessert die Chance, daß die Fab in NY tatsächlich gebaut wird, beträchtlich.
Irgendwo hab ich übrigens gelesen (Mist, Link nicht gemerkt, war es golem.de? War jedenfalls aktuell von der CeBIT), daß AMD ab 2009 GPUs in den eigenen Chipfabriken fertigen will. Chipsätze dann ja sicherlich auch. Wahrscheinlich war das ja ohnehin, dies war nun die erste Bestätigung. Und es verbessert die Chance, daß die Fab in NY tatsächlich gebaut wird, beträchtlich.
und dieser schritt ist ja wohl nur möglich, weil amd schon so weit ist mit 65nm - im gegensatz zu ati alleine...und wer hat alles geunkt, der fortschritt amds in der prozesstechnik würde nichts(!) für die grafik/chipsatzsparte bringen
G
gast146
Guest
IMHO is mittelfristig bei Highend-Grakas eine Obergrenze bei 100 Watt zu ziehen!
mmh, ob sowas kommt?
Ist doch ne ganz interessante Sache, ob die hersteller jetzt stromsparendere Produkte entwerfen!?
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
Aber erst 2009. Vorher (vor Konvertierung Fab30 -> Fab38) wird in AMDs Fabs kaum Kapazität für anderes als CPUs übrig sein - allein wegen der Quadcores.und dieser schritt ist ja wohl nur möglich, weil amd schon so weit ist mit 65nm - im gegensatz zu ati alleine...und wer hat alles geunkt, der fortschritt amds in der prozesstechnik würde nichts(!) für die grafik/chipsatzsparte bringen
.
EDIT :
.
Ich würd's vor allem gut finden, wenn die Karten im Dauerbetrieb (Desktop, ob mit oder ohne 3D) deutlich weniger verbrauchen würden. Die Notebook-Technik mit GPU im Chipsatz und seamless-Umschaltung auf externe GPU zum Daddeln könnte hier helfen.mmh, ob sowas kommt?
Ist doch ne ganz interessante Sache, ob die hersteller jetzt stromsparendere Produkte entwerfen!?
das ist sicherlich richtig ... aber wenn man tatsächlich von einem drittel weniger leistungsaufnahme ausgeht, dann wird der r600 dennoch ein ziemlich stromschlucker bleiben. vielleicht schafft man es ja, die ohnehin schon hohen werte der x1950xtx zu unterschreiten. das wäre mir zwar immer noch zuviel, aber man muss ja berücksichtigen, dass der r600 noch ein ziemlich reinrassiges ati produkt ist. amds einflüsse werden wohl erst bei der nächsten generation so richtig zum tragen kommen.und dieser schritt ist ja wohl nur möglich, weil amd schon so weit ist mit 65nm - im gegensatz zu ati alleine...und wer hat alles geunkt, der fortschritt amds in der prozesstechnik würde nichts(!) für die grafik/chipsatzsparte bringen
für mich als gelegenheitsspieler wäre es wichtig, dass die neue mittelklasse (vergleichbar mit der 7600gt aus der letzten generation) möglichst nicht mehr als 50w verbraucht und ohne zusätzlichen strom-stecker auskommt.
boidsen
Grand Admiral Special
- Mitglied seit
- 21.11.2004
- Beiträge
- 18.214
- Renomée
- 153
- Standort
- Negnidürtressaw
- Mein Laptop
- DIN-A 5, kariert, ohne Rand
- Prozessor
- Brain 2.0
- Verschiedenes
- System?!? Ähhh - bin total unsystematisch... LOL
Dann wäre es IMHO besser, AMD/ATI würde sich bis zur Serienreife eines R700 (?), der dann mit AMD-Knowhow entwickelt wurde, ganz mit Neuheiten zurückhalten - ehrlich erklärt und richtig in der Presse dargestellt dürfte eine solche "Pause" auf dem Grakamarkt sich weniger negativ auswirken als ne Lachnummer @R600...aber man muss ja berücksichtigen, dass der r600 noch ein ziemlich reinrassiges ati produkt ist. amds einflüsse werden wohl erst bei der nächsten generation so richtig zum tragen kommen.
Low Rider
Grand Admiral Special
- Mitglied seit
- 20.08.2003
- Beiträge
- 4.251
- Renomée
- 44
- Standort
- Stuttgart/Berlin
- Prozessor
- Phenom II X6 1090T
- Mainboard
- Asus Crosshair IV
- Kühlung
- Alpenföhn Matterhorn
- Speicher
- 2x 2GB Geil DDR3-1600
- Grafikprozessor
- Zotac GTX 480 AMP
- Display
- Dell 27"
- HDD
- Crucial RealSSD 128 GB + WD Green 1000 GB
- Optisches Laufwerk
- Samsung SH-B083L Bluray/DVD
- Soundkarte
- on Board
- Gehäuse
- Silverstone Fortress 2
- Netzteil
- Enermax Modu 82+ 625W
- Betriebssystem
- Windows 7 Ultimate 64bit
Ich glaube nicht, daß AMDs Erfahrung mit 65nm sehr viel bringt... ein Bisschen vielleicht. Die Grafikchips werden bei TSMC gefertigt, und wenn die den 65nm Prozess nicht im Griff haben, nützt AMDs Erfahrung erstmal nix. Man kann das CPU Know How nicht einfach auf GPUs übertragen. Welche AMD CPU hat >700 Mio Transistoren, wovon >90% Logik sind? Welche GPU hat auf der Hälfte der DIE-Fläche verhältnismäßig "einfachen" Cache?und dieser schritt ist ja wohl nur möglich, weil amd schon so weit ist mit 65nm - im gegensatz zu ati alleine...und wer hat alles geunkt, der fortschritt amds in der prozesstechnik würde nichts(!) für die grafik/chipsatzsparte bringen
MR2
Vice Admiral Special
http://www.youtube.com/watch?v=EJ6aMxPh6k0
ATIs Ruby Techdemo bei youtube
In HD wäre mir lieber, aber immerhin ists n Anfang.
Aber vielleicht auf AMD/ATIs Pressekonferenz zum R600?
"Die große Show zum R600-Start"
http://de.theinquirer.net/2007/03/17/die_grosse_show_zum_r600start.html
ATIs Ruby Techdemo bei youtube
In HD wäre mir lieber, aber immerhin ists n Anfang.
Aber vielleicht auf AMD/ATIs Pressekonferenz zum R600?
"Die große Show zum R600-Start"
http://de.theinquirer.net/2007/03/17/die_grosse_show_zum_r600start.html
Zuletzt bearbeitet:
Shinzon
Vice Admiral Special
- Mitglied seit
- 08.01.2004
- Beiträge
- 577
- Renomée
- 3
- Standort
- Österreich, PITMON
- Aktuelle Projekte
- Folding@Home
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- Ryzen 5 2600, 16GB DDR4 3400, Windows 10 Pro x64
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen 5 2600
- Mainboard
- Asus TUF B450M-PLUS GAMING
- Kühlung
- Arctic Cooling Freezer AIO
- Speicher
- 2x 8GB Crucial Tactical Tracer 3000@3400
- Grafikprozessor
- Asus Arez Strix Vega 56 OC
- Display
- HP 27x Curved
- SSD
- Sandisk NVMe Extreme Pro 500GB
- Soundkarte
- Creative Sound Blaster Omni Surround 5.1
- Gehäuse
- Thermaltake Core V21
- Netzteil
- BeQuiet 750W
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Vivaldi 64Bit
Ich wills mal so sagen: Der MUSS in 65nm kommen - ansonsten kann AMD/ATI das Geschäft mit dezidierten Grakas auf der Stelle aufgeben!
Denn angesichts sicher bald kommender Energieverbrauchsrichtlinien in weiten Teilen der Welt, dürfte eine Grafikkarte mit Verbräuchen jenseits der 150 Watt sehr schnell unverkäuflich sein - in manchen Ländern sogar gesetzlich geregelt...
Und auch 65nm darf nur ne kurze Zwischenstation auf dem Weg zu 45nm sein, dessen Fertigung ja so gut wie serienreif is...
IMHO is mittelfristig bei Highend-Grakas eine Obergrenze bei 100 Watt zu ziehen!
Eine Obergrenze bei 100W sehe ich als nicht sehr realistisch an. Man muss mal überlegen, welch mächtiges Stück Technik der R600 ist. Ich würde Highend-Grafikkarten schon eine maximale Verlustleistung von 175W gönnen. Das ist nicht sehr viel im Vergleich zum Verbrauch von Halogenstehlampen (bis zu 300W).
Und Grafikkarten laufen auch nicht die ganze Zeit unter Volllast, außer sie werden für F@H oder 3D-Applikationen missbraucht 8) .
MfG
boidsen
Grand Admiral Special
- Mitglied seit
- 21.11.2004
- Beiträge
- 18.214
- Renomée
- 153
- Standort
- Negnidürtressaw
- Mein Laptop
- DIN-A 5, kariert, ohne Rand
- Prozessor
- Brain 2.0
- Verschiedenes
- System?!? Ähhh - bin total unsystematisch... LOL
Mittelfristig sollte in einem Zeitraum von drei bis fünf Jahren heißen - da müsste das machbar sein...
Und solche Lampen werden wohl auch bald durch andere Technologien ersetzt werden.
Und solche Lampen werden wohl auch bald durch andere Technologien ersetzt werden.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 565
- Antworten
- 13
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 814