App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Neue Gerüchte um AMDs Fusion
- Ersteller mj
- Erstellt am
mj
Technische Administration, Dinosaurier, ,
- Mitglied seit
- 17.10.2000
- Beiträge
- 19.529
- Renomée
- 272
- Standort
- Austin, TX
- Mein Laptop
- 2,4kg schwer
- Prozessor
- eckig... glaub ich
- Mainboard
- quadratisch, praktisch, gut
- Kühlung
- kühler?
- Speicher
- ja
- Grafikprozessor
- auch
- Display
- viel bunt
- HDD
- ist drin
- Optisches Laufwerk
- ist auch drin (irgendwo)
- Soundkarte
- tut manchmal tuuut
- Gehäuse
- mit aufkleber!
- Netzteil
- so mit kabel und so... voll toll
- Betriebssystem
- das eine da das wo dingenskirchen halt, nech?
- Webbrowser
- so ein teil da... so grün und so
- Verschiedenes
- nunu!
Zu AMDs zukünftigem Chip, der CPU und GPU kombiniert, gibt es wenig gefestigtes, da sich das Unternehmen - der bisherigen unverständlichen Unternehmenstradition folgend - zu wichtigen neuen Produkten vollständig ausschweigt, sich hinter einer Informationsbarriere verschanzt und der Presse am liebsten gar nichts an Informationen zukommen lassen würde.
Glücklicherweise gibt es noch industrienahe Quellen, aus denen immer wieder Informationshäppchen ans Licht der Öffentlichkeit treten um uns die Wartezeit zu verkürzen und gleichzeitig die Neugier zu befriedigen. <a href="http://www.tgdaily.com/html_tmp/content-view-38703-135.html" target="b">TG Daily</a> will erfahren haben, dass die Fusion-Chips bei TSMC im Auftrag gefertigt werden sollen. Den verständlicherweise nicht näher genannten Quellen zufolge sollen im ersten Fusion-Chip namens "Shrike" ein Dualcore Phenom mit einer R800 GPU vereinigt werden. Auch zum R800 ist bisher noch sehr wenig bekannt, man geht allerdings davon aus, dass der DirectX-10.1-Chip mehr sein wird als lediglich ein Shrink von 55 auf 40 Nanometer.
Die Produktion des Shrike-Chips, der zunächst als sogenannter "half-node" in 40 Nanometer erscheinen wird, soll bis 2010 auf 32 Nanometer umgestellt werden, was in etwa dem Zeitrahmen von Intels Umstellung auf 32 Nanomenter entspricht. Ein "half-node" ist eine Art Zwischenschritt im Produktionsprozess, bei dem lediglich der Produktionsprozess selber umgestellt wird, so Strukturen verkleinert werden, ohne dass gleichzeitig das Chipdesign den neuen Strukturen angepasst wird.
Glücklicherweise gibt es noch industrienahe Quellen, aus denen immer wieder Informationshäppchen ans Licht der Öffentlichkeit treten um uns die Wartezeit zu verkürzen und gleichzeitig die Neugier zu befriedigen. <a href="http://www.tgdaily.com/html_tmp/content-view-38703-135.html" target="b">TG Daily</a> will erfahren haben, dass die Fusion-Chips bei TSMC im Auftrag gefertigt werden sollen. Den verständlicherweise nicht näher genannten Quellen zufolge sollen im ersten Fusion-Chip namens "Shrike" ein Dualcore Phenom mit einer R800 GPU vereinigt werden. Auch zum R800 ist bisher noch sehr wenig bekannt, man geht allerdings davon aus, dass der DirectX-10.1-Chip mehr sein wird als lediglich ein Shrink von 55 auf 40 Nanometer.
Die Produktion des Shrike-Chips, der zunächst als sogenannter "half-node" in 40 Nanometer erscheinen wird, soll bis 2010 auf 32 Nanometer umgestellt werden, was in etwa dem Zeitrahmen von Intels Umstellung auf 32 Nanomenter entspricht. Ein "half-node" ist eine Art Zwischenschritt im Produktionsprozess, bei dem lediglich der Produktionsprozess selber umgestellt wird, so Strukturen verkleinert werden, ohne dass gleichzeitig das Chipdesign den neuen Strukturen angepasst wird.
Opteron
Redaktion
☆☆☆☆☆☆
Thread dazu im Forum:
http://www.planet3dnow.de/vbulletin/showthread.php?t=298967&page=6
Und weils dort auch gerade aktuell ist:
"Shrike" ist der Plattformname, das ist der Puma Nachfolger. Der Fusion Chip selbst heißt Swift.
ciao
Alex
http://www.planet3dnow.de/vbulletin/showthread.php?t=298967&page=6
Und weils dort auch gerade aktuell ist:
"Shrike" ist der Plattformname, das ist der Puma Nachfolger. Der Fusion Chip selbst heißt Swift.
ciao
Alex
LauneBaer
Admiral Special
- Mitglied seit
- 24.11.2003
- Beiträge
- 1.360
- Renomée
- 6
- Mein Laptop
- Lenovo Thinkpad T420s
- Prozessor
- Intel Core 2 Duo E8400
- Mainboard
- Asus P5Q
- Kühlung
- Xigmatek HDT-S1283
- Speicher
- A-DATA Vitesta Extreme Edition DIMM Kit 4GB PC2-6400U CL4-4-4-12
- Grafikprozessor
- PowerColor ATI HD6950 2GB @ 6970 Shaders
- Display
- 27" AOC FullHD + 22" LG W2242T 1680 x 1050
- HDD
- Crucial M4 128GB + Western Digital Caviar Blue 640GB SATA II (WD6400AAKS)
- Optisches Laufwerk
- LG Electronics GH20NS SATA
- Soundkarte
- onboard
- Gehäuse
- Sharkoon Rebel 9
- Netzteil
- Enermax PRO82+ 385W ATX 2.2
- Betriebssystem
- Windows 7 Home Premium x64
- Webbrowser
- Iron
Klingt sehr interessant das ganze.
Kann man dann quasi den Shrike-Chip als CPU und GPU verwenden und zusätzlich ne Grafikkarte für Crossfire zum Beispiel einbauen?!
Kann man dann quasi den Shrike-Chip als CPU und GPU verwenden und zusätzlich ne Grafikkarte für Crossfire zum Beispiel einbauen?!
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
Auch zum R800 ist bisher noch sehr wenig bekannt, man geht allerdings davon aus, dass der DirectX-10.1-Chip mehr sein wird als lediglich ein Shrink von 55 auf 40 Nanometer.
Daß AMDs nächste GPU-Generation R800 nicht einfach ein Shrink sein wird, ist anhand der sicher nicht schlafenden NV-Konkurrenz (und der noch schwer einzuschätzenden neuen Konkurrenz durch Intel) wohl zu erwarten. Laut Phoronix wird es zumindest beim UVD eine grundlegende Veränderung geben: Video Decoder und DRM (in diesem Fall Digitale Rechte-Entfernung, nicht Direct Rendering Manager - letzteres ein Bestandteil von Xorg) werden so voneinander getrennt, daß eine Freigabe der Spezifikation des Video-Decoders für FOSS-Programmierer möglich wird.
mmoses
Admiral Special
- Mitglied seit
- 20.10.2006
- Beiträge
- 1.899
- Renomée
- 43
- Standort
- Bembeltown
- Mein Laptop
- Lenovo Thinkpad Edge T450
- Prozessor
- AMD Ryzen5 - 1600
- Mainboard
- MSI B350 PC MATE
- Kühlung
- Original Bex Kühler
- Speicher
- 2 x ADATA DIMM 8 GB DDR4-2400
- Grafikprozessor
- Asus Radeon R7 250X
- Display
- 27" iiyama ProLite B2783QSU
- SSD
- Samsung SSD 840PRO 256GB
- HDD
- WD WD20EZRZ 2 TB
- Optisches Laufwerk
- BluRayBrenner PIONEER BDR-209DBK SATA
- Soundkarte
- onboard
- Gehäuse
- Enermax Chakra BS 25cm Fan ATX
- Netzteil
- Enermax EPR385AWT Pro82+ 385W ATX23
- Betriebssystem
- 64-Bit Linux Mint 19.2
- Webbrowser
- Frickelfuchs/opera
Soweit so nett, ab er schon bezeichnend, dass die 65er Version so zügig in der Senkrechten Ablage landete, wo doch Puma erst so langsam in den Markt sickert ( dank Nvidia wohl nun etwas zügiger ).
Hmmm Fusion ... 45nm .... Da müsste es doch endlich mal klappen 1700Gramm-Notebooks mit knapp 8 Stunden Akkulaufzeit zu bauen !!
Mmoe
Hmmm Fusion ... 45nm .... Da müsste es doch endlich mal klappen 1700Gramm-Notebooks mit knapp 8 Stunden Akkulaufzeit zu bauen !!
Mmoe
Pirx
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.234
- Renomée
- 11
- Standort
- Mädels auf Bäumen wachsen
- Mein Laptop
- Samsung NC20
Erst sind sie immer recht optimistisch mit der Einführung der Fertigungsverfahren und dann hinken sie doch wieder 1 Jahr hinter Intel zurück - hoffentlich diesmal nicht (die Hoffnung stirbt zuletzt)
rkinet
Grand Admiral Special
Das geht bestimmt und macht für die performanten Notebooks mit 43 W Sinn.Klingt sehr interessant das ganze.
Kann man dann quasi den Shrike-Chip als CPU und GPU verwenden und zusätzlich ne Grafikkarte für Crossfire zum Beispiel einbauen?!
Für den 32nm 'Shrink' ist aber eher kein Shrink sondern 'Bulldozer' nach folgender Art zu erwarten:
Beim Shrike fehlt ja noch der shared Cache, die K10 - Cores erhalten nur ihren lokalen L2 (?* 512k ?! )
TSMC hat übrigens schon in 65nm eDRAM - bis 256 MBit: http://news.softpedia.com/news/TSMC-Releases-65nm-eDRAM-Chips-49042.shtml
Rechnerisch wäre ein 32nm eDRAM von 512MBit = 64MByte ca. 30 mm2 groß (Zellen ?* 0,06um2) und so locker 4* Bulldozer als L3 und der GPU als local frame buffer dienen.
Nachdem AMD sich schon 2010 mit dem Bulldozer an den Markt begiebt wäre auch ein 40/45nm Design für DD denkbar. Jenes DIE wäre größe und hätte eine höhere TDP, was aber im Desktop nicht problematisch wäre.
Der Bulldozer wurde ja von 10-100 W schon einmal angekündigt, was bei 10 W aber eher nach max. Dual-Core und low GHz riecht.
100 Watt Quad-Core incl. GPU und local frame buffer wäre im Desktop eine brauchbare Größe, besonders da die 100 Watt ja per C'n'Q nur selten anstehen würden.
Alyva
Vice Admiral Special
- Mitglied seit
- 12.01.2008
- Beiträge
- 712
- Renomée
- 6
- Prozessor
- AMD Athlon 64 3500+ Newcastle
- Mainboard
- K8N SLI Platinum
- Kühlung
- Boxed Variante
- Speicher
- MDT 2* 1 GB PC400 CL2
- Grafikprozessor
- Geforce 6800 GT Ultra
- Display
- 17" AOC 1280*1024
- HDD
- WD 360 GD / ST3200822A
- Optisches Laufwerk
- Toshiba DVD-Rom SD-M1912
- Soundkarte
- Soundblaster Audigy
- Netzteil
- 380 Watt
- Betriebssystem
- Windows XP
- Webbrowser
- Maxthon
Ich habe natürlich zweifel an der vollwertigen Brauchbarkeit gegenüber einer reinen Grafikkarte. Soll heißen ist diese integrierte GPU nicht eher für spezifische Aufgaben gedacht? Solche wie zum Beispiel zur Berechnung der Physik oder verbessertes Rendering zum Support der Onboardgrafik?
rkinet
Grand Admiral Special
Die Bandbreite ist wg. DDR3-1333 im Vergleich zu heutigen Designs wie 780G um ca. 50% höher und die Latenzzeiten niedriger.Ich habe natürlich zweifel an der vollwertigen Brauchbarkeit gegenüber einer reinen Grafikkarte.
Den 780G hat man mit der alten Radeon 2400 verglichen und Shrike wird dann wphl zwischen 2400 und 2600 Performance liegen: http://www.trustedreviews.com/motherboards/review/2008/03/06/AMD-780-Integrated-Graphics-Chipset/p1
Für die 19 W und bedingt 30 W Designs sollte man eigentlich eine externe Grafikkarte vergessen, denn sie nimmt ja deutlich zusätzlich Leistung auf.
Bei 30 Watt incl. GPU und Northbridge hat man mx. TDP-Werte die deutlich unter Intels 25 W zzgl. GPU Plattform liegen bzw. unter jenen mit zusätzlicher ATI o. nvidia Mobilgrafik.
Ganz anders die Situation beim Desktop / Bulldozer. Hier könnte AMD bei den Cores aufbohren und den GPU-Teil z.B. mit GDDR5 RAM tunen.Wenn dann 100W max. am Socket sind - was solls.
Weltweit kann AMD viele Designs mit int. Grafik verkaufen. Wenn diese GPU dann an der COU sitzt hat nvidia das Nachsehen.
Wer etwas mehr Performance benötigt fügt noch eine Mittelklasse Grafikkarte dazu, der Rest dann leistungsfähige Grafikkarten.
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
Nein, als Ersatz für Onboard-Grafik. Warum soll ein in die CPU integrierter GPU-Core schlechter arbeiten als ein solcher, der in den Chipsatz intergiert ist? Durch die verbesserte Anbindung an die CPU-Kerne (Latenz) ist eher eine höhere Performance zu erwarten, die wegfallenden (externen) PCIe-Lanes lassen deutliche Verbrauchsersparnisse erwarten.Ich habe natürlich zweifel an der vollwertigen Brauchbarkeit gegenüber einer reinen Grafikkarte. Soll heißen ist diese integrierte GPU nicht eher für spezifische Aufgaben gedacht? Solche wie zum Beispiel zur Berechnung der Physik oder verbessertes Rendering zum Support der Onboardgrafik?
rkinet
Grand Admiral Special
http://www.digitimes.com/systems/a20080805PD201.html
und: http://www.computerbase.de/news/har...erz/intel_roadmap_nach_silverthorne_lincroft/
Intel hat ähnlich zum Shrike den 45nm 'Lincroft' entwickelt. Scheinbar wird der Atom frühzeitig jetzt ausgesteuert und Intel kontert mit mehr Perfromance.
Zwar ist ein 19W (Single-Core ?! ) Shrike noch deutlich über der TDP der Atom ff. Plattform, aber etwas weniger Takt, einige GPU-Features deaktiviert und AMD nähert sich der 'Atom'-Welt.
In additional news, Intel will cease supply of Atom N270 processors at the end of second-quarter 2009, however the company has so far not released any information regarding the development of a next-generation Atom processor.
und: http://www.computerbase.de/news/har...erz/intel_roadmap_nach_silverthorne_lincroft/
Intel hat ähnlich zum Shrike den 45nm 'Lincroft' entwickelt. Scheinbar wird der Atom frühzeitig jetzt ausgesteuert und Intel kontert mit mehr Perfromance.
Zwar ist ein 19W (Single-Core ?! ) Shrike noch deutlich über der TDP der Atom ff. Plattform, aber etwas weniger Takt, einige GPU-Features deaktiviert und AMD nähert sich der 'Atom'-Welt.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
...und nicht zu vergessen die geringere Chipanzahl, was bei kleinen Geräten recht wichtig ist. An Fusion braucht man ja nur noch die Southbridge anzubinden und ist fertig, da dort sowieso keine Grafikkarte drankommt, reichen auch ein paar wenige PCIe-Lanes für einen evtl. Zusatzchip (da die SB800 aber deutlich vollständiger wird, z.B. Ethernet usw., wird die Notwendigkeit dafür aber auch kleiner).
Wenn sie es auf längere Sicht dann auch schaffen, der SB ein paar Dutzend PCIe-Lanes zu verpassen (verschiedene Varianten der SB), dann wäre die Kombi auch für ausgewachsene Desktopboards zu nutzen. Wenn dann langfristig in jeder CPU auch GPU-Kerne drin sind, dann werden auch von den Programmierern genutzt, ähnlich wie SSE-Fähigkeiten.
Also das Konzept ist gut und bietet einen Masse an Möglichkeiten. Nur muß AMD damit auch mal zu Potte kommen. Im Augenblick würde man ja schon bald sagen, wenn die jetzt noch keine lauffähigen Pressesamples vorzeigen, dann wird das mit einem Markteintritt vor 2010 nichts mehr (und dabei sollte Fusion ursprünglich mal 2008 kommen).
Wenn sie es auf längere Sicht dann auch schaffen, der SB ein paar Dutzend PCIe-Lanes zu verpassen (verschiedene Varianten der SB), dann wäre die Kombi auch für ausgewachsene Desktopboards zu nutzen. Wenn dann langfristig in jeder CPU auch GPU-Kerne drin sind, dann werden auch von den Programmierern genutzt, ähnlich wie SSE-Fähigkeiten.
Also das Konzept ist gut und bietet einen Masse an Möglichkeiten. Nur muß AMD damit auch mal zu Potte kommen. Im Augenblick würde man ja schon bald sagen, wenn die jetzt noch keine lauffähigen Pressesamples vorzeigen, dann wird das mit einem Markteintritt vor 2010 nichts mehr (und dabei sollte Fusion ursprünglich mal 2008 kommen).
Ähnliche Themen
- Antworten
- 3
- Aufrufe
- 2K
- Antworten
- 20
- Aufrufe
- 4K
- Antworten
- 22
- Aufrufe
- 4K
- Antworten
- 22
- Aufrufe
- 9K
- Antworten
- 0
- Aufrufe
- 52K