App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD mit Accelerated Processing Unit "Swift"
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Passend zur neu gegründeten Sparte Accelerated Computing, für die der CTO von MIPS Mike Uhler abgeworben wurde (wir <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197291921">berichteten</a>), plant AMD unter dem Codenamen "Swift" eine APU (Accelerated Processing Unit) auf Basis eines Dual-Core Phenom.
Der Kombiprozessor aus CPU und GPU, der bislang unter dem Namen "Fusion" bekannt war, soll 2009 erscheinen.
<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=1129&w=l"></center>
<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=1128&w=l"></center>
Der Kombiprozessor aus CPU und GPU, der bislang unter dem Namen "Fusion" bekannt war, soll 2009 erscheinen.
<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=1129&w=l"></center>
<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=1128&w=l"></center>
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Sicher, dass das das Gleiche ist?Der Kombiprozessor aus CPU und GPU, der bislang unter dem Namen "Fusion" bekannt war, soll 2009 erscheinen.
Fusion war doch eine CPU, wo noch eine GPU draufgepappt wurde. Hier sieht es eher so aus,
als würde die GPU mit in den DIE integriert, würde also einen Schritt weitergehen.
Der Vorteil dafür wäre vermutlich, dass die GPU auch auf den Memory Controller zugreifen
kann und man keinen Nachteil mehr hat, wenn die GPU nicht mehr ihren eigenen Speicher hat.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Ich glaube nicht, daß das einfach nur umbenannt wurde. Fusion sollte ja mit dem Bulldozer-CPU-Kern kommen, Swift enthält aber die K10-Derivate. Wahrscheinlich haben sie sich gedacht, wenn schon Barcelona (wie der K8 auch) ein Jahr Verspätung hatte, wird es Bulldozer auch haben, und so lange wollen sie wohl nicht warten, der Rest wäre ja da. So les ich jedenfalls den Satz unter der zweiten Folie.Der Kombiprozessor aus CPU und GPU, der bislang unter dem Namen "Fusion" bekannt war, soll 2009 erscheinen.
@Berniyh: Ob das Teil als MCM gebaut wird oder alles auf einem Die kommt, ist ja anhand dieser Folie nicht zu sagen, ich könnte mir auch denken, daß sie sich das noch offenhalten. Northbridge mit IGP kann man dann bei TSMC fertigen und den CPU-Teil in Dresden, reduziert die Risiken.
Für kleine Geräte wie Subnotebooks usw. ist das Ding wegen des niedrigen Chipcounts auf jeden Fall eine sehr interessante Sache - bloß sollten sie bis dahin auch ENDLICH mal wenigstens einen LAN-Port in die Southbridge integrieren, denn was nützt der ganze Integrationsgedanke, wenn dann wieder zig Zusatzchips auf die Platine müssen, damit man Daten rein und raus bekommt.
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Es gab mal ein Foto, allerdings weiß ich nicht, ob das nicht eine Fälschung ist, möglich wäre@Berniyh: Ob das Teil als MCM gebaut wird oder alles auf einem Die kommt, ist ja anhand dieser Folie nicht zu sagen, ich könnte mir auch denken, daß sie sich das noch offenhalten. Northbridge mit IGP kann man dann bei TSMC fertigen und den CPU-Teil in Dresden, reduziert die Risiken.
es sicherlich.
http://www.hardwaremania.com/news/i...slemcisi-multi-chip-modul-olarak-gelecek.html
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
Ich sag ja, fusion ist ein Projekt. Bullbozer könnte dann das endgültige ergebnis des projektes sein.
Opteron
Redaktion
☆☆☆☆☆☆
Schau mal was da drunter steht:
Xbox 360'da kullan?lan Xenox çipi
Mich erinnert die Idee eigentlich eher an nen Cell Prozessor. Die GPU steuert einfach "nur" ne Menge SPUs bei, verwaltet wird über 2 X86 cores ...
Ein 1 chip Modul wäre wohl vorzuziehen, da wohl ziemlich viel Daten hin und hergeschaufelt werden müssen ... aber wer weiss vielleicht reicht auch erstmal ein MCM.
Man könnte ja schon mal die DIE Größe ausrechnen, ist ja alles in 45nm, da sollte das eigentlich gehen.
Falls mal eine SPU defekt ist, dann verkauft man das Teil halt als billiges onboard Grafik CPU Teil. Wär dann auch egal ^^
@ragas:
Bulldozer ist der CPU Kern, ist schon seit letzter Präsentation bekannt.
ciao
Alex
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Ups.Schau mal was da drunter steht:
Ich hatte nur das Bild geöffnet, nur halt vor dem Verlinken noch kurz die Newsmeldung
dazu rausgesucht, aber nicht mehr genauer angeschaut, da ich eigentlich ohnehin von
einem Fake ausging.
Meiner Meinung nach sollte AMD das auch erstmal als getrennte Chip Lösung bringen.Ein 1 chip Modul wäre wohl vorzuziehen, da wohl ziemlich viel Daten hin und hergeschaufelt werden müssen ... aber wer weiss vielleicht reicht auch erstmal ein MCM.
Wenn man CPU und GPU über einen HT Link verbinden könnte (und dadurch wäre ja auch
die Latenz zum Speicher recht gering für die GPU), dann könnte sich das schon lohnen.
Wirklich, AMD, sollte schauen, dass sie das Teil einfach möglichst schnell rausbringen,
meinetwegen sogar in 65nm.
Opteron
Redaktion
☆☆☆☆☆☆
Naja ... AMD muss den ATI Chip so oder so umdesignen z.B. von PCIe auf HT .. da kann man das Teil auch gleich einen K10 Northbridge Bus verpassen ...Meiner Meinung nach sollte AMD das auch erstmal als getrennte Chip Lösung bringen.Wenn man CPU und GPU über einen HT Link verbinden könnte (und dadurch wäre ja auch die Latenz zum Speicher recht gering für die GPU), dann könnte sich das schon lohnen.
Der Chip wird größer, ja, aber in 45nm sollte das mit 2 x86 cores plus ATi core gehen, Defekte sind egal, da (falls es einen der "SPUs" trifft) da man dann die SPU dann einfach abschaltet und den Chip dann in einem andren, niedriegeren Marktsegment losschlagen könnte. Voll funktionsfähig gibts dafür dann aber einen (sehr) guten Preis im HPC Lager.
Also ich sähe da im Moment nur Vorteile ... falls jmd. Nachteile sieht bitte melden
ciao
Alex
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Da AMD selbst ja schon Chipsätze mit HT Anbindung entwickelt hat denke ich nicht, dassNaja ... AMD muss den ATI Chip so oder so umdesignen z.B. von PCIe auf HT .. da kann man das Teil auch gleich einen K10 Northbridge Bus verpassen ...
sie da allzu große Schwierigkeiten haben werden.
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Also ich finde das Ganze geht zu sehr in die Richtung SOC.
Und die verkauften sich bisher nicht sooo toll.
Man verliert einfach die Unabhängigkeit der Komponenten, was den PC an sich wieder ins Absurde führt.
Und schon wären wir wieder bei Spielekonsolen angelangt.
lg
__tom
Und die verkauften sich bisher nicht sooo toll.
Man verliert einfach die Unabhängigkeit der Komponenten, was den PC an sich wieder ins Absurde führt.
Und schon wären wir wieder bei Spielekonsolen angelangt.
lg
__tom
rkinet
Grand Admiral Special
Auch ist das Design auf den Mobilbereich ausgerichtet. Da reichen sogar einmal PCIe 2.0 x8 (falls doch externe GPU) und 2-3 x1 als Leitungen.Ich glaube nicht, daß das einfach nur umbenannt wurde. Fusion sollte ja mit dem Bulldozer-CPU-Kern kommen, Swift enthält aber die K10-Derivate. Wahrscheinlich haben sie sich gedacht, wenn schon Barcelona (wie der K8 auch) ein Jahr Verspätung hatte, wird es Bulldozer auch haben, und so lange wollen sie wohl nicht warten, der Rest wäre ja da. So les ich jedenfalls den Satz unter der zweiten Folie.
AMD kann auch sich auf 2 Cores begrenzen und ggf. doch schon eDRAM als L3-Cache und LFB (Loval frame buffer) nehmen.
Der Sinn der Zusatz Baugruppe ähnlich einer SPE beim Cell ist aber dubios.
Vernünftiger wäre die Erweiterung der Fähigkeiten der GPU, sodaß freie Units auch andere Multimedia-Aufgaben übernehmen können. Ist eine externe GPU vorhanden (ATI-mobil will ja auch weiterhin noch Geld verdienen) dann wäre eine universelle GPU auf dem Swift-Chip noch für andere Aufgaben verwendbar.
Im Fall einer externen GPU könnte die ja deaktiviert werden, wenn das Notebook im IDLE ist.
Sinnvoll wäre auch eine Möglichkeit eine GPU z.B. per 32 Bit HTr 3.0 direkt auf dem Träger (vgl. XBOX 360) anzubringen. Die könnte schnellen LFB onDIE haben und sich die sonstigen Daten aus dem CPU-DRAM holen. Diese GPU müßte AMD dann nicht selbst fertigen.
Fusion könnte dann mehr als 2 Cores aufweisen, noch leistungsfähigere GPUs und Co-Funktionen und auf 32nm optimiert werden.
cpuoverload
Cadet
- Mitglied seit
- 07.12.2007
- Beiträge
- 20
- Renomée
- 0
Die Frage ist, für wen so ein Design überhaupt interessant wäre.
Richtige Gamer werden IMHO auch 2009+ noch auf diskrete Grafik setzen, da sie einfach immer viel GPU Power brauchen und auch die GraKa upgraden wollen.
Glaub nicht, dass diese GPUs in den CPU Kern integriert werden können, schon allein aus Gründen der Kühlung nicht.
Addiert doch mal die heutige Abwärme der CPU zzgl. guter GraKa, wer soll diese Verlustleistung auf einem einzigen Sockel abführen ?
Die 2009er GPUs werden sicher die heutige Leistung z.B. der nVidia 8800er mit deutlich weniger Abwärme erbringen, aber 2009 wird im Enthusiastenbereich ja auch wieder viel mehr GPU Leistung als heute der Standard sein.
Geld verdienen tut man mit stromsparenden & leistungsfähigen Bürorechnern und den Servern - da sind die großen Stückzahlen zu erzielen und die GPU ist dort bedeutungslos.
Die derzeitige Meldungsflut von AMD kommt mir daher eher so vor, als gelte es den Aktienkurs irgendwie zu stützen.
Richtige Gamer werden IMHO auch 2009+ noch auf diskrete Grafik setzen, da sie einfach immer viel GPU Power brauchen und auch die GraKa upgraden wollen.
Glaub nicht, dass diese GPUs in den CPU Kern integriert werden können, schon allein aus Gründen der Kühlung nicht.
Addiert doch mal die heutige Abwärme der CPU zzgl. guter GraKa, wer soll diese Verlustleistung auf einem einzigen Sockel abführen ?
Die 2009er GPUs werden sicher die heutige Leistung z.B. der nVidia 8800er mit deutlich weniger Abwärme erbringen, aber 2009 wird im Enthusiastenbereich ja auch wieder viel mehr GPU Leistung als heute der Standard sein.
Geld verdienen tut man mit stromsparenden & leistungsfähigen Bürorechnern und den Servern - da sind die großen Stückzahlen zu erzielen und die GPU ist dort bedeutungslos.
Die derzeitige Meldungsflut von AMD kommt mir daher eher so vor, als gelte es den Aktienkurs irgendwie zu stützen.
Ich lese die die Meldungen zu Fusion et al und ich habe dabei gemischte Gefühle....
Auf der einen Seite sehe ich die Vorteile, die sich durch die Ausführung von GPU-optimierten (sprich paralellisierten) Code auf dem GPU-Teil des Fusion bringt. Hier kann sich durchaus ein beträchtlicher Geschwindigkeitsgewinn ergeben.
Auf der anderen Seite sind eventuelle Vorteile die sich aus Onboardgrafik oder Hybrid-Crossfire bei der Verwendung des Fusion irrelevant, da ich (auf Grund vergangener Erfahrungen) Grafikkarten aus dem Hause Nvidia bevorzuge (gerne auch mit Hybrid-SLI).
Und solange es keinen Treiber gibt, welcher den (ATI-)GPU Anteil in einen SLI Verbund aufnimmt solange ist der Fusion, aus Grafiktechnischer Sicht, uninteressant. Und ich glaube nicht das es in diesem Leben einen solchen Treiber geben wird.
Aber ich hab Pferde auch schon kotzen sehen....
Schöne Grüße
Davidan
P.S. Ein Fusion mit Nvidia-Grafikkern das wär schön.......
Auf der einen Seite sehe ich die Vorteile, die sich durch die Ausführung von GPU-optimierten (sprich paralellisierten) Code auf dem GPU-Teil des Fusion bringt. Hier kann sich durchaus ein beträchtlicher Geschwindigkeitsgewinn ergeben.
Auf der anderen Seite sind eventuelle Vorteile die sich aus Onboardgrafik oder Hybrid-Crossfire bei der Verwendung des Fusion irrelevant, da ich (auf Grund vergangener Erfahrungen) Grafikkarten aus dem Hause Nvidia bevorzuge (gerne auch mit Hybrid-SLI).
Und solange es keinen Treiber gibt, welcher den (ATI-)GPU Anteil in einen SLI Verbund aufnimmt solange ist der Fusion, aus Grafiktechnischer Sicht, uninteressant. Und ich glaube nicht das es in diesem Leben einen solchen Treiber geben wird.
Aber ich hab Pferde auch schon kotzen sehen....
Schöne Grüße
Davidan
P.S. Ein Fusion mit Nvidia-Grafikkern das wär schön.......
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Ich sehe bei einer "2 Chip in einem Gehäuse" Lösung, bei der die GPU per HT link angebunden wird kein allso grosses Problem, da die Technik ja quasi schon existiert.
Wo steckt denn bislang die integrierte Grafik des Chipsatzes und wie ist dieser an die CPU angebunden? Das Teil steckt in dem Chip der direkt mit dem Prozessor über den HT Link verbunden ist. Separiert man nun die Grafikeinheit auf ein extra Stück Silizium und nutzt einen Dualcore Prozessor (steht ja auch auf der Folie) mit 2 HT Links, so kann man einen Link mit dem Grafikkern und einen für die Verbindung mit dem Chipsatz nutzen.
Platz genug sollte ja bei einer 45nm Fertigung ja vorhanden sein und ev. bappt man bei der Grafikeinheit noch EDRAM oder eine andere Speicherart als Framebuffer mit rauf.
Wo steckt denn bislang die integrierte Grafik des Chipsatzes und wie ist dieser an die CPU angebunden? Das Teil steckt in dem Chip der direkt mit dem Prozessor über den HT Link verbunden ist. Separiert man nun die Grafikeinheit auf ein extra Stück Silizium und nutzt einen Dualcore Prozessor (steht ja auch auf der Folie) mit 2 HT Links, so kann man einen Link mit dem Grafikkern und einen für die Verbindung mit dem Chipsatz nutzen.
Platz genug sollte ja bei einer 45nm Fertigung ja vorhanden sein und ev. bappt man bei der Grafikeinheit noch EDRAM oder eine andere Speicherart als Framebuffer mit rauf.
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Ich sehe die Zukunft des Fusion (oder wie auch immer es heißen mag) im Notebookbereich,Man verliert einfach die Unabhängigkeit der Komponenten, was den PC an sich wieder ins Absurde führt.
dort gab es ohnehin nie eine Unabhängigkeit der Komponenten.
Ansonsten ist das für Office Rechner in Firmen, wo man ja oftmals ohnehin auf Stable
Image Plattformen zurückgreifen will, interessant.
Klar, für Gamer spielt das Ding vermutlich keine Rolle.
Für Subnotebooks ist das eine sehr interessante Geschichte, auch wenn die Grafik obenDie Frage ist, für wen so ein Design überhaupt interessant wäre.
einen Swift auf basis des Phenom zeigt.
Niemand redet davon eine 8800GTX in die CPU zu integrieren...Glaub nicht, dass diese GPUs in den CPU Kern integriert werden können, schon allein aus Gründen der Kühlung nicht.
Addiert doch mal die heutige Abwärme der CPU zzgl. guter GraKa, wer soll diese Verlustleistung auf einem einzigen Sockel abführen ?
Nimm mal einen aktuellen IGP Chipsatz für Notebooks, der hat evtl. 10W TDP. Wenn man
den Dual Core Prozessor auf 25W bringen könnte (derzeitige haben 31W-35W), dann
sieht das doch durchaus realistisch aus.
Das Hauptaugenmerk liegt hier sicherlich nicht auf Spielerechnern!
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
ich glaube, der könnte schon heute fertig sein, wenn sie das abwärme-problem nicht hätten.
die cpu muss ja immerhin vergleichbar mit den bis dahin aktuellen cpu´s sein+eine halbwegs gescheite graka. und dafür wird wohl mind. 32nm benötigt.
mfg
die cpu muss ja immerhin vergleichbar mit den bis dahin aktuellen cpu´s sein+eine halbwegs gescheite graka. und dafür wird wohl mind. 32nm benötigt.
mfg
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
@Berniyh
So wie ich die Architektur verstanden habe ist es gerade für Spieler interessant. Die 3D Rechenleistung der integrierten GPU ist hier ziemlich irrelevant, da dies dann die externe Grafikkarte übernimmt und das Bild über die integrierte Grafik quasi nur ausgegeben wird.
Im 2D Modus wird dann die Grafikkarte deaktiviert und es arbeitet lediglich die integrierte Grafik weiter....mit entsprechenden Folgen beim Energiebedarf und der Wärmeentwicklung.
Wie das Ganze dann auf übertakteten Sytemen arbeitet ist dann die Frage aber die sind aufgrund des nichteinhaltens irgendwelcher Spezifikationen ohnehin aussen vor.
@foenfrisur
Ich halte es ebenfalls bei den heutigen 65nm Produkten für möglich, allerdings bestehen dabei min. 2 Probleme.
1. Aufgrund der Grafikausgabe muss ein neuer Sockel her
2. Man brauch eine neue Northbridge auf dem Mainboard
So wie ich die Architektur verstanden habe ist es gerade für Spieler interessant. Die 3D Rechenleistung der integrierten GPU ist hier ziemlich irrelevant, da dies dann die externe Grafikkarte übernimmt und das Bild über die integrierte Grafik quasi nur ausgegeben wird.
Im 2D Modus wird dann die Grafikkarte deaktiviert und es arbeitet lediglich die integrierte Grafik weiter....mit entsprechenden Folgen beim Energiebedarf und der Wärmeentwicklung.
Wie das Ganze dann auf übertakteten Sytemen arbeitet ist dann die Frage aber die sind aufgrund des nichteinhaltens irgendwelcher Spezifikationen ohnehin aussen vor.
@foenfrisur
Ich halte es ebenfalls bei den heutigen 65nm Produkten für möglich, allerdings bestehen dabei min. 2 Probleme.
1. Aufgrund der Grafikausgabe muss ein neuer Sockel her
2. Man brauch eine neue Northbridge auf dem Mainboard
Zuletzt bearbeitet:
Markus Everson
Grand Admiral Special
cpuoverload schrieb:Die Frage ist, für wen so ein Design überhaupt interessant wäre.
Die Antwort lautet: für die Hersteller von Motherboards und Laptops die bisher IGP verwendet haben.
Richtige Gamer werden [...]
Gamer sind erstmal Kunden und Kunden kaufen keine Designs (angefaultes Fallobst mit Goldkante und Designeraufschlag mal außen vor) sondern Leistungen. HomePCs mit IGP existieren. Laptops mit IGP existieren. FirmenPCs mit IGP existieren. Embedded Geräte mit IGP existieren. Gamer sind - entgegen deren eigener Vermutung - NICHT der Mittelpunkt des Universums und auch Leistungen die einem Gamer nicht einmal ein müdes Lächeln entlocken würden können anderswo noch _massenweise_ Käufer finden.
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Ja, im oberen Bild steht was von "High-End Grafikkarte", aber das glaube ich nicht so recht.@Berniyh
So wie ich die Architektur verstanden habe ist es gerade für Spieler interessant. Die 3D Rechenleistung der integrierten GPU ist hier ziemlich irrelevant, da dies dann die externe Grafikkarte übernimmt und das Bild über die integrierte Grafik quasi nur ausgegeben wird.
Im 2D Modus wird dann die Grafikkarte deaktiviert und es arbeitet lediglich die integrierte Grafik weiter....mit entsprechenden Folgen beim Energiebedarf und der Wärmeentwicklung
Ich seh den Anwendungszweck des Fusion eher, wie ich schon schrieb in Systemen, die
bisher immer auf IGP setzten.
Ob man das dann per Hybrid Crossfire als Spiele kombinieren möchte, um auch noch eine
gute Grafikleistung zu erzielen... möglich wäre es zumindest.
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Na ja, das mit dem Highend würde ich vorsichtig betrachten, denn dort steht lediglich das es auf einer existierenden Highendgrafik basiert....ein recht schwammige Marketingformulierung.
Von welcher Grafikchiparchitektur stammt noch gleich die x1250 Grafik des AMD 690G Chipsatzes ab?
Von welcher Grafikchiparchitektur stammt noch gleich die x1250 Grafik des AMD 690G Chipsatzes ab?
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Ja Notebooks sind ein geeignetes Einsatzgebiet dafür.Ich sehe die Zukunft des Fusion (oder wie auch immer es heißen mag) im Notebookbereich,
dort gab es ohnehin nie eine Unabhängigkeit der Komponenten.
Ansonsten ist das für Office Rechner in Firmen, wo man ja oftmals ohnehin auf Stable
Image Plattformen zurückgreifen will, interessant.
Klar, für Gamer spielt das Ding vermutlich keine Rolle.
Firmenrechner jein. Kommt halt darauf an was die Firma möchte.
lg
__tom
Peet007
Admiral Special
Mensch, habt doch auch mal Visionen.
Wenn man irgendwann einen richtigen Table-PC hat in der größe A5.
Und der Leistung eines heutigen X2 mit 3D Desk.
Was manche hier so schreiben, da würden wir immer noch auf´n Baum sitzen.
Wenn man irgendwann einen richtigen Table-PC hat in der größe A5.
Und der Leistung eines heutigen X2 mit 3D Desk.
Was manche hier so schreiben, da würden wir immer noch auf´n Baum sitzen.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
AMD hat in den letzten Jahren so viele "Visionen" vorgestellt, was jedoch in der Praxis bislang kaum zu sehen war.Mensch, habt doch auch mal Visionen.
Wenn man irgendwann einen richtigen Table-PC hat in der größe A5.
Und der Leistung eines heutigen X2 mit 3D Desk.
Was manche hier so schreiben, da würden wir immer noch auf´n Baum sitzen.
Ein in der Latenz verschlechterter K8 im G-Stepping ist nicht wirklich zum Furcht einflössen gegenüber Intel ... und Nvidia muss ziemlich erleichtert über den Start des ATI R600 gewesen sein (zu spät, zu langsam, zu heiss, zu teuer in der Herstellung der Karten).
Aggressive Vermarktung der RV610/RV630 und RV670 zu kleinen Preisen zusammen mit modernen Features und die Chipsätze zeigen ja, dass es auch anders gehen kann ... aber wohl erst dann, wenn das Verbraucherecho zurückschlägt ...
MFG Bobo(2007)
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Laptoplogic redet hier übrigens explizit von Notebooks:
http://www.laptoplogic.com/news/detail.php?id=3978
Ich bin mal gespannt, ob AMD evtl. statt "nur" CPU oder GPU in Zukunft auch andere, evtl.
deutlich spezialisierte Einheiten in eine APU packt. Möglichkeiten gibt es da ja einige, zum
Beispiel eine Physikeinheit ("PPU"? ).
http://www.laptoplogic.com/news/detail.php?id=3978
Ich bin mal gespannt, ob AMD evtl. statt "nur" CPU oder GPU in Zukunft auch andere, evtl.
deutlich spezialisierte Einheiten in eine APU packt. Möglichkeiten gibt es da ja einige, zum
Beispiel eine Physikeinheit ("PPU"? ).
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 384
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 560