App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
GPUs dank HBM Speicher bald mit Sockel?
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Dank des Einsatzes von HBM-Speicher direkt auf auf dem Interposer sind heutige/zukunftige Grafikkarten sehr kompakt herstellbar. Die meisten Bauteile auf dem eigentlichen Grafikboard sind nur noch für die Spannnungsversorgung und die Anbindung des PCIe und der Monitor-Ausgänge. Gerade letztgenannte werden aber dank der integrierten GPUs in APUs aber auch schon auf den meisten Boards verbaut und mit AM4 sind diese für alle zukünftigen AMD-Boards vorgesehen.
Wäre es nicht langsam an der Zeit, dass GPUs auch einen Sockel tragen und direkt auf dem Mainboard eingesetzt werden? Wie ist eure Meinung dazu, werden wir sowas in absehbarer Zeit sehen (vielleicht zuerst für HPC-Anwendungen)? Spricht irgendwas gravierend gegen diese Idee?
Wäre es nicht langsam an der Zeit, dass GPUs auch einen Sockel tragen und direkt auf dem Mainboard eingesetzt werden? Wie ist eure Meinung dazu, werden wir sowas in absehbarer Zeit sehen (vielleicht zuerst für HPC-Anwendungen)? Spricht irgendwas gravierend gegen diese Idee?
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.420
- Renomée
- 1.998
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Daran glaube ich vor allem im Desktop Bereich nicht so recht denn dafür müßte der Sockel aufgrund des Strombedarfs und der dafür nötigen Stromversorgungspins zu gross ausfallen. Im Mobilen Bereich kostet es wiederum zu viel Bauhöhe was beim Trend zu immer dünneren Laptops wiederum mehr als hinderlich ist.
Möglich wäre es aber durchaus allerdings dann eher als Nieschenprodukt in Form einer CPU-GPU Kombi wie den APUs.
Möglich wäre es aber durchaus allerdings dann eher als Nieschenprodukt in Form einer CPU-GPU Kombi wie den APUs.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ja. Die Kosten und der Formfaktor der mehr Platz benötigt. Notebooks und AiO kommen dafür sowieso nicht in Frage und die Desktop-GPU OEMs werden darin keinen Mehrwert sehen dann so wie Mainboardhersteller Sockelkompatibilität für weitere Generationen zu pflegen. Das fest auflöten garantiert mehr Umsatz beim GPU-Wechsel als man dann mit einem gesockelten Chip verdienen kann den man in sein altes GPU-Board steckt.Spricht irgendwas gravierend gegen diese Idee?
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.420
- Renomée
- 1.998
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Hinzu kommt ja auch das man bei der Stromversorgung der GPUs viel Spielraum hat. Will man das mit berücksichtigen müßte man sie entsprechend überdimensionieren um möglichst vielen gerecht zu werden was wiederum auf Kosten der Effizienz und des Preises geht. Eine gesockelte CPU kann man ja noch mit der großen Auswahl an Anschlussmöglichkeiten bei dessen zentraler Rolle rechtfertigen aber eine gesockelte GPU?
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Und es gibt (noch) mehr als nur einen GPU Hersteller, wobei garantiert kein einheitlicher Sockel möglich wäre. Das wäre alles unflexibel.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Gabs doch schon mal mit MXM
http://www.idealo.de/preisvergleich/Liste/7708961I-1-30/mxm-grafikkarte.html
http://www.idealo.de/preisvergleich/Liste/7708961I-1-30/mxm-grafikkarte.html
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Interessant wird es dadurch, dass außer der Spannungsversorgung und dem Sockel ja nichts zusätzlich auf dem Board benötigt würde. Für den Einsatz in nicht-AMD-Systemen kann man ja einfache PCIe-Karten vorsehen, die nicht die Leitungen durchschleifen, so wie jetzt M2-PCIe-Adapter.
Vor allem wenn man mal an AMDs Torrenza zurück denkt, würde das als HPC-Beschleuniger durchaus Sinn machen. nVidia bringt mit NV Link ja auch eine proprietäre High-Speed-Verbindung.
MXM bringt ja schon wieder viel zu viel mit, das wird mit HBM ja fast alles auf dem Chip-Package verbaut.
Vor allem wenn man mal an AMDs Torrenza zurück denkt, würde das als HPC-Beschleuniger durchaus Sinn machen. nVidia bringt mit NV Link ja auch eine proprietäre High-Speed-Verbindung.
MXM bringt ja schon wieder viel zu viel mit, das wird mit HBM ja fast alles auf dem Chip-Package verbaut.
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.299
- Renomée
- 1.889
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Der Strom muß ja auch jetzt schon durch die Lötverbindungen in die GPU rein. Der zusätzliche Mehrbedarf durch den Speicher sollte überschaubar sein.Daran glaube ich vor allem im Desktop Bereich nicht so recht denn dafür müßte der Sockel aufgrund des Strombedarfs und der dafür nötigen Stromversorgungspins zu gross ausfallen.
Ich sehe eher die große Bandbreite des Strombedarfs als Problem. CPUs für Desktop-Systeme innerhalb eines Sockels bewegen sich z.B. zwischen 35...100W (intel), bzw. 95..125W oder 45...95W (AMD). Bei GPUs geht das locker von 50...250W. Jemand, der nur eine kleine GPU braucht, muß also die Stromversorgung für die fetten Karten mitkaufen. Gleiches Spiel bei der Kühlung. Es müßte der Platz für einen 250W-Kühler vorgesehen werden.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Im Prinzip gibt es das ja schon als COM (Computer on Modue) mit AMD APU-Hardware:
http://www.congatec.com/de/industri...gatec-advancing-next-gen-medical-devices.html
http://www.congatec.com/de/industri...gatec-advancing-next-gen-medical-devices.html
With the introduction of the SoC version of its G-Series processors, AMD has set a new milestone in the integration of x86 processor technology. Designed for embedded applications, they offer long-term availability of five plus two years. Users benefit from high graphics performance and open programmability in a small footprint. congatec has integrated these processors on Computer-on-Modules (COMs) in a move to round off the company’s range of high-graphics, low-power modules for compact form factors.
Wäre nicht auch eine Grafikkarte mit Sockel sinnvoll?
So könnten die Leute, die sich jedes Jahr eine neue Graka kaufen, sich einmal die Platine kaufen und einfach jedes Mal eine neue GPU + eventuell größerem Kühler besorgen.
Die Spannungsversorgung müsste natürlich dann passen und solange kein neuer Standard wie etwas PCIe 4.0/HDMI/DP anstehen, kann man das "Board" über mehrere Jahre verwenden.
Das sollte die Kosten doch deutlich senken.
So könnten die Leute, die sich jedes Jahr eine neue Graka kaufen, sich einmal die Platine kaufen und einfach jedes Mal eine neue GPU + eventuell größerem Kühler besorgen.
Die Spannungsversorgung müsste natürlich dann passen und solange kein neuer Standard wie etwas PCIe 4.0/HDMI/DP anstehen, kann man das "Board" über mehrere Jahre verwenden.
Das sollte die Kosten doch deutlich senken.
Marius87
Fleet Captain Special
- Mitglied seit
- 08.04.2015
- Beiträge
- 294
- Renomée
- 14
- Standort
- Siegen
- Mein Laptop
- HP 15 (AMD A6-7310, Full-HD IPS matt, 8GB DDR3-1600, 500GB SSHD)
- Prozessor
- AMD FX-6300@4GHz (vorher Phenom II 965BE@3,8GHz, Athlon II X4 640@3,6GHz)
- Mainboard
- ASRock 970 Extreme4
- Kühlung
- GELID Tranquillo Rev. 2
- Speicher
- 8GB Corsair CMX8GX3M2A1600C9
- Grafikprozessor
- AMD Radeon R9 280X
- Display
- Samsung SyncMaster 2433BW
- Webbrowser
- Cyberfox AMD64
Wäre es nicht langsam an der Zeit, dass GPUs auch einen Sockel tragen und direkt auf dem Mainboard eingesetzt werden? Wie ist eure Meinung dazu, werden wir sowas in absehbarer Zeit sehen (vielleicht zuerst für HPC-Anwendungen)? Spricht irgendwas gravierend gegen diese Idee?
Intel scheint genau das mit den neuen Xeon Phi “Knights Landing” vor zu haben:
http://vrworld.com/2015/11/17/intel-moves-to-attack-nvidia-quadro-amd-firepro-market/ schrieb:Thus, this is not a PCIe, discrete product which most news organizations are showing pictures of, this is a computer equipped with two sockets – one will feature Xeon Phi chip, while the other socket will probably be a single Xeon E3 that provides the display output (KNL does not support display outputs).
Wenn das Konzept vom Markt angenommen wird, wird AMD sicherlich mit HBM Firepro Chips nachziehen, im Consumerbereich jedoch wohl eher nicht, man möchte es sich ja mit den Grafikkarten-OEMs nicht total versauen und ja auch weiterhin als Steckkarte auf Intel Boards Verwendung finden können...
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Nur ist Xeon Phi ja keine GPU. Es sind x86 Einheiten in Silvermont Kernen.
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.299
- Renomée
- 1.889
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Wie stellst Du Dir das vor?Wäre nicht auch eine Grafikkarte mit Sockel sinnvoll?
So könnten die Leute, die sich jedes Jahr eine neue Graka kaufen, sich einmal die Platine kaufen und einfach jedes Mal eine neue GPU + eventuell größerem Kühler besorgen.
Die Spannungsversorgung müsste natürlich dann passen und solange kein neuer Standard wie etwas PCIe 4.0/HDMI/DP anstehen, kann man das "Board" über mehrere Jahre verwenden.
Das sollte die Kosten doch deutlich senken.
Eine leere Grafikkarte, die quasi nur die Stromversorgung bereitstellt und dort setzt man dann die GPU rein?
Erscheint mir zu komplex, dann müssen ja Mainboard, Grafikboard und GPU jeweils immer schön miteinander können, was ja heute bereits schon manchmal bei Mainboard+Grafikkarte scheitert.
Außerdem verlängert das ja eher die Signalwege und das dürfte nicht gewünscht sein.
Marius87
Fleet Captain Special
- Mitglied seit
- 08.04.2015
- Beiträge
- 294
- Renomée
- 14
- Standort
- Siegen
- Mein Laptop
- HP 15 (AMD A6-7310, Full-HD IPS matt, 8GB DDR3-1600, 500GB SSHD)
- Prozessor
- AMD FX-6300@4GHz (vorher Phenom II 965BE@3,8GHz, Athlon II X4 640@3,6GHz)
- Mainboard
- ASRock 970 Extreme4
- Kühlung
- GELID Tranquillo Rev. 2
- Speicher
- 8GB Corsair CMX8GX3M2A1600C9
- Grafikprozessor
- AMD Radeon R9 280X
- Display
- Samsung SyncMaster 2433BW
- Webbrowser
- Cyberfox AMD64
Nur ist Xeon Phi ja keine GPU. Es sind x86 Einheiten in Silvermont Kernen.
Autsch, ja, dachte immer, ohne mich näher mit den Phis beschäftigt zu haben, dass sie als PCIe Karte selbstverständlich GPUs für parallele Berechnungen sind, getreu dem Motto: Bestimmt irgendwas auf Basis der Iris GPU-Architektur... Trotzdem könnte man das Dual Socket Konzept sehr gut mit nem Zen Opteron und nem AMD HBM Firepro Chip übernehmen...
Edit: Naja, letztlich ist eine Phi ja auch tatsächlich eine GPU, nur eben auf Basis von x86-Kernen!
Zuletzt bearbeitet:
Naja, Larabee war mal als GPU geplant, aber da hat Intel den Aufwand unter- bzw. seine Fähigkeiten überschätzt. Zumindest scheint sich der Aufwand nun in Form der aktuellen Knights einigermaßen auszuzahlen (waren ja nur ein paar Milliarden Entwicklungskosten).
Bezüglich des Sockelns von GPUs wäre ich insofern skeptisch, als Sockel momentan tendentiell Mangelware werden. Bei Notebooks muss man die aktuell dank Intels Ultrabook-Strategie schon mit der Lupe suchen. Im "Desktop_bereich" (Also da wo man einen Monitor an eine Kiste anschließt) machen die kleinen NUC-artigen Geräte den Sockeln zunehmend den Garaus.
Einzig, wie schon erwähnt, im Serverbereich sind Sockel noch envogue. Dank der APUs (da kommen ja eh Zens mit dicker GPU) wird AMD allerdings sowieso mit den APUs eine Kombination aus Serieller und Paralleler Leistung haben. Intel macht das halt momentan noch getrennt. Ich denke die nächsten Knights werden auch serielle Kerne mitbringen.
Wenn ich AMD wäre würde ich mich aber mit den APUs mehr auf Beschleunigerkarten konzentrieren, damit man bestehende Server umrüsten kann. Ich hatte eigentlich schon für Kaveri mit Testballons in Form von PCI-Express-Karten gerechnet.
Bezüglich des Sockelns von GPUs wäre ich insofern skeptisch, als Sockel momentan tendentiell Mangelware werden. Bei Notebooks muss man die aktuell dank Intels Ultrabook-Strategie schon mit der Lupe suchen. Im "Desktop_bereich" (Also da wo man einen Monitor an eine Kiste anschließt) machen die kleinen NUC-artigen Geräte den Sockeln zunehmend den Garaus.
Einzig, wie schon erwähnt, im Serverbereich sind Sockel noch envogue. Dank der APUs (da kommen ja eh Zens mit dicker GPU) wird AMD allerdings sowieso mit den APUs eine Kombination aus Serieller und Paralleler Leistung haben. Intel macht das halt momentan noch getrennt. Ich denke die nächsten Knights werden auch serielle Kerne mitbringen.
Wenn ich AMD wäre würde ich mich aber mit den APUs mehr auf Beschleunigerkarten konzentrieren, damit man bestehende Server umrüsten kann. Ich hatte eigentlich schon für Kaveri mit Testballons in Form von PCI-Express-Karten gerechnet.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Xeon Phi stellt AVX Instruktionen bereit für parallelen Workload. Das ist kein GPU Code. Zudem können sie kein Bild ausgeben.Edit: Naja, letztlich ist eine Phi ja auch tatsächlich eine GPU, nur eben auf Basis von x86-Kernen!
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.299
- Renomée
- 1.889
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Das müssen sie doch auch nicht. Eine GPU kann schließlich auch zusätzlich zur normalen Grafikkarte zum Einsatz kommen und diese nur bei der Berechnung der Bilder unterstützen. Bei SLI/Xfire gibt ja auch nur eine der Karten das Bild aus.Zudem können sie kein Bild ausgeben.
Xeon Phi stellt AVX Instruktionen bereit für parallelen Workload. Das ist kein GPU Code. Zudem können sie kein Bild ausgeben.
Hat Phi Funktionen zur Kontrolle der Koheränz?
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ja das kann sie - nennt man aber alles, das auch als Co-Processor dient deshalb ebenfalls eine GPU? Die Logik ist nicht schlüssig in diesem Argument. Der Phi ist keine GPU. Er kann keinen GPU-Code ausführen sondern x86 Code.Das müssen sie doch auch nicht. Eine GPU kann schließlich auch zusätzlich zur normalen Grafikkarte zum Einsatz kommen und diese nur bei der Berechnung der Bilder unterstützen. Bei SLI/Xfire gibt ja auch nur eine der Karten das Bild aus.
http://www.nextplatform.com/2015/08/28/intel-stacks-knights-landing-chips-next-to-xeons/
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.299
- Renomée
- 1.889
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Mir ging es lediglich darum, das Argument mit der Bildausgabe zu entkräften.Ja das kann sie - nennt man aber alles, das auch als Co-Processor dient deshalb ebenfalls eine GPU? Die Logik ist nicht schlüssig in diesem Argument. Der Phi ist keine GPU. Er kann keinen GPU-Code ausführen sondern x86 Code.
Beim Rest gebe ich Dir Recht - wenn nichts grafisches berechnet wird, dann kann man es schwer GPU nennen.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Auch hier ist es ein Unterschied ob eine GPU in einer Konfiguration kein Bild ausgeben MUSS oder ob der Chip es schlicht nicht KANN.
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.299
- Renomée
- 1.889
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Aha. Diese Frage stellte sich mir in dem Zusammenhang gar nicht erst.
Opteron
Redaktion
☆☆☆☆☆☆
Die Sache mit dem GPU-Sockel treibt mich um, seit die Sache mit AMDs neuem Interconnect GMI in der Welt ist. Das heißt, dass AMD ins alte Fahrwasser aus Hypertransportzeiten zurückkehrt, also mehrere Sockel (oder Dies) verbunden über einen leistungsfähigen Interconnect.
Die Preisfrage die sich stellt ist die, wie "stark" AM4 wird. Wird das eine Art Sockel C32-Nachfolger, werden also Pins für den 2P-Betrieb bereit gestellt oder nicht?
Heutzutage ist es kein Problem die Beschaltung von Pins umzuschalten, eine 1P-Version des AM4 könnte damit z.B. ~40 PCIe-Lanes direkt anschließen. Es wäre nicht wie in alten Zeiten, wo 2-3 Hypertransportanschlüsse auf dem Die nutzlos brach liegen, da nur einer für die Anbindung des Chipsatzes genutzt wird.
Die GPUs werden das gleiche Interfaces bekommen, also ebenfalls zw. PCIe und GMI umschaltbar sein, um APUs in einem Gehäuse aus 2 Dies zu ermöglichen.
Gäbe es jetzt eine GPU im AM4-Gehäuse könnte man diese in ein 2P-Brett stecken. Grafiksignale sind in der AM4-Spezifiatkion wegen den APUs sowieso vorgesehen.
Als Bonus gäbs noch die Möglichkeit, dass GPU und CPU nicht über PCIe sonder dann über GMI kommunizieren könnten. Das gäbe eventuell Latenzvorteile - in der Gamerfraktion gehts ja um jede Nanosekunde.
Hauptnachteil ist wie schon erwähnt wurde die Stromversorgung. Das Mainboard müsste dann die Spannungswandler für ~300W bereitstellen.
Dass Riesenproblem ist es aber auch nicht. Schon immer gabs Boards mit unterschiedlichen Spannungswandlern. Billigboards hatten oft ein Maximum bei 95W, was das ein oder andre Upgrade erschwerte und am Ende war der Sockel AM3+ plötzlich gut für 220W. Mit OC knackte der ein oder andre wohl auch schon die 300W Marke, von daher würde ich behaupten wollen, dass es kein Hindernis wäre.
Die Kühlung wäre dagegen aus meiner Sicht überhaupt kein Problem. Ein dicker Turm-Kühler kühlt Welten besser als irgend ein flacher Grafikkühler, da er eine deutlich größere Oberfläche zur Verfügung stellt. Außerdem wird man bei 300W sowieso auf Wasserkühlung setzen, was durch die Standardhalterung - Dank AM4-Sockel - auch einfach wäre, da man keine Sonderanfertigung benötigte.
Das Ganze steht und fällt wie besagt mit der Beschaltung des Sockels ohne viele Pins/Lanes wird das nichts. Als Indiz konnte bisher nur der Namen herhalten, anstatt FM3 heißt der neue ja jetzt AM4, aber bei AMD weiss man nie, möglicherweise hat man nur aus Marketinggründen den Namen geändert.
Ein weiteres aktuelles Indiz ist aber der Launch auf Ende 2016. Früher hieß es, dass die neue Plattform Anfang 2016 mit Bristol Ridge gestartet werden würde, jetzt gab es die Aussage, das man zusammen mit Zen erst Ende 16 starten will. Eine Erklärung könnte sein, dass FM3 wirklich eingestampft wurde und ein würdiger AM-Nachfolger mit vielen Lanes kommt. Allerdings gibts auch die triviale Erklärung, dass einfach nur irgendwas schief lief...
Immerhin, bisher spricht zumindest auch nichts dagegen, hoffen kann mal also noch.
Die Preisfrage die sich stellt ist die, wie "stark" AM4 wird. Wird das eine Art Sockel C32-Nachfolger, werden also Pins für den 2P-Betrieb bereit gestellt oder nicht?
Heutzutage ist es kein Problem die Beschaltung von Pins umzuschalten, eine 1P-Version des AM4 könnte damit z.B. ~40 PCIe-Lanes direkt anschließen. Es wäre nicht wie in alten Zeiten, wo 2-3 Hypertransportanschlüsse auf dem Die nutzlos brach liegen, da nur einer für die Anbindung des Chipsatzes genutzt wird.
Die GPUs werden das gleiche Interfaces bekommen, also ebenfalls zw. PCIe und GMI umschaltbar sein, um APUs in einem Gehäuse aus 2 Dies zu ermöglichen.
Gäbe es jetzt eine GPU im AM4-Gehäuse könnte man diese in ein 2P-Brett stecken. Grafiksignale sind in der AM4-Spezifiatkion wegen den APUs sowieso vorgesehen.
Als Bonus gäbs noch die Möglichkeit, dass GPU und CPU nicht über PCIe sonder dann über GMI kommunizieren könnten. Das gäbe eventuell Latenzvorteile - in der Gamerfraktion gehts ja um jede Nanosekunde.
Hauptnachteil ist wie schon erwähnt wurde die Stromversorgung. Das Mainboard müsste dann die Spannungswandler für ~300W bereitstellen.
Dass Riesenproblem ist es aber auch nicht. Schon immer gabs Boards mit unterschiedlichen Spannungswandlern. Billigboards hatten oft ein Maximum bei 95W, was das ein oder andre Upgrade erschwerte und am Ende war der Sockel AM3+ plötzlich gut für 220W. Mit OC knackte der ein oder andre wohl auch schon die 300W Marke, von daher würde ich behaupten wollen, dass es kein Hindernis wäre.
Die Kühlung wäre dagegen aus meiner Sicht überhaupt kein Problem. Ein dicker Turm-Kühler kühlt Welten besser als irgend ein flacher Grafikkühler, da er eine deutlich größere Oberfläche zur Verfügung stellt. Außerdem wird man bei 300W sowieso auf Wasserkühlung setzen, was durch die Standardhalterung - Dank AM4-Sockel - auch einfach wäre, da man keine Sonderanfertigung benötigte.
Das Ganze steht und fällt wie besagt mit der Beschaltung des Sockels ohne viele Pins/Lanes wird das nichts. Als Indiz konnte bisher nur der Namen herhalten, anstatt FM3 heißt der neue ja jetzt AM4, aber bei AMD weiss man nie, möglicherweise hat man nur aus Marketinggründen den Namen geändert.
Ein weiteres aktuelles Indiz ist aber der Launch auf Ende 2016. Früher hieß es, dass die neue Plattform Anfang 2016 mit Bristol Ridge gestartet werden würde, jetzt gab es die Aussage, das man zusammen mit Zen erst Ende 16 starten will. Eine Erklärung könnte sein, dass FM3 wirklich eingestampft wurde und ein würdiger AM-Nachfolger mit vielen Lanes kommt. Allerdings gibts auch die triviale Erklärung, dass einfach nur irgendwas schief lief...
Immerhin, bisher spricht zumindest auch nichts dagegen, hoffen kann mal also noch.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Die Verschiebung von Bristol Ridge kann tatsächlich einfach nur auf das Preisniveau des RAMs zurückzuführen sein. Wenn die OEMs momentan noch billiger an DDR3 als an DDR4 kommen (ungeachtet der Geschwindigkeit), dann würde Bristol Ridge wie Blei in den Regalen liegen. Wenn dann beides gleich teuer ist, ist es egal, dann kann man noch aus Marketinggründen warten. Erst sobald DDR4 minimal billiger wird, muß unbedingt gewechselt werden. Durch Carrizo im Gewand Bristol Ridge hat sich AMD diese Möglichkeit offen gehalten, denn es hätte ja jetzt schon so weit gewesen sein können, dann hätte man den Sockel jetzt gleich launchen müssen und eben auch können.
Bei Geizhals fangen 8 GB DDR bei 67 € an, DDR4 gibt es ab 73 €. Im B2B-Bereich sind die Preise sicherlich ganz anders, aber der Abstand dürfte ähnlich sein. Für diese 6 € Unterschied bei einem ganzen PC würden OEMs morden.
Bei Geizhals fangen 8 GB DDR bei 67 € an, DDR4 gibt es ab 73 €. Im B2B-Bereich sind die Preise sicherlich ganz anders, aber der Abstand dürfte ähnlich sein. Für diese 6 € Unterschied bei einem ganzen PC würden OEMs morden.
Ähnliche Themen
- Antworten
- 105
- Aufrufe
- 25K
- Antworten
- 8
- Aufrufe
- 23K
- Antworten
- 2
- Aufrufe
- 6K
- Antworten
- 0
- Aufrufe
- 36K