App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Kaveri - der Trinity Nachfolger
- Ersteller FredD
- Erstellt am
AMD hat ihre Developer Summit von Juni auf November verschoben. Könnte sein, dass dort dann erstmals Kaveri gezeigt wird. Würde dann ja mit dem Launch Ende 2013 zusammen passen.
http://blogs.amd.com/developer/2013/02/05/amd-2013-developer-summit/
http://blogs.amd.com/developer/2013/02/05/amd-2013-developer-summit/
...
Ich glaube nicht, dass das technische "Probleme" sind, die werden die vorhandenen noch knappen Kapazitäten für die Konsolen einfach brauchen. Die müssen ja auch irgendwo vom Band laufen und das sind recht große Mengen. Die werden ja auch durch AMD gefertigt, weil AMD die x86-Lizenz nicht einfach abgeben kann. MS und Sony müssen die AMD-Chips dieses Mal kaufen, anders gehts nicht. Bei TSMC wird AMD dafür keine Kontingente bekommen, zudem sind es evtl. BD-Derivate (zumindest bei Sony), das geht also nur bei GloFo.
Ich frage mich in wie weit das ein Problem für die beiden darstellt. Microsoft hat ja die Prozessoren bei IBM entwickeln lassen und bei IBM (East Fishkill, New York) und Chartered (in Singapur) herstellen lassen. Chartered wurde in GloFlo eingegliedert. Außerdem arbeitet MS schon seit Jahren mit AMD zusammen.
Sony hat Zusammen mit Toshiba und IBM den Cell Prozessor (unter Leitung von IBM) entwickelt und dieser wird soweit wie ich weiss von IBM in East Fishkill, New York, hergestellt.
An sich müsste sich für beide nicht viel ändern, weil bisher Hauptentwicklung und Produktion von anderen übernommen wurde. Ich bezweifel auch mal dass beide eine große Entwicklungs- oder Produktionskapazitäten aufbauen wollen. Zumal die bisherigen jeweils ca 70 -80 Mio. verbauten Konsolen zuwenig dafür sind.
http://www.golem.de/0510/41222.html
http://www.heise.de/newsticker/meldung/ISSCC-IBM-und-Sony-praesentieren-Cell-Prozessor-132971.html
http://www.heise.de/newsticker/meldung/Sony-intensiviert-Chip-Kooperation-mit-IBM-und-Toshiba-57842.html
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
AMD hat ihre Developer Summit von Juni auf November verschoben. Könnte sein, dass dort dann erstmals Kaveri gezeigt wird. Würde dann ja mit dem Launch Ende 2013 zusammen passen.
http://blogs.amd.com/developer/2013/02/05/amd-2013-developer-summit/
was bedeuten würde, dass sie noch keine "präsentierfähige" Samples haben.
LoRDxRaVeN
Grand Admiral Special
- Mitglied seit
- 20.01.2009
- Beiträge
- 4.169
- Renomée
- 64
- Standort
- Oberösterreich - Studium in Wien
- Mein Laptop
- Lenovo Thinkpad Edge 11
- Prozessor
- Phenom II X4 955 C3
- Mainboard
- Gigabyte GA-MA790X-DS4
- Kühlung
- Xigmatek Thor's Hammer + Enermax Twister Lüfter
- Speicher
- 4 x 1GB DDR2-800 Samsung
- Grafikprozessor
- Sapphire HD4870 512MB mit Referenzkühler
- Display
- 22'' Samung SyncMaster 2233BW 1680x1050
- HDD
- Hitachi Deskstar 250GB, Western Digital Caviar Green EADS 1TB
- Optisches Laufwerk
- Plextor PX-130A, Plextor Px-716SA
- Soundkarte
- onboard
- Gehäuse
- Aspire
- Netzteil
- Enermax PRO82+ II 425W ATX 2.3
- Betriebssystem
- Windows 7 Professional Studentenversion
- Webbrowser
- Firefox siebenunddreißigsttausend
- Schau Dir das System auf sysprofile.de an
Hmm, stimmt, das klingt eigentlich schlüssig und somit eher schlecht als gut...
Opteron
Redaktion
☆☆☆☆☆☆
Hmm, stimmt, das klingt eigentlich schlüssig und somit eher schlecht als gut...
Wieso? Kaveri wurde für Ende des Jahres angekündigt, passt doch. Je näher die Softwareveranstaltung am Hardwareverkaufsstart ist, desto besser, können die Entwickler dann gleich ausprobieren und loslegen. Allen irgendwelche Prototypen zu geben, ginge wohl nur schwer.
Wieso? Kaveri wurde für Ende des Jahres angekündigt, passt doch. Je näher die Softwareveranstaltung am Hardwareverkaufsstart ist, desto besser, können die Entwickler dann gleich ausprobieren und loslegen. Allen irgendwelche Prototypen zu geben, ginge wohl nur schwer.
Das sagt nichts über den aktuellen Zustand aus.
Opteron
Redaktion
☆☆☆☆☆☆
Hardware ist sowieso zweitrangig, wichtig ist, dass die Software funktioniert. Intern werden die Jugns schon an Prototypen sitzen.Das sagt nichts über den aktuellen Zustand aus.
mariahellwig
Grand Admiral Special
Ob sich eine Software-API durchsetzt oder nicht hängt meiner Erfahrung nach von 3 Faktoren ab:
1. Die API muss einfach zu Handhaben und Zweckmäßig sein.
2. Gute Dokumentation und Tools.
3. Es muss ein Return of Investment da sein. Bedeutet, Aufwand und Nutzen müssen in einem vernünftigen Verhältnis stehen.
Aktuell ist der Nutzen nur in wenigen Anwendungsfällen vorhanden. Eine OpenCL Anwendung die GPU-Unterstützt ist nur geringfügig schneller als wenn der Code direkt auf der CPU ausgeführt wird. Oder durch Limitierungen müssen Qualitätseinbußen hingenommen werden.
Ich hatte das Bild schon mal gepostet, aber es zeigt das Dilemma sehr anschaulich
Ergebnis eines Profilers für einen Filter einer Bildbearbeitungssoftware:
Gut 80% der benötigten Zeit sind Overhead, wie Speichertransfers in und aus dem VRAM. Die reine Rechenzeit beträgt gerade mal 12%.
HSA dürfte hier einen enormen Performancesprung bringen.
1. Die API muss einfach zu Handhaben und Zweckmäßig sein.
2. Gute Dokumentation und Tools.
3. Es muss ein Return of Investment da sein. Bedeutet, Aufwand und Nutzen müssen in einem vernünftigen Verhältnis stehen.
Aktuell ist der Nutzen nur in wenigen Anwendungsfällen vorhanden. Eine OpenCL Anwendung die GPU-Unterstützt ist nur geringfügig schneller als wenn der Code direkt auf der CPU ausgeführt wird. Oder durch Limitierungen müssen Qualitätseinbußen hingenommen werden.
Ich hatte das Bild schon mal gepostet, aber es zeigt das Dilemma sehr anschaulich
Ergebnis eines Profilers für einen Filter einer Bildbearbeitungssoftware:
Gut 80% der benötigten Zeit sind Overhead, wie Speichertransfers in und aus dem VRAM. Die reine Rechenzeit beträgt gerade mal 12%.
HSA dürfte hier einen enormen Performancesprung bringen.
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Gut 80% der benötigten Zeit sind Overhead, wie Speichertransfers in und aus dem VRAM. Die reine Rechenzeit beträgt gerade mal 12%.
HSA dürfte hier einen enormen Performancesprung bringen.
Das ist hier recht anschaulich dargestellt mit einem Trinity:
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Mein Laptop
- Lenovo Y50-70,32GB Ram, Samsung 830Pro 256GB, Panel Upgrade,...
- Prozessor
- AMD Ryzen 3950X
- Mainboard
- ROG Strix X570-E
- Kühlung
- Corsair H115i Platinium
- Speicher
- 4x G.Skill F4-3600C15-8GTZ (B-Die)
- Grafikprozessor
- MSI Trio X 3090
- Display
- Predator X27, Asus MQ270Q
- SSD
- sehr viele :D
- HDD
- viele viele und extra Platz :D
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 600W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win10 Prof Workstation
Kann jemand erklären, was man da nun genau sieht?
Opteron
Redaktion
☆☆☆☆☆☆
Na auf der linken Y-Achse sind die nötigen Codezeilen (Lines of Code) aufgezeichnet auf der Rechten die Leistung. Man sieht also, dass man mit HSA Bolt am wenigstens Code schreiben muss, um am meisten Leistung herauszuholen. Mit OpenCL-C ist wohl noch etwas schneller, aber der Aufwand rechnet sich überhaupt nicht.Kann jemand erklären, was man da nun genau sieht?
mariahellwig
Grand Admiral Special
Obwohl bei Grafiken etwas anderes ausdrücken.
Complicated zeigt den Codierungsaufwand, wieviele Zeile Code ich benötige um die Aufgabe zu erledigen. In Relation dazu den Performancegewinn.
Meine Grafik zeigt wieviel Zeit zur Laufzeit mit welchen Aufgaben verbracht werden. Und da nimmt das hin- und herkopieren 80% der benötigten Zeit ein, die eigentliche Aufgabe lediglich 12%. Code benötige ich dafür aber wenig, deshalb sind die gelben Bereiche so schmal. Und dieses Hin- und Herkopieren kann den Performancegewinn unter Umständen wieder auffressen.
Beide Grafiken ergänzen sich sehr gut.
Complicated zeigt den Codierungsaufwand, wieviele Zeile Code ich benötige um die Aufgabe zu erledigen. In Relation dazu den Performancegewinn.
Meine Grafik zeigt wieviel Zeit zur Laufzeit mit welchen Aufgaben verbracht werden. Und da nimmt das hin- und herkopieren 80% der benötigten Zeit ein, die eigentliche Aufgabe lediglich 12%. Code benötige ich dafür aber wenig, deshalb sind die gelben Bereiche so schmal. Und dieses Hin- und Herkopieren kann den Performancegewinn unter Umständen wieder auffressen.
Beide Grafiken ergänzen sich sehr gut.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Wobei das keine allzu grosse Neuigkeit ist. Es war eigentlich von Anfang an klar, dass die Speicheranbindung einer der entscheidenden Faktoren ist. Der gemeinsame Adressraum wird hier zweifelsohne eine der wichtigsten Neuerungen mit HSA sein. Der Casus Knacksus liegt für mich trotzdem bei der Software. Nur wenn die HSA Programmierung transparent von der Hardware erfolgt, wird es sich durchsetzen. So wie seinerzeit mit Hochsprachen wie C die Programmierung transparent erfolgte und man nicht mehr mit Assembler für eine bestimmte CPU entwickelte. Bolt schaut da auf jeden Fall interessant aus, da man es nutzen kann wie die C++ STL. Für meinen Geschmack geht das allerdings noch nicht weit genug. Eigentlich müssten die Programmiersprachen selbst nativen Support für HSA bieten.Gut 80% der benötigten Zeit sind Overhead, wie Speichertransfers in und aus dem VRAM. Die reine Rechenzeit beträgt gerade mal 12%.
HSA dürfte hier einen enormen Performancesprung bringen.
Zuletzt bearbeitet:
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Das zeigt aber die Grafik von Complicated sehr schön: Der Programmierer kann sich mit HSA wieder voll auf die eigentliche Aufgabe konzentrieren und hat nichts mehr mit dem copy, compilieren und initialisieren der GPU zu tun. Mit HSA (rechts) hat er den gleichen Aufwand wie seinerzeit bei einem Single Core (links) Programm.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Aber halt nur, wenn die entsprechenden Bibliotheken zur Verfügung stehen. Mit der Auswahl und Flexibilität bisheriger Lösungen ist das noch nicht vergleichbar.
LoRDxRaVeN
Grand Admiral Special
- Mitglied seit
- 20.01.2009
- Beiträge
- 4.169
- Renomée
- 64
- Standort
- Oberösterreich - Studium in Wien
- Mein Laptop
- Lenovo Thinkpad Edge 11
- Prozessor
- Phenom II X4 955 C3
- Mainboard
- Gigabyte GA-MA790X-DS4
- Kühlung
- Xigmatek Thor's Hammer + Enermax Twister Lüfter
- Speicher
- 4 x 1GB DDR2-800 Samsung
- Grafikprozessor
- Sapphire HD4870 512MB mit Referenzkühler
- Display
- 22'' Samung SyncMaster 2233BW 1680x1050
- HDD
- Hitachi Deskstar 250GB, Western Digital Caviar Green EADS 1TB
- Optisches Laufwerk
- Plextor PX-130A, Plextor Px-716SA
- Soundkarte
- onboard
- Gehäuse
- Aspire
- Netzteil
- Enermax PRO82+ II 425W ATX 2.3
- Betriebssystem
- Windows 7 Professional Studentenversion
- Webbrowser
- Firefox siebenunddreißigsttausend
- Schau Dir das System auf sysprofile.de an
Wieso? Kaveri wurde für Ende des Jahres angekündigt, passt doch. Je näher die Softwareveranstaltung am Hardwareverkaufsstart ist, desto besser, können die Entwickler dann gleich ausprobieren und loslegen. Allen irgendwelche Prototypen zu geben, ginge wohl nur schwer.
Wenn die Veranstaltung nach hinten verschoben wird, ist das deshalb eher schlecht als gut, wenn man darauf spekuliert, dass irgendetwas zum früheren Zeitpunkt noch nicht verfügbar gewesen wäre. Das muss natürlich nicht sein, aber zumindest kann man jetzt nicht direkt einen positiven Aspekt vermuten.
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Zwecks Vollständigkeit:Folie 33 und Folie 2 aus der ISSCC Keynote von Lisa Su
Danke an amdfanuwe aus dem anderen Thread
Danke an amdfanuwe aus dem anderen Thread
Zwar etwas offtopic aber die 2te Seite des Slides zu HSA von Lisa Su bei der ISSCC:
http://de.slideshare.net/AMD/amd-isscc-keynote
Die Kosten pro Transistor sind bei 20nm genauso hoch wie bei 28nm. Nur flächenmäßig bringt 20nm noch einen Vorteil gegenüber 28nm.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Viel wird noch nicht dazu gesagt. Hier mal das Google-Translate von prohardver.hu
undmore interesting news is that AMD's APU prototype Kaveri began to spread among the developers , which is strange, because the desktop version did not arrive until November candidate. This is believed to be behind the rush to the new structure, that of the CPU and IGP fully coherent shared memory and address space of a single, major challenge for developers.
Schön zumindest zu sehen, dass derartige dev-kits bereits herausgegeben werden.Johan Andersson, DICE [engine programmer, posted] an interesting picture of the split on Twitter , on which nothing can be seen as the prototype of a new generation of AMD APUs. Even in the dead of last week, rumors that AMD started shipping Kaveri APU development version, and it looks like it was true. Certainly was not only the DICE branded phone, but the rest of Gaming Evolved partner, but no specifics.
Basically, it's no secret that companies are well ahead of the forthcoming send hardware to software developers, but the desktop version of the Kaveri APU is only projected to arrive in November , and three-quarter years before prototypes are not removed from the norm. Some of the hardware is far from definitive, it may still contain errors, which make it more difficult for software development.
Das wären dann die gemeinten "präsentierfähigen samples" (gegeben die Bildüberschrift stimmt). Im Gegensatz zu der Stimmungslage von Nov'12 über einen Projekt-Abbruch ein gewaltiger Umschwung (was aber nicht ausschließt, dass nicht doch eine Kaveri-Version gecancelt wurde).
Zuletzt bearbeitet:
Onkel_Dithmeyer
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.04.2008
- Beiträge
- 12.939
- Renomée
- 4.009
- Standort
- Zlavti
- Aktuelle Projekte
- Universe@home
- Lieblingsprojekt
- Universe@home
- Meine Systeme
- cd0726792825f6f563c8fc4afd8a10b9
- BOINC-Statistiken
- Prozessor
- Ryzen 9 3900X @4000 MHz//1,15V
- Mainboard
- MSI X370 XPOWER GAMING TITANIUM
- Kühlung
- Custom Wasserkühlung vom So. G34
- Speicher
- 4x8 GB @ 3000 MHz
- Grafikprozessor
- Radeon R9 Nano
- Display
- HP ZR30W & HP LP3065
- SSD
- 2 TB ADATA
- Optisches Laufwerk
- LG
- Soundkarte
- Im Headset
- Gehäuse
- Xigmatek
- Netzteil
- BeQuiet Dark Pro 9
- Tastatur
- GSkill KM570
- Maus
- GSkill MX780
- Betriebssystem
- Ubuntu 20.04
- Webbrowser
- Firefox Version 94715469
- Internetanbindung
- ▼100 Mbit ▲5 Mbit
Oder Sideport-Memory
Xbit berichtet unter Berufung auf BSN, dass Kaveri auch GDDR5 unterstützt.
Wäre für Notebooks durchaus interessant.
wenn man bedenkt, dass die derzeitogen apu's bereits mit ddr3 verdursten ist es sogar nachvollziehbar.
Markus Everson
Grand Admiral Special
"consisting of four 32-bit memory channels."
Na klar doch..
Edit: "Currently most commonly deployed chips only feature 2 GBit capacity, which translates to 256MB per chip."
Das dürfte dann die Erklärung dafür sein warum man Desktops doch lieber mit DDR3/4 bauen mag. Allerdings frage ich mich wie die 8 GB der PS4 zustande kommen sollen. 32 GDDR5-Chips auf dem Mainboard?
Na klar doch..
Edit: "Currently most commonly deployed chips only feature 2 GBit capacity, which translates to 256MB per chip."
Das dürfte dann die Erklärung dafür sein warum man Desktops doch lieber mit DDR3/4 bauen mag. Allerdings frage ich mich wie die 8 GB der PS4 zustande kommen sollen. 32 GDDR5-Chips auf dem Mainboard?
Zuletzt bearbeitet:
Opteron
Redaktion
☆☆☆☆☆☆
Von den Datenraten her ist das mMn eher ein Hinweis auf DDR4. QDR 800 ist DDR4-3200 und das soll ja einer der Startgeschwindigkeiten sein. Ist jetzt die Frage, was da im PDF stand. Stand da nur QDR oder stand da explizit GDDR5?Xbit berichtet unter Berufung auf BSN, dass Kaveri auch GDDR5 unterstützt.
Wäre für Notebooks durchaus interessant.
GDDR5 mit 1,6 Ghz ist eigentlich Kinderkram, das wird doch fast nicht mehr angeboten, die niedrigsten Datenraten sind schon 900 Mhz = 3,6 GT/s:
http://www.samsung.com/global/busin...t/graphic-dram/detail?productId=7495&iaId=759
Übersicht:
http://www.samsung.com/global/business/semiconductor/product/graphic-dram/catalogue
Aktuell sind 7 GT/s also mehr als das Doppelte der angegebenen 3,2 GT/s.
@Markus:
Die haben veraltete Infos, wenn Du oben auf meinem Übersichtslink klickst, dann siehst Du Folgendes:
Partnumber Density Organization Speed Package Refresh Interface Production Status
K4G41325FC 4Gb 128Mx32 28, 03, 04 170FBGA 16K/32ms POD_15 MassProduction
Ist halt schwer mal schnell bei Samsung auf die GDDR5-Übersichtsseite zu klicken
Ähnliche Themen
- Antworten
- 638
- Aufrufe
- 141K
- Antworten
- 12
- Aufrufe
- 6K
- Antworten
- 0
- Aufrufe
- 44K