News AMD-Aktie hebt ab: Quartalszahlen und chinesischer Server-Deal

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Gestern Abend unserer Zeit präsentierte AMD seine Quartalszahlen. Wieder reichte es nicht für einen Gewinn, doch die Börsianer jubeln, denn AMD konnte die (zugegebenermaßen niedrigen) Erwartungen übertreffen. Die Aktie sprang nachbörslich zwischenzeitlich um 20 Prozent nach oben. Zusätzlich zu den übertroffenen Analystenerwartungen dürfte jedoch die Ankündigung von AMD den Kurs beflügelt haben, künftig seine Server-Technologie an ein chinesisches Joint Venture zu lizenzieren.
(…)

» Artikel lesen
 
Probleme mit Intel wegen der vergebenen Lizenzen an Dritte sieht AMD offenbar nicht.
Wer sagt, dass dies x86 Server sind? Könnten auch komplette ARM-Designs sein. Ich habe zumindest noch nirgends Details dazu gesehen.
 
Ich geh auch davon aus, dass es ARM-Opterons mit Wunsch-IPs sind ... China will nix von Wintel also auch kein Bedarf an x86; Linux-Varianten laufen ja auf ARMs
 
Um ARM-Chips zu bauen hätten sich die Chinesen aber nicht an AMD zu wenden brauchen. *noahnung*
 
Hoffentlich verkauft AMD nicht unter Herstellungskosten.
Bin ich mal gespannt wie die zukünftigen Quartarlsergebnisse sein werden.
Bei den ewigen Verlusten von Amd, frage ich mich wer hält Amd am Leben.
Wenn ich sehe wie schnell hier Brinkmann, Quelle, Schlecker usw. abserviert wurden ist Amd ein Wunder für mich.

Edit
Selbst die Konsolen bringen letztendlich keine schwarzen Zahlen.
Verkauft Amd einfach zu billig?
 
Zuletzt bearbeitet:
Um ARM-Chips zu bauen hätten sich die Chinesen aber nicht an AMD zu wenden brauchen. *noahnung*

Neue Server-Designs ohne GPU? Ich denke es werden ARM-APUs werden oder eine Kombination. Zudem geht es auch um Controller und Fabric und Interposer Fertigung. AMD hat da ein sehr gutes Gesamtpaket an abgestimmter IP für Server auf ARM-Basis.
 
Neue Server-Designs ohne GPU?
Das will ich hoffen. Ich hab eh nicht verstanden, wozu Server-Prozessoren bei der Tätigkeit, für die sie gedacht sind, nämlich "to serve", eine fette iGPU brauchen. Bei HPC-Systemen, die nicht serven sondern etwas berechnen oder auswerten müssen, mag das anders sein, da könnte man die GPU mit einspannen sofern die Software-Entwickler den Mehraufwand für die GPGPU-Programmierung stemmen möchten. Andererseits schnallen die Betreiber solcher Farmen, die RICHTIG "Umpf" brauchen, dann lieber ein halbes dutzend Teslas in die Rackgehäuse bevor sie sich Server-CPUs mit iGPU antun. Kennt man denn überhaupt irgendein größeres Projekt, bei dem AMDs Opteron X Server-Prozessoren in APU-Bauweise schon mal verbaut wurden? Gibt's da Referenzen irgendwo? Ich kenne keine! *noahnung*
 
Zuletzt bearbeitet:
Ich vermute, dass es bei den Serverprozessoren des JV hauptsächlich um I/O geht, egal ob ARM oder X86 dann rechnet. Insofern könnte es auch sein, dass das JV zusätzlich noch ARM lizensiert, wenn es X86 nicht will.
MfG
 
Hoffentlich verkauft AMD nicht unter Herstellungskosten.
Bin ich mal gespannt wie die zukünftigen Quartarlsergebnisse sein werden.
Bei den ewigen Verlusten von Amd, frage ich mich wer hält Amd am Leben.
Wenn ich sehe wie schnell hier Brinkmann, Quelle, Schlecker usw. abserviert wurden ist Amd ein Wunder für mich.

Edit
Selbst die Konsolen bringen letztendlich keine schwarzen Zahlen.
Verkauft Amd einfach zu billig?

Das meiste kommt aus der "research development" (RD) Unterstüzung.
Die letzte (dritte) war recht üppig: https://community.amd.com/community...res-third-consecutive-exascale-research-grant
 
Zuletzt bearbeitet:
Das will ich hoffen. Ich hab eh nicht verstanden, wozu Server-Prozessoren bei der Tätigkeit, für die sie gedacht sind, nämlich "to serve", eine fette iGPU brauchen. Bei HPC-Systemen, die nicht serven sondern etwas berechnen oder auswerten müssen, mag das anders sein, da könnte man die GPU mit einspannen sofern die Software-Entwickler den Mehraufwand für die GPGPU-Programmierung stemmen möchten.
Das sehen die Entwickler anscheinend anders bei dem Exascale Programm, das Windhund verlinkt hat
Das meiste kommt aus der "research development" (RD) Unterstüzung.
Die letzt war recht üppig: https://community.amd.com/community...res-third-consecutive-exascale-research-grant
  • The research will focus on Heterogeneous Systems Architecture (HSA)-based Accelerated Processing Units (APUs), and a new generation of memory interfaces;

Hey hier sogar recht viele Details von AMD selber:
http://www.nextplatform.com/2015/07/30/future-systems-can-exascale-revive-amd/
amd-exascale-fastforward.jpg

amd-exascale-hetero-processor.jpg


n the conceptual processor above, you can see the GPU is front and center, with 32 CPU cores wrapped around it. There are eight banks of 3D stacked DRAM memory to keep this compute element fed with data; presumably the cores have L1 and L2 caches, and possibly shared L3 caches, too. AMD is not saying. The off-chip NVRAM memory could be any number of technologies, and it could even be the new 3D XPoint memory that rival Intel and Micron Technology announced this week. (There are a number of different memory technologies that can fulfill this secondary storage role, and we outlined many of them, thanks to Micron CTO Dean Klein, here.) What the non-volatile memory technology is will depend on the market a few years hence, but the issues that AMD lays out are the real problem.

The Department of Energy wants an exascale-class system to have at least 1 TB of memory and support up to 4 TB/sec of aggregate memory bandwidth per node. Current CPU-only systems are off by a factor of 100X and that rumored AMD Zen-based hybrid and the Intel Knights Landing processor will be off by a factor of eight or so. Even the conceptual design shown by AMD above, with eight stacks of HBM on the package, will top out at 1 TB/sec of bandwidth. Monkeying around with signal rates, bus widths, and channel counts, AMD says, could get it up to the 4 TB/sec range in the exascale timeframe – call it 2020 to 2022 or so – but then the capacity gap will still be wide if the device can only support 128 GB of near memory as AMD expects. The memory capacity gap is actually harder to close than the memory bandwidth gap, which was surprising to us until we read this AMD paper. For server nodes that require even more capacity, AMD says the idea will be to plug in a tertiary level of NVM – likely using another technology such as NAND flash or memristors should they ever come to market.
 
Zuletzt bearbeitet:
@Woerns
Passt irgendwie alles ganz gut zusammen!
Heute ist der Namenstag des Planeten: Erde

Exascale supercomputers will be capable of performing more than one quintillion (or a billion billion) calculations per second, roughly 30-60 times faster than today’s fastest available supercomputers. This research aims to deliver those huge increases in performance – without significant increases in energy consumption – to enable advances in diverse fields ranging from medical science to astrophysics and climate modeling. These could arrive as prototypes over the next several years, with full production units early in the next decade.

;D
 
...wozu Server-Prozessoren bei der Tätigkeit, für die sie gedacht sind, nämlich "to serve", eine fette iGPU brauchen...
Wenn AMD von "server market" spricht, meinen sie bestimmt ebenso Mainframes oder Supercomputer und nicht bloß Server.
 
Via Anandtech:
As part of the release of AMD’s Q1 2016 financial results (more on that later today) the company is announcing that they are forming a new joint venture to develop x86 SoCs for the Chinese market. The hereto unnamed joint venture will see AMD pair up with Tianjin Haiguang Advanced Technology Investment Co., Ltd (THATIC), who is an investment arm of the Chinese Academy of Sciences. The deal will, in a nutshell, see AMD provide the joint venture with x86 and SoC IP, along with significant engineering and other technical resources, while THATIC provides the remaining technical resources and the financing behind the venture. Overall the deal will net AMD $293 million from the licensing agreement, plus further royalties in the future.

As this is a fairly complex deal, I first want to jump into the technical aspects of the joint venture. In a brief call with AMD, the company made it clear that this is an x86 play for the Chinese server market, with AMD licensing/contributing their high performance x86 IP along with their SoC IP. AMD’s GPU and ARM IP is not part of the deal, and at this time AMD is not specifying which precise x86 IP is part of the deal.
 
Nun nehme an es stimmt so, dan hoffe ich das der patenttausch wasserdicht ist .
Wer nicht weiss weshalb einfach mal die PDF der nächsten Konferenz komplett lesen.
 
Das will ich hoffen. Ich hab eh nicht verstanden, wozu Server-Prozessoren bei der Tätigkeit, für die sie gedacht sind, nämlich "to serve", eine fette iGPU brauchen. Bei HPC-Systemen, die nicht serven sondern etwas berechnen oder auswerten müssen, mag das anders sein, da könnte man die GPU mit einspannen sofern die Software-Entwickler den Mehraufwand für die GPGPU-Programmierung stemmen möchten.
Es gibt viele Arten von Servern. Klassische Server haben in der Tat wenig Verwendung für GPUs. Mit "Industrie 4.0" und "Digitalisierung" ändert sich das Anforderungsprofil hin zu mehr Echtzeit-Analyse und Steuerung. Dabei könn GPUs durchaus ihre Vorteile ausspielen.

Andererseits schnallen die Betreiber solcher Farmen, die RICHTIG "Umpf" brauchen, dann lieber ein halbes dutzend Teslas in die Rackgehäuse bevor sie sich Server-CPUs mit iGPU antun. Kennt man denn überhaupt irgendein größeres Projekt, bei dem AMDs Opteron X Server-Prozessoren in APU-Bauweise schon mal verbaut wurden? Gibt's da Referenzen irgendwo? Ich kenne keine! *noahnung*
Bei klassischen HPC-Anwedungen werden wohl die Teslas, Xeon Phis und vlt. auch mal wieder FirePros eingesetzt. Es gibt aber auch noch Anwendungsbereiche mit eher hybriden Anwendungsprofil, bei denen diese Beschleuniger ihre Leistung nicht Richtung ausspielen können. Selbst im HPC-Bereich gibt es einige solche Anwendungsbereiche, in der Industrie noch deutlich mehr. Ein Teil davon wird wohl noch lange eine reine Sache der CPUs (evtl. mit FPGAs als Beschleuniger) bleiben. Ein Teil davon könnten aber APUs übernehmen. Das Problem dabei war bisher, dass es bisher keine entsprechenden APUs gibt. Die bisherigen iGPUs der heutigen APUs sind dafür viel zu klein dimensioniert und die Speicherbandbreite reicht für solche Anwendungen hinten und vorne nicht. Nächstes Jahr könnte AMDs Server-APU mit mehr CUs und HBM2 kommen und diese Lücke füllen.
 
Vielleicht muss man die Abkürzung APU mal wieder neu durchdeklinieren. Gemeint ist ja "Beschleunigung", gesagt ist nicht unbedingt, WAS beschleunigt wird. Man denkt traditionell an Grafik. Im Bereich von Cloud-Servern könnte der Schwerpunkt der Beschleunigung viel mehr auf Ver- und insbesondere Entschlüsselung liegen. Die chinesischen Machthaber wollen doch wissen, was ihre Untertanen so alles in der Wolke speichern.
Eventuell ist Intel mit dem Aufkauf von Altera für die Entschlüsselung am besten gerüstet, aber die Chinesesn trauen Intel nicht. Vielleicht will im Konsortium der chinesische Staat mitbestimmen, wie ver- und entschlüsselt wird. Und zwar so, dass eben sie selbst aber nicht die Fünf Augen mitlesen können.
MfG
 
Zurück
Oben Unten