FUSION AMD's neue Klasse von x86er

Status
Für weitere Antworten geschlossen.
Genau darauf wollte ich hinaus. So heißt es zwar in den Folien vom Analystentag, das z.B. der Grafikpart auf aktuellem Highend basieren soll. Das dies dann einfach 1:1 umgesetzt in einen fertigen Grafikchip aus der 3800er Serie endet, halte ich persönlich jedoch erstmal für äußerst fragwürdig.
Naja .. was ist denn eine heutige 3800er in 2 Jahren ... in 45nm zieht die auch nicht soviel Strom und ist wieder kleiner, ausserdem fällt der Speicherkontroller weg (sitzt ja in der CPU).

Also für so abwegig halte ich das nicht ..

ciao

Alex
 
@opteron
>ausserdem fällt der Speicherkontroller weg (sitzt ja in der CPU)

In der Xbox360 wurde der Speichercontroller bei der CPU wegrationalisiert. Dort ist der Speichercontroller in der GPU und die CPU greift über die GPU auf den Speicher zu.
Dies ist sinnvoll, weil die GPU deutlich höhere Ansprüche an die Zugriffe stellt.
Unvorhersehbarere Zugriffe, mehr Bandbreite.

Nimm mal der HD3850 den Speichercontroller weg.
HD3850 -> 3dmark06: 4195
HD3850 ohne Speichercontroller -> meine Schätzung 3dmark06: 2000(wenn überhaupt).

Ich könnte mir für SWIFT einen Aufbau ähnlich der Xbox360 vorstellen - sie haben ja mit diesem Projekt eine Menge Erfahrung gesammelt.

Grüße,
Tom
 
In der Xbox360 wurde der Speichercontroller bei der CPU wegrationalisiert. Dort ist der Speichercontroller in der GPU und die CPU greift über die GPU auf den Speicher zu.
Dies ist sinnvoll, weil die GPU deutlich höhere Ansprüche an die Zugriffe stellt.
Unvorhersehbarere Zugriffe, mehr Bandbreite.
Hm ja ok, das ginge auch, ich wollte nur darauf raus, dass Siliziumfläche gespart werden kann, da man eben einen Speicherkontroller spart, welchen auch immer ;-)

Allerdings wage ich zu bezweifeln, dass AMD da den kompletten 256bit Bus rausführt. Das gäbe wohl ein zu großes Pinchaos.

Ausserdem hat man gegenüber der XBOX keine feste Größe an Hauptspeicher. Eher wird es da einen Bedarf für mehr RAM geben, da der Swift ja mehr für HPC als low-cost Grafik herhalten soll (zumindest interpretiere ich das "Application Computing Unit" Ausdruck in die Richtung).

2xDDR3 (von der CPU) wäre für den Fall daher wahrscheinlicher, 3DMurks interessiert keinen, wichtiger wäre der RAM Ausbau, der mit GDDR3 schlecht geht.

Aber warten wirs ab ... ;-)

ciao

Alex
 
Zuletzt bearbeitet:
... der Swift ja mehr für HPC als low-cost Grafik herhalten soll (zumindest interpretiere ich das "Application Computing Unit" Ausdruck in die Richtung). ...
mario_rivas_accelerated-processing-unit_swift-aka-first-fusion_2h2009.jpg
Also der Swift wird als Nachfolger von der kommenden Puma-Plattform (mit dem letzten K8-Derivat "Griffin") geplant.

mario_rivas_accelerated-processing-unit-apu_cpu-gpu-chipset_1.jpg

Das kann man auch in der AMD-"Marketing-Mathematik" so sehen.

mario_rivas_notebook-roadmap-2008-2009_puma-griffin_shrike-swift.jpg

Quelle (1,2.3)

Ich denke auch, dass das Projekt "Fusion" auch mal mehr werden sollte, als es jetzt derzeit mit "Swift" geplant ist.

Andererseits ist auch schon zur Cebit 2007 besonders betont worden, dass auch mit den aktuellen Direct-X-10-Karten (also auch mit Nvidia-GPUs) Betriebssysteme in ihrer Nutzung beschleunigt werden sollen
trend_gpu_gui-beschleunigung.jpg
. Vista ist sozusagen ein Vorbote kommender Beschleunigungs-Features
trend_gpu_gui-beschleunigung_2.jpg
. Aero ist da schon nett, wenn man parallel verschiedene Reiter hat und mit einem kleinen Vorschaufenster jeweils nicht nur statische Webseiten betrachten kann, sondern parallel auch noch eine TV-Sendung, einen DVD-Stream betrachten kann.
Quelle (4,5)

Eine rudimentäre GPU mit CPU und rudimentärer Chipsatzlogik auf einem gemeinsamen Chipträger ist sozusagen die minimalistische Version der aktuellen Hardware auf einem Stück Chipträger. Ich denke, dass dabei eine ATI RV610/RV620 im Grundsatz dafür reicht.

So etwas wie dem Cell hat AMD vorerst mal auf ein längeres Gleis geschoben. IBM plant einen Supercomputerkomplex "Roadrunner" mit hybrider Systemarchitektur.
Dabei verwendet IBM Cell-Blades mit Opteronblades. Idealerweise wird dort dann pro Opteronkern ein Cell in einem Verbund betrieben. Die Anforderungen von den Los Alamos Labs sahen dafür 2006 eine hybride Systemarchitekur vor, die damals in einem Atemzug mit einer AMD-Vision von Straeming-Computing auf einem gemeinsamen Chipträger genannt wurde.

Dabei grenzten sie bewusst FPGAs und auch GPUs als Einzelkarten bewusst davon ab. Die Los Alamos Leute verglichen damals dieses "Fusion-Projekt" eher mit dem Intel-Projekt "Polaris".

HPC High Performance Computing ist daher etwas anderes als Home Personal Computing und AMD hat sich derzeit doch mehr auf schneller erreichbare Ziele eingerichtet. Wenn man mal annimmt, dass 45 nm für eine GPU in etwa halbierten Strombedarf entspricht, dann läge ein hypothetischer RV610 bei etwa 7 bis 8 Watt. Zusammen mit einer Low-Power CPU für etwa 25 Watt ergäbe es zusammen mit L3-Cache und PCI-Express-Interface in etwa 45 Watt, oder noch weniger, wenn die Maximalleistung gedrosselt wird.

MFG Bobo(2007)
 
Zuletzt bearbeitet:
Ich denke auch, dass das Projekt "Fusion" auch mal mehr werden sollte, als es jetzt derzeit mit "Swift" geplant ist.

Eine rudimentäre GPU mit CPU und rudimentärer Chipsatzlogik auf einem gemeinsamen Chipträger ist sozusagen die minimalistische Version der aktuellen Hardware auf einem Stück Chipträger. Ich denke, dass dabei eine ATI RV610/RV620 im Grundsatz dafür reicht.
...
So etwas wie dem Cell hat AMD vorerst mal auf ein längeres Gleis geschoben.
...
Wenn man mal annimmt, dass 45 nm für eine GPU in etwa halbierten Strombedarf entspricht, dann läge ein hypothetischer RV610 bei etwa 7 bis 8 Watt. Zusammen mit einer Low-Power CPU für etwa 25 Watt ergäbe es zusammen mit L3-Cache und PCI-Express-Interface in etwa 45 Watt, oder noch weniger, wenn die Maximalleistung gedrosselt wird.
Zustimmung !

45 Watt max. wären im Mobilbereich für einen CPU-GPU Socket gerade noch erträglich-
Gleichzeitig reduziert sich der restliche 'Chipsatz' auf die Southbridge - auch günstig für Notebooks.

Ich sehe Potential für die onDIE GPU, wenn sie im eigentlichen Fusion Projekt wahlweise als GPU oder Zusatzrechenunits auftritte. Es gibt ja Applikationen die extrene GPUs als Rechenknechte für z.B. Molelülsimulation 'mißbrauchen'.
Budget - Office - Desktop könnten dann nur die GPU als Bildprozessor verwenden.
Wird eine externe GPU eingesetzt, dann wird die GPU zum Co-Prozessor als Physikbeschleuniger bis Parallelrechner für zig Anwendungen ähnlich der SPE's beim Cell. Nachdem man ca. $10 bis $50 Mehrpreis für die onDIE-GPU ansetzen könnte (gehobene Desktop-CPUs hätten dann mehr GPU-Teileinheiten) wären einerseits nicht die GPU-Verkäufe gefährdet, anderseits würde AMD bei 32nm und kleiner noch die DIEs sinnvoll füllen können.
 
Hier nochmal etwas zu SWIFT:

http://www.theinquirer.net/gb/inquirer/news/2007/12/19/bulldozer-roadmaps

....
>The thinking was that BD would win back server marketshare, something that
>they needed badly, and Swift would do the same for enterprise notebooks.
....

Grüße,
Tom

Edith:
Enterprise Notebooks -> könnten Geräte werden, die minimalen Energieverbrauch bei normaler Nutzung versprechen - gleichzeitig aber genug/reichlich Rechenleistungs-Reserven bieten wenn es drauf an kommt.
Evtl. realisieren sie ja tatsächlich den autonomen Display-Refresh bei gleichzeitig deaktiviertem CPU-Core *träum*
 
Zuletzt bearbeitet:
Dabei grenzten sie bewusst FPGAs und auch GPUs als Einzelkarten bewusst davon ab. Die Los Alamos Leute verglichen damals dieses "Fusion-Projekt" eher mit dem Intel-Projekt "Polaris".

HPC High Performance Computing ist daher etwas anderes als Home Personal Computing und AMD hat sich derzeit doch mehr auf schneller erreichbare Ziele eingerichtet. Wenn man mal annimmt, dass 45 nm für eine GPU in etwa halbierten Strombedarf entspricht, dann läge ein hypothetischer RV610 bei etwa 7 bis 8 Watt. Zusammen mit einer Low-Power CPU für etwa 25 Watt ergäbe es zusammen mit L3-Cache und PCI-Express-Interface in etwa 45 Watt, oder noch weniger, wenn die Maximalleistung gedrosselt wird.

MFG Bobo(2007)
Erstmal Danke für die "alten" Folien .... die meinen also mit accelerated die Beschleunigung von 3D Spielereien wir Aero ... supi .. das könnte man auch deutlicher sagen. Mit HPC hats dann wohl eher doch nichts zu tun..

Aber noch ein Thema zu cell / polaris etc. .. Prinzipiell ist doch so ein Fusion C/GPU nicht recht viel anders. Cell hat einen Power CPUs Kern samt der bekannten 8 Mini SPUs. So ein Fusion Chip hätte jetzt 2 x86er Kerne und (wenn das komplette RV670 Kern übernommen wird) "320" Stream Prozessoren. Die 320 sind in 64+256 aufgeteilt, wobei wohl nur die 64 "komplizierteren" code abarbeiten können, aber so genau kenne ich mich mit den GPUs nicht aus, bei Wikipedia ist ein bisschen was zu dem Thema erklärt:
http://en.wikipedia.org/wiki/AMD_FireStream#Hardware

Interessant auch, dass die neuen R670er "stream processors" jetzt auch double precision können.

Edit:
Hier ist mal "erklärt" was accelerated meint, eigentlich doch alles .. hauptsache beschleunigt:
J94px4EObIVz20T.jpg

Quelle: http://www.cisl.ucar.edu/dir/CAS2K7/Presentations/torricelli.pdf


Zu Polaris:
Da ging der Weg ja genau anders herum. Intel Entwickelte eine Multi-multicore CPU und suchte am Ende ein Einsatzgebiet dafür. Was kam dabei raus ... Grafik.

Für mich sind die ganzen Chips deshalb vom Ansatz her das Gleiche, gewinnen wird wohl der, der den besten Interconnect hat, d.h. wessen Implementiereung die vielen Cores ausreichend mit Bandbreite versorgt. Im Moment schaut es danach aus, dass Intel da die Nase vorne hat, aber noch gibts es den Chip ja nicht zu kaufen.

Hier nochmal etwas zu SWIFT:
>The thinking was that BD would win back server marketshare, something that
>they needed badly, and Swift would do the same for enterprise notebooks.

Edith:
Enterprise Notebooks -> könnten Geräte werden, die minimalen Energieverbrauch bei normaler Nutzung versprechen - gleichzeitig aber genug/reichlich Rechenleistungs-Reserven bieten wenn es drauf an kommt.
Evtl. realisieren sie ja tatsächlich den autonomen Display-Refresh bei gleichzeitig deaktiviertem CPU-Core *träum*
Enterprise notebooks ist die übliche Bezeichnung für Linien wie Latitude bei Dell.
Zur deren Konfigurationen kommt man z.B., wenn man auf der Dell Startseite Notebooks -> Business wählt. Home User bekommen Inspiron Ware vorgesetzt.

Ist halt einfach ein andres Marktsegment, da musst Du nicht spekulieren ;-)

ciao

Alex
 
Zuletzt bearbeitet:
http://hkepc.com/?id=568&page=3#view

Intel lagert die Grafikanschlüsse bei seinem int-GPU Konzept 'Havendale' in einen extrenen Chip aus, quasi die bisherige Northbridge.
Die PCIe x16 hängt aber am CPU-GPU DIE.

AMD hingegen hätte per HTr 3.0 genügend Durchsatz um zumindest eine externe PCI-Karte noch per HTr mit zu versorgen.
Somit müßte AMD lediglich eine Konvertierungsschaltung vorsehen, die Datenströme der CPU-GPU in der Northbridge in Video-Signale umwandel.
Wenn AMD so etwas offen legt als Feature, könnte auch andere (wie nvidia, SIS) kompatible Schaltungen bauen.
Es wäre per So. AM3 möglich das Fusion-Feature alternativ anzubieten, was AMD zwei Sockets (bzw. drei - der AM2+ dürfte ja dann auch noch präsent sein) vermeiden liese.
AMD/ATI würde dann einfach die Entwicklung der nativen GPUs in der Northbridge 'einfrieren' und jene würde als reines Kompatibilitätsfeature übrig bleiben.
Wobei diese Schaltungen dann den ganzen PC-Kompatibilitätskram (incl. Boot) enthalten könnten, während die Fusion-GPU nur als DirectX Schaltung fungieren müsste ohne Altlasten inside.
Ggf. macht es Intel ähnlich und beläßt in seinem 'IbexPeak PCH' auch rudimentäre Grafikartenfunktionen, die den Bootvorgang unterstützen. Intel ist ja bekanntlich pragmatisch und macht keine Revolutionen, die dann ewig Zeit benötigen.


Havendale hat einen Dual-Core Prozessor mit SMT und 4M shared L3.
AMD müßte also einen nativen Triple-Core mit ebenso 4M-L3 zur GPU bauen, damit die Performance ähnlich liegt.
Die TDP liegt bei Intel's Nehalem mobil bei 45 Watt (incl. Northbridge & GPU). Das wird bei 3* K10 in 45nm recht knapp und paßt zumindest nicht für AMD Swift ( =mobil )
Besser dürfte es da aussehen beim Desktop-Fusion, wobei AMD hier genauso in der Lage ist wie bei Intels 'Turbo'-Modus einfach mehr GHz zu ermöglichen, wenn nicht alle Cores aktiv sind.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
tja, im Juni 2007 wurden von AMD noch 8-fach Cores präsentiert - als ppt-Folien.

AMD kann aber nur so schnell Modelle 'ersetzen' offensichtlich weil jene gar nicht in einem irgendwie fortgeschrittenen Stadium vorlagen.

Nachdem Intel bereits die Modelle für H1'2009 präsentiert und zumindest beim ersten Nehalem schon Silicium hat und beim 'Havendale' bestimmt nicht mehr lange benötigt wird eine leere Produktpipeline bei AMD sichtbar.
Selbst epochale Entwicklungen des Technologiepartners IBM wie das eDRAM (45nm: 1/3 an Platzbedarf, 1/5 an Energiebedarf aber etwa SRAM-Performance - 'Havendale' ) nimmt AMD nicht (mehr) zur Kenntnis und baut stumpfsinnig Standard-Designs weiter.

Es fehlt an Ideen bei AMD die technologisches Neuland aufzeigen.
Ich bin zwar ein Gegener des ATI-Kaufs, aber AMD benötigt zumindest einigermaßen performante DirectX-Schaltungen um 45nm oder 32nm Wafer-Fabs überhaupt sinnvoll zu nutzen. Nur mehr SRAM verbauen wie beim Shanghai oder bisher Intel ist eben keine zukunftsträchtige Lösung. Da ist ein DirectX Design auf dem DIE sinnvoller und ertragreicher je DIE.
 
Technologische Neuheiten bergen auch immer Risiko und eigentlich so gut wie immer auch hohe Kosten. Beides sind Dinge, die AMD atm nicht gebrauchen kann.
Schuster, bleib bei deinem Leisten oder wie sagt man? ;)
 
Wahnsinn - mir scheint es fast so als würden hier alle frei drehen.

Intel stellt eine Plattform vor mit einer 45nm-CPU, die 0,6W braucht und einem 130nm-Chipsatz, der 0,8W braucht, und alle schreien, diese Kombi wäre der Messias unter den mobilen Plattformen.

Noch mehr Müll wird bei der nVidia/Via-Pressemitteilung verzapft. Also sorry, aber die Via CPU gehört so ziemlich zum armseeligsten was so rumläuft. Da müsste nVidia schon ordentlich auftrumpfen(bzw Stromsparen) um die Defizite auszumerzen.

Der Grund warum sich AMD im moment nicht zu Wort meldet ist der, dass ihr Design noch etwas Zeit zum Reifen braucht. Aber eine Single-Chip CPU+GPU+Northbridge-Lösung und eine stark abgespeckte Southbridge ist den bisherigen Ansätzen haushoch überlegen. Hierfür muss auch kein neuer Kern entwickelt werden. Der Griffin-Kern mit seiner starken Verwandschaft zum K8 ist hier schon exakt der richtige Kandidat.

Wenn man einen Blick hier reinwirft:
http://www.amd.com/us-en/assets/content_type/white_papers_and_tech_docs/30430.pdf
Dann sieht man, dass ein 90nm MT37 bei 800MHz unter 7,9W liegen muss. Zum Vergleich, ein Silverthorne mit 1.6GHz benötigt eine TDP von 2W bei niedrigerer Rechenleistung.

Ein geshrinkter Griffin Single-Core in 45nm @ 1200-800MHz + 128KB L2 + einer onDie HD 2400 Grafikkarte in einem 45nm SOI-Prozess + einer effizienten Southbridge müsste am Silverthorne gut rütteln können.

In-Order ist nicht zwangsläufig effizienter als out-of-order. Ein In-Order verbraucht weniger, weil weniger Transistoren mitarbeiten. Trotzdem kommt eine out-of-order-cpu bei niedrigen Taktfrequenzen der in-order-cpu schon auch sehr nahe. Intel hat Silverthorne nur deshalb in-order gamacht, damit das Die kleiner und damit die Herstellungskosten niedriger sind. Ansonsten hätten sie gleich einen 45nm-core2solo verwenden können - vom Verbrauch her würden sie in ähnlichen Regionen liegen.

Die wirklich großen Einsparpotenziale liegen bei den C-States und hier traue ich einem integrierten CPU+GPU+Northbridge-Konzept einiges zu. Zum Beispiel das weiter oben im Thread erwähnte Display-Refresh-Feature, wo der Bildschirminhalt in einem kleinen Speicher abgelegt wird, und solange der Inhalt nicht verändert wird muss nur immer wieder der Inhalt aus dem Speicher auf den Display gebracht werden, ohne der Mitwirkung der CPU (diese ist derweil in C4) oder der Mitwirkung großer Teile der GPU.
Hier kann sich AMD mal was bei Intel abschauen:
http://www.computerbase.de/news/allgemein/forschung/2006/maerz/idf_display_self-refresh_verbrauch/

Die C-States sind wirklich extrem wichtig hier nochmal ein paar aussagen zu Atom:
http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3276&p=18
All of the state data is saved in a 10.5KB storage area, similar to mobile Penryn (but smaller since there's not as much state to save). Upon exiting C6 the processor's previous state is restored from this memory, called the C6 array. It takes around 100us to get out of C6, but the power savings are more than worth the effort

Angenommen man tippt nur ein paar Sachen in Word - dann geht der Prozessor ständig und vom User unbemerkt in C6 - 100us sind 0.1ms sind 0.0001s, länger benötigt Atom nicht um in einen State zu fallen, der nur noch 30mW braucht.

Sollte es also gelingen besser als Poulsbo zu werden kann man mit Fusion auch schon die jetzige Intel-Atom-Plattform unter druck setzen. Und AMD hat zuletzt auch gesagt, dass sie viel im Bereich Treiber arbeiten - hier sehe ich den richtigen Angriffspunkt - ein intelligenter C6+Display-Refresh+Peripherie - Stromspartreiber ist enorm wichtig um im Verbrauch nach unten zu kommen.

Grüße,
Tom
 
Der Grund warum sich AMD im moment nicht zu Wort meldet ist der, dass ihr Design noch etwas Zeit zum Reifen braucht. Aber eine Single-Chip CPU+GPU+Northbridge-Lösung und eine stark abgespeckte Southbridge ist den bisherigen Ansätzen haushoch überlegen.
Haushoch überlegen war auch das tolle native QuadCore DIE ...von Intel gibts Atom Silizium, Auslieferung läuft, VIA ist nicht weit davon entfernt, von AMD (Bobcat) gibts bisher nur den Namen auf Papier.

Griffin ist schön und gut, aber ne andre Liga, vielleicht wirds irgendwann was @45nm aber bis dahin gibts auch wieder Neues/Besseres von Intel / VIA. Griffin ist und bleibt ein Server Prozessor, bei dem man mit Gewalt (getrennte Powerplanes, feinste Taktabstufungen) versucht ihm das Stromsparen beizubringen. Für den Laptopmarkt reicht das, darunter nie.

ciao

Alex

P.S:Schon mal geschaut, was der 780G Chipsatz so verbrät ?
 
Zuletzt bearbeitet:
Habe hier drin nochmal nachgeblättert:

http://www.amd.com/us-en/assets/content_type/white_papers_and_tech_docs/30430.pdf

Ein MT37
@ 800MHz braucht er 7.9W
in Halt/Stop-Grant benötigt er nur noch 2.2W (dort wird der HTr abgekoppelt und der Takt deutlich runtergefahren, ich dachte mal etwas von 10MHz gelesen zu haben)
in C3 benötigt er nur noch 360mW (dort werden zusätzlich die Caches geleert)

Ein heutiger TL-66 @ 2.3GHz @ 35W tdp benötigt
@800MHz 6.7W, als Single-Core sogar nur 3.35W.

Grüße,
Tom
 
Der Grund warum sich AMD im moment nicht zu Wort meldet ist der, dass ihr Design noch etwas Zeit zum Reifen braucht.
Genau, AMD weis vor lauter Ideen gar nicht, was zuerst machen ;D

In der Zwischenzeit werden Hausfrauen zum Triple-Core überredet (damit die DVDs flüssig laufen) - http://www.theinquirer.net/gb/inquirer/news/2008/04/11/amd-wants-200
und der Rest auf Quad-Core oder 790 Chipsatz gesetzt.

Wer sofort zuschägt bekommt von AMDs Giuseppe Amato noch ne Rheumadecke handsigniert von H.Ruiz dazu gepackt.

AMD ist so wie seit Jahren störrisch verkündet:
OEMs und Opteron als Focus,
der Rest als Melkvieh, das kaufen soll, was gerade da ist.
Um Intel zu ärgern dann Preisrunden noch 2-3 Wochen VOR Intel und später über miese Quartalserlöse meckern.

Gerade bei 'Fusion' - oder 'Swift' ? - sind wir langam bei 2 Jahren ohne reale Produktankündigung weiter seit dem Aufkauf von ATI. Es hat nicht einmal für ein 'Übungsdesign' der Geode-Klasse und externer Fertigung gereicht.
So eine kleiner Laden wie 'Transmeta' hat das innerhalb vieler Jahren unter weitaus schlechteren Bedingungen gepackt.

Das Thema 'Wunderwaffen' hatten wird schon einmal - die kamen dann auch in Form von Nylons tatsächlich zu Kriegsende 'zum Einsatz'.
Lt. AMD / Page 4 http://www.amd.com/us-en/assets/content_type/DownloadableAssets/DirkMeyerDec2007AMDAnalystDay.pdf
kommt der erste 'Kombi' = APU Swift in H2'2009 - vorher nichts.

Nicht ohne Grund geht Phil Hester und AMD löscht sofort seine Biographie - http://www.amd.com/us-en/Corporate/InvestorRelations/0,,51_306_15086,00.html
(aus: http://www.dailytech.com/AMDs+Chief+Technology+Officer+Steps+Down/article11466.htm)
Es gibt keine geheimen 'Wunderwaffen' bei AMD und die Produktroadmap hängt noch weiter nach hinten als die Fertigung / Shrinks.
 
Noch mehr Müll wird bei der nVidia/Via-Pressemitteilung verzapft. Also sorry, aber die Via CPU gehört so ziemlich zum armseeligsten was so rumläuft. Da müsste nVidia schon ordentlich auftrumpfen(bzw Stromsparen) um die Defizite auszumerzen.



Grüße,
Tom


Stimmt die Vias sind ziemlich langsam verbrauchen dafür aber kaum Strom sobald die richten Grafikkarten draussen sind könnte man mit denen sogar HD-Filme ruckelfrei abspielen und das zu einem Strombverbrauch an den weder Intel noch AMD heranreichen können.

Und für Mediapcs oder kleinere Server sind die die C7er auch gut zu gebrauchen.
 
Stimmt die Vias sind ziemlich langsam verbrauchen dafür aber kaum Strom sobald die richten Grafikkarten draussen sind könnte man mit denen sogar HD-Filme ruckelfrei abspielen und das zu einem Strombverbrauch an den weder Intel noch AMD heranreichen können.
Das kann man auch auf andere Anwendungen erweitern.

Mein alter Duron 1200 mobil verrichtet immer noch in der Verwandschaft gute Dienste und wird nur übermäßige Belastung wg. KM133 Chipsatz (ohne Hardware für Videos) ans Limit gebracht.

Die Abhilfe liegt im Bereich der GPU und nicht bei der CPU.
Ebenso ist eine schnelle Festplatte der Kennwert um Windows (XP) zügig laufen zu lassen.

Daher ist die VIA-CPU zu nVidia-GPU Lösung sehr erfolgversprechend. Die GPU knackt die Probleme solcher schwachen CPUs im realen Alltag, dafür ist der niedrige Stromverbrauch der Einsteig in Mobilität oder ultrakompakte Desktop-Lösungen ohne relevante Einbussen.

Wenn man sieht, wie heute weltweit Celerone oder Sempron mit 350 W Netzteilen (max.) und ca. 100 Watt (typ. CPU, Wandler, I/O - nicht alle haben den Stromsparmodus) für simple Office/ Internet-Anwendungen werkeln dann ist dies nicht zukunftsweisend.

Wir hatten einmal vor Jahren kleine Desktop mit 115 Watt Netzteilen, also kaum anspruchsvoller als ein Notebook.Das könnte wieder die Zukunft des Mainstream werden, aws dann CPU+Chipsatz auf ca. 50 W limitiert.

---
http://www.hardtecs4u.com/news/1723_wettrennen_um_die_besten_plaetze_im_billig-notebook-geschaeft

Hier ist AMD schon Verlierer - die Billig-Notebooks der <$500 Klasse.
Wenn 'Swift' einmal in H2'2009 erscheint, dann werden längst kompakte Designs mit Intel oder VIA den Markt prägen.
Ebenso erscheint mit 'Switft' eher ein 30-45 Watt TDP Design, als eines der 7-20 Watt Klasse (CPU & GPU)
 
Zuletzt bearbeitet:
Ein MT37
@ 800MHz braucht er 7.9W
in Halt/Stop-Grant benötigt er nur noch 2.2W (dort wird der HTr abgekoppelt und der Takt deutlich runtergefahren, ich dachte mal etwas von 10MHz gelesen zu haben)
in C3 benötigt er nur noch 360mW (dort werden zusätzlich die Caches geleert)

Ein heutiger TL-66 @ 2.3GHz @ 35W tdp benötigt
@800MHz 6.7W, als Single-Core sogar nur 3.35W.
Ist ja schön und gut, aber was für Rechenleistung kommt dabei hinten raus ? Ich bin mir da ziemlich sicher, dass der CN da schneller ist, abgesehen von der FPU. Aber die hat AMD ja v.a. wg. HPC Workload, für den Desktop und daraunter reicht die VIA FPU sicherlich aus. Bisher sind ja leider nur CrystalMark Werte vom CN draußen, und von denen weiß man nicht, wie authentisch sie sind, aber falls sie stimmen, zeigen sie wo die Reise hingeht:

Nochmal zur Übersicht:
Here's the result with a 1.0Ghz Isaiah (ULV) and VN896 Update: VX800 chipset.

[ ALU ] 4762
[ FPU ] 2976
[ MEM ] 6067
Ich hab meinen Opteron mal auf 1050 MHz untertaktet, durch die 50 MHz gleichen sich Pi*Daumen die kleinen Nachteile vom reg. RAM aus.

Da komm ich auf folgende Werte:
[ ALU ] 3778
[ FPU ] 3667
[ MEM ] 4089

Das Ganze wie besagt mit nem E4 Opteron @1050Mhz & reg. DDR1-420 RAM, Hintergrundprozesse liefen sicherlich auch ein paar ^^

Alles in allem kommt aber bestimmt auch kein neuerer K8@1GHz über 4000.

Aufruf @alle K10 Besitzer: Falls jemand nen K10 hat, wären Testwerte @1 GHz interessant, das Programm gibts hier:
http://dl.crystaldew.info/download/CrystalMark2004R3.zip

Naja jetzt ist es mit Benchmarks immer so ähnlich wie der berühmte Spruch über die Statistiken, aber als sehr grobe Einordnung kommt das schon hin. Man kann sich auch noch die Sätze aus dem CN Paper ins Gedächtnis zurückrufen:

Utilize the newest advances in processor architecture. Unlike the Intel Core 2 processor designs, which have continually evolved over the last 15 years starting with the Pentium Pro design, the VIA Isaiah Architecture was designed from scratch over the last four years.
Accordingly, it is optimized for latest advances in processor architecture and is specifically
designed to support modern application requirements.

For example, the architecture was built around the 64-bit instruction set and the new virtual
machine functions as opposed to these features being an add-on to an older, lower-function, architecture. As a result, the performance of a VIA Isaiah processor in 64-bit mode has no restrictions or limiting special cases as it does in some other architectures.
Die CPU hat da alles wohlüberlegt eingebaut, das ist kein Herumdoktern an Symptomen, sondern ein grundlegendes Neudesign unter Berücksichtigung des Hauptkriteriums Stromsparen.

Micro/Makro Op Fusion laufen auch unter 64bit, dazu gibts auch noch nen eingebauten Cryptoteil & Virtualisierung. Der Kern wäre meiner Meinung nach wirklich perfekt als Grundlage für eine stromsparenden Mehrkern CPU mit dem Zielsegment Webserver.

ciao

Alex
 
Zuletzt bearbeitet:
>Die CPU hat da alles wohlüberlegt eingebaut, das ist kein Herumdoktern
>an Symptomen, sondern ein grundlegendes Neudesign unter Berücksichtigung
>des Hauptkriteriums Stromsparen.

Wie man diesen sinnleeren Worthülsen nur immer wieder auf den Leim gehen kann.
Wir haben 2003 für meine ehemalige Firma ein 10-Zoll-Laptop mit Via C3-Prozessor gekauft und wollten es damals als Ersatz für den JVC XP3210 einsetzen.
http://www.xonio.com/artikel/Test-JVC-MP-XP-3210_30595460.html
Angaben zur Entstehungsgeschichte des Via C3:
http://www.computerbase.de/lexikon/VIA_C3

Die C3 CPU konnte nicht mal annähernd mit einem Celeron(Pentium IIIM-Kern in 130nm) mit 650MHz mithalten - das Gerät war ein totaler reinfall, der Lüfter ging andauernd, bei gleicher Akkukapazität wie das JVC-Gerät lief der Via C3 2Std., der Celeron 650MHz 4Std.

Dann machen wir weiter bei der Demontage und knöpfen uns den Via C7 vor:
http://www.epiacenter.com/modules.php?name=Content&pa=showpage&pid=88&page=7
Hier wird der Geode NX 1500@6W mit 1.0GHz getestet.
AMD GeodeNX DB1500
Looking at the benchmarks earlier it becomes obvious that AMD's Geode NX is a very potent processor and it easily beats out VIA's C7 CPU. The memory performance is also excellent so there's little else to be desired for in terms of raw performance.

Dann noch was zu der wirklich hervorragenden Auswahl des CrystalMarks -> Marketing Nebelkerzen at its best. Isaiah ist eine InOrder-CPU - der CrystalMark testet mit einer simplen Schleife mit einer Multiplikation und einer Addition im Rumpf - wieso bringen die keinen SuperPi-Score? Weil der unter aller Sau wäre.

Last but not least ein kleiner Blick in die Dreambox DM7025 und eine Begründung dafür warum ich ziemlich positiv in Puncto Fusion bin (siehe Anhang).
Der Xilleon ist ein komplettes System On Chip, es ist passiv gekühlt beinhaltet eine MIPS 300MHz-CPU. Das Ding verzichtet sogar auf einen Kühlkörper.
http://ati.amd.com/products/settopwonderxilleon/features.html

Was ATI +AMD alles hat:
Ein Kern der effizient ist -> er wurde immer effizienter -> K7 -> K8 -> Griffin
Ein Kern mit Wurzeln aus dem Hause National Semiconductor -> Geode LX (ist aber absolut low Power und müsste mittlerweile auch komplett abgehängt worden sein)
Breites Portfolio im Bereich SoC:
AMD/National Semi -> http://de.wikipedia.org/wiki/Geode_(Prozessor)#Geode_LX
ATI -> das know how aus der Xilleon-Serie http://www.planet3dnow.de/vbulletin/showthread.php?t=314923
AMD bringt mittlerweile sehr viel Erfahrung im Bereich Uncore@Full-Processor-Speed mit
ATI -> Northbridge- & Southbridge-Entwicklung
ATI - HighEnd-Grafikkarten und sehr gute IGP-Chipsätze
ATI - knowhow aus der Entwicklung für die XBox360- und Nintendo-Wii-Grafikchips (Einbindung von eDRAM in XBox360 & 1T-SRAM in die Wii)
ATI - low-Voltage-Graphics -> Imageon 2300 http://ati.amd.com/products/imageon2300/

Grüße,
Tom
 
Zuletzt bearbeitet:
>Die CPU hat da alles wohlüberlegt eingebaut, das ist kein Herumdoktern
>an Symptomen, sondern ein grundlegendes Neudesign unter Berücksichtigung
>des Hauptkriteriums Stromsparen.

Wie man diesen sinnleeren Worthülsen nur immer wieder auf den Leim gehen kann.
Wir haben 2003 für meine ehemalige Firma ein 10-Zoll-Laptop mit Via C3-Prozessor gekauft und wollten es damals als Ersatz für den JVC XP3210 einsetzen.
http://www.xonio.com/artikel/Test-JVC-MP-XP-3210_30595460.html
Angaben zur Entstehungsgeschichte des Via C3:
http://www.computerbase.de/lexikon/VIA_C3

Die C3 CPU konnte nicht mal annähernd mit einem Celeron(Pentium IIIM-Kern in 130nm) mit 650MHz mithalten - das Gerät war ein totaler reinfall, der Lüfter ging andauernd, bei gleicher Akkukapazität wie das JVC-Gerät lief der Via C3 2Std., der Celeron 650MHz 4Std.

Dann machen wir weiter bei der Demontage und knöpfen uns den Via C7 vor:
http://www.epiacenter.com/modules.php?name=Content&pa=showpage&pid=88&page=7
Hier wird der Geode NX 1500@6W mit 1.0GHz getestet.


Dann noch was zu der wirklich hervorragenden Auswahl des CrystalMarks -> Marketing Nebelkerzen at its best. Isaiah ist eine InOrder-CPU - der CrystalMark testet mit einer simplen Schleife mit einer Multiplikation und einer Addition im Rumpf - wieso bringen die keinen SuperPi-Score? Weil der unter aller Sau wäre.

Last but not least ein kleiner Blick in die Dreambox DM7025 und eine Begründung dafür warum ich ziemlich positiv in Puncto Fusion bin (siehe Anhang).
Der Xilleon ist ein komplettes System On Chip, es ist passiv gekühlt beinhaltet eine MIPS 300MHz-CPU. Das Ding verzichtet sogar auf einen Kühlkörper.
http://ati.amd.com/products/settopwonderxilleon/features.html

Was ATI +AMD alles hat:
Ein Kern der effizient ist -> er wurde immer effizienter -> K7 -> K8 -> Griffin
Ein Kern mit Wurzeln aus dem Hause National Semiconductor -> Geode LX (ist aber absolut low Power und müsste mittlerweile auch komplett abgehängt worden sein)
Breites Portfolio im Bereich SoC:
AMD/National Semi -> http://de.wikipedia.org/wiki/Geode_(Prozessor)#Geode_LX
ATI -> das know how aus der Xilleon-Serie http://www.planet3dnow.de/vbulletin/showthread.php?t=314923
AMD bringt mittlerweile sehr viel Erfahrung im Bereich Uncore@Full-Processor-Speed mit
ATI -> Northbridge- & Southbridge-Entwicklung
ATI - HighEnd-Grafikkarten und sehr gute IGP-Chipsätze
ATI - knowhow aus der Entwicklung für die XBox360- und Nintendo-Wii-Grafikchips (Einbindung von eDRAM in XBox360 & 1T-SRAM in die Wii)
ATI - low-Voltage-Graphics -> Imageon 2300 http://ati.amd.com/products/imageon2300/

Grüße,
Tom

1. Frage:
Wen interssiert der C3 und was hat das mit dem CN zu tun ?

2. Frage:
Wen interssiert der C7 und was hat das mit dem CN zu tun ?

3. Frage:
Wen interessiert das uralt Cyrix Geode Design und was hat das mit CN zu tun ? Intern sind die einzelnen Funktionseinheiten per PCI (der ohne "e") Bus verbunden ... grottig ...
Die neueren Geodes sind umbenannte K7 auch nicht wirklich modern .. 64bit, Virtualisierung, SSE2, Crypto Engine ...?

4. Irgendwo stand, dass der CN SuperPi auf P3 Niveau schaffen würde, hab ich heute irgendwo gelesen, link ist sicherlich noch im Cache, aber bin jetzt zu müde zum suchen ^^
Ernstgemeinte Frage: Wäre P3 Niveau (bei 1 GHz) "unter aller Sau" ?

5. Hinweis:
Isaiha / CN ist nicht inOrder .. les mal wenigstens das whitepaper, link gabs doch sicherlich schon mal hier, falls nicht:
http://www.via.com.tw/en/downloads/whitepapers/processors/WP080124Isaiah-architecture-brief.pdf

Also wenn Du das nicht gelesen haben solltest, hast Du wohl was mit den alten (und sicherlich lahmen) C3/C7 Designs verwechselt, keine Frage, die sind sowas von uninteressant .... aber damit hat der CN halt nichts mehr zu tun, abgesehen vom FSB :)

Die restlichen Punkte mit Ati stimmen natürlich, bin auch schon auf den Fusion/Swift gespannt, aber hier gings ja um den AMD Part ;-)

ciao & gute Nacht

Alex
 
Wann wurde das letzte mal ein x86-Kern auf der grünen Wiese gebaut, der wirklich erfolgreich war?
Netburst -> wir wissen was damit passiert ist
Silverthorne -> wir werden sehen was damit passiert
Der AMD-Kern wird seit etlichen Jahren nur evolutionär weiterentwickelt,
genau so wie der Pentium 3-Kern - der Schritt von Core zu Core 2 war
genial aber auch nur evolutionär.

Die Leistungsfähigkeit eines Prozessors wird immer direkt auch von der Leistungsfähigkeit seines Unterbaus beeinflusst - warum meinst du sind wir bei den heutigen Penryns bei FSB1600. VIA hat eine FSB-Lizenz bis FSB533 *noahnung* *lol* :-/

Dann rutscht der Launch schon jetzt nach hinten, am 24. Januar heisst es noch:
http://www.tech2.com/india/news/cpus/via-to-launch-isaiah-core/27041/0
plans to launch its next-generation of processors based on the 'Isaiah' core sometimes in the first quarter of this year

Als nächstes heisst es:
http://www.techspot.com/news/29544-via-isaiah-cpu-misses-first-quarter-launch.html
VIA Isaiah CPU misses first quarter launch

Ich wundere mich wieso HP seinen UMPC mit einer VIA C7-CPU startet, wenn doch Isaiah kurz vor der Fertigstellung steht. Ich muss mir im moment das Marketingpapier nicht durchlesen - kreative Praktikanten können solche Dinge auch nett zusammenschreiben, so lange hier nur ein CrystalMark-Score nach draussen dringt ist das einfach nur lächerlich.

Grüße,
Tom
 
Wann wurde das letzte mal ein x86-Kern auf der grünen Wiese gebaut, der wirklich erfolgreich war?
Netburst -> wir wissen was damit passiert ist
Silverthorne -> wir werden sehen was damit passiert
Der AMD-Kern wird seit etlichen Jahren nur evolutionär weiterentwickelt,
genau so wie der Pentium 3-Kern - der Schritt von Core zu Core 2 war
genial aber auch nur evolutionär.

Die Leistungsfähigkeit eines Prozessors wird immer direkt auch von der Leistungsfähigkeit seines Unterbaus beeinflusst - warum meinst du sind wir bei den heutigen Penryns bei FSB1600. VIA hat eine FSB-Lizenz bis FSB533 *noahnung* *lol* :-/

Dann rutscht der Launch schon jetzt nach hinten, am 24. Januar heisst es noch:
http://www.tech2.com/india/news/cpus/via-to-launch-isaiah-core/27041/0


Als nächstes heisst es:
http://www.techspot.com/news/29544-via-isaiah-cpu-misses-first-quarter-launch.html


Ich wundere mich wieso HP seinen UMPC mit einer VIA C7-CPU startet, wenn doch Isaiah kurz vor der Fertigstellung steht. Ich muss mir im moment das Marketingpapier nicht durchlesen - kreative Praktikanten können solche Dinge auch nett zusammenschreiben, so lange hier nur ein CrystalMark-Score nach draussen dringt ist das einfach nur lächerlich.

Grüße,
Tom



Und ein FSB von 533 kann reichen mein "alter" Pentium M hat sogar nur einen FSB von 400 MHZ. Und soll die neue CPU von Via schnell sein oder stromsparend ich glaube doch eher letzteres und da reicht der FSB für eine moderate Leistung mehr als aus.

Wieso HP den C7 benutzt? Frag HP vielleicht wollen sie nicht bis zum Launch warten gab es bei anderen CPUs von AMD und Intel auch da wurde auch die ältere Generation in neuen Geräten verbaut.

Das du das Papier lächerlich findest kann ich nicht verstehen auch hier gilt bei anderen Herstellern ist das nicht anders jeder versucht seine CPU im besten Licht zu präsentieren. Man sollte dabei misstrauisch bleiben aber lächerlich ist was anderes.

Und hin und wieder versprechen die Hersteller auch was sie sagen. Oder fandest du das auch beim A64 lächerlich?

SO wie du AMD verteidigst glaube ich das weniger.
 
Geht es hier um den Fusion oder um den Teil den AMD dazu beiträgt? Okay nach der Übernahme wären es beide Teile^^

Aber bei einem Chip wie Fusion kommt es doch nicht auf Super Graka oder CPU Leistung an, sondern auf ein gutes Gesamtpaket. Möglichst viel (ausgeglichene) Leistung bei wenig Stromverbrauch. Und da hat AMD mit der Mobil- und Onboarderfahrung von ATi einen großen Vorteil.

Wie AMD, Via, Nvidia usw. das Ganze umsetzen werden bleibt einfach abzuwarten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten