News AMD zeigt den Ontario auf der IFA 2010

Ja klar...Office-Kram, aber damals wie heute lief das immer. Dafür hat man sich keine neue CPU geholt...Grund dafür waren Spiele und andere CPU-lastige Anwendungen. ...
Überlegen wir dann mal antithetisch: Warum überhaupt selbst beim Ontario einen skalaren Dualcore mit reduziertem Vektorinstruktionensatz, wenn die GPU doch so prima Rechenpower hat?

Das gilt auch für den Llano. Warum vier nochmals aufgebrezelte K10,5-Kerne, wo doch hier womöglich eine mächtige GPU integriert ist. Ja warum denn überhaupt noch skalare Integer-Prozessorkerne, wenn das alles doch über eine GPU laufen könnte?

Klar gibt's immer irgendwo Ints mit drin...aber wäre der Anteil relativ hoch (gewesen), hätten die AMDs wohl nicht so deutlich zurückgelegen.
Definiere bitte deutlich. Seinerzeit war der K6 233 auf Augenhöhe mit dem Pentium, PentiumPro und ersten Pentium II ... allerdings mit der Ausnahme von damals modernen Spielen.

IBM und Sun hatten/haben es wohl kaum auf Spieler usw. abgesehen...hier ist doch das Hauptaugenmerk die Server-Anwendung. Dass bei Datenbanken z.B. vorwiegend Ints gefragt sind, ist klar.
Upsala, die Rechnerwelt besteht doch nicht nur aus Spielen, sondern benötigen auch noch Ballast wie Betriebssysteme und Datenbanken ... wie tragisch.

MFG Bobo(2010)
 
Willst du mich veralbern?

Natürlich kann die GPU nicht alles machen, dafür ist sie gar nicht ausgelegt...Stichworte Anpassung und massive Parallelität.

Bei heise geht übrigens nicht klar hervor, was mit Performance-Krone gemeint ist...evtl. ist hier einfach nur das Prestige-trächtige MHz-Rennen gemeint.

Ein 233er K6 hat bei Ints vll die Nase vorn, sieht aber bei Floats absolut kein Land gegen den Rest...und wer außer die Leute, die diese Leistung brauchen (z.B. Spieler, aber auch wissenschaftliche Software u.ä.), sollte überhaupt jemals die aktuell schnellste CPU haben?

Der Vergleich zu Sun/IBM ist da total unangebracht, weil es keine K6 Server gab und ein normales Heim-System das OS geladen hat und dann war Sense...da hat die CPU wieder geidlet...bis das Office-Programm gestartet wurde...dann hat er wieder geidlet, das Schreiben von Texten juckt sie gar nicht. Vll ein paar Diagramme in Excel, aber das macht der Heim-Nutzer auch nicht den ganzen Tag.
 
Willst du mich veralbern?
Nein, ganz und gar nicht.

Bei heise geht übrigens nicht klar hervor, was mit Performance-Krone gemeint ist...evtl. ist hier einfach nur das Prestige-trächtige MHz-Rennen gemeint.
Nein, es geht nicht nur um MHz. Leider hat Heise eine ganze Reihe an Meldungen und Diagrammen in den Bezahlbereich geschoben, so dass ich dir keine Benchmarks mehr verlinken kann

Der Vergleich zu Sun/IBM ist da total unangebracht, weil es keine K6 Server gab und ein normales Heim-System das OS geladen hat und dann war Sense ...
1. Hat Sun kurzweilig K6 Server gehabt (durch einen Aufkauf eines kleinen Serverherstellers).

2. Der Hinweis mit SUN und IBM ist vollauf berechtigt, weil es jede Menge Code jenseits von Spielen gibt -> Betriebssysteme ... und selbst Spiele nutzen nach wie vor vorwiegend keine FPU-Anweisungen.
Wer Spiele entwickelt und programmiert kann mich an dieser Stelle gerne belehren, was heutzutage so üblich ist.

MFG Bobo(2010)
 
1. Hat Sun kurzweilig K6 Server gehabt (durch einen Aufkauf eines kleinen Serverherstellers).

Was sollen das für Server gewesen sein? Der K6 war ja nichtmal Multi-CPU-fähig. Ich hab auch noch nie entsprechende Hardware für S(S)7 gesehen außer z.B. Dualsockel-Boards...logischerweise nur für Pentiums.

2. Der Hinweis mit SUN und IBM ist vollauf berechtigt, weil es jede Menge Code jenseits von Spielen gibt -> Betriebssysteme

Das OS ist geladen und dann Idle...super.

... und selbst Spiele nutzen nach wie vor vorwiegend keine FPU-Anweisungen.
Wer Spiele entwickelt und programmiert kann mich an dieser Stelle gerne belehren, was heutzutage so üblich ist.

Ich kann's nur so sagen, wie ich es selber schon zigfach gesehen habe in Spielen, Benches usw. Übrigens lief das ganze T'n'L damals auch noch auf der CPU und das waren garantiert komplett Floats.
 
Was sollen das für Server gewesen sein? Der K6 war ja nichtmal Multi-CPU-fähig. Ich hab auch noch nie entsprechende Hardware für S(S)7 gesehen außer z.B. Dualsockel-Boards...logischerweise nur für Pentiums. ...
http://en.wikipedia.org/wiki/Cobalt_Qube

Merke: Nur weil man noch etwas nie gesehen, gelesen und gehört hat, kann es dennoch Dinge und Sachverhalte geben.

PS: Einen Exoten habe ich noch: SunPCi AMD K6-2 400 MHz Prozessorboard (PDF)

Ich kann's nur so sagen, wie ich es selber schon zigfach gesehen habe in Spielen, Benches usw.
Was hast du genau gesehen? Die Auslastung der Funktionseinheiten und Aufrufe von Befehlen? Oder doch nur Frameraten?

Übrigens lief das ganze T'n'L damals auch noch auf der CPU und das waren garantiert komplett Floats.
Ich sehe da keinen Widerspruch zu meinen Aussagen. Ich bestreite ja nicht, dass es gleitkommlastige Programme gibt. Meine These ist aber, dass auch heute die meiste Software skalare Integer-Befehle nutzt. Dabei stütze ich mich auf Aussagen von IBM und SUN-Entwickler, bei der Frage wie bedeutend heute noch die "normalen" klassischen Rechenkerne (also skalare Integer-Einheiten) sind.

Datenbanken und Betriebssysteme, aber auch klassische Office-Software (inklusive ganzer dahinter liegenden Applikationswelten) nutzen kaum Gleitkommabefehle.
Das mag sich zwar langsam ändern, aber ist noch ein weiter Weg.

Und darum ist der Ontario und Llano eine Mischung aus beiden Welten, nur sehr kompakt und hochintegriert.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Ah doch...den Cube hab ich schonmal gesehen...hättest mal gleich ein Foto gezeigt. Leider steht da nichts zur Verwendung...wird wohl aber nur ein kleiner File-/Datenbank-Server für kleine Netzwerke sein. Bei den Servern meinte ich eigentlich auch eher die großen Dinger und nicht sowas, was man sich quasi alleine Basteln kann.

Frameraten...Berechnungsdauer...was sonst? Das andere interessiert den Endanwender ja auch nicht. Wenn's nicht von der INt-Leistung kommt, kann's ja nur von der Float-Leistung kommen...vor allem wenn im Vergleich P54C, bzw. P55 das sonstige System gleich ist.

Bei IBM/Sun bist du doch aber gerade an der Stelle, wo man eben keine Float-lastige Software einsetzt...da ist es doch klar, dass die dir sowas sagen.

Dass OS, DB und Office-Anwendungen vorwiegend Int-lastig sind, habe ich doch gar nicht bestritten, ich hab's sogar selber gesagt! Nut ein OS erzeugt keine Last mehr, wenn es geladen ist, genauso Office außer bei der Erzeugung von Graphen/Diagrammen vll. Spiele oder wissenschaftliche Rechnungen hingegen lasten dir die ganze Zeit das System aus. Wegen zweiterem hatte AMD zu der Zeit bei den Workstations auch ganz schlechte Karten (jetzt mal vom so und so fehlendem Fuß in der Tür abgesehen).


Das ist ein normales Prozessor-Board, wie man sie auf Backplates steckt...gibt es quasi für jede x86er CPU, sicher auch für non-x86er. Hab davon auch noch mehrere. Das hat nichts mit "Server" zu tun.
 
Dein Einwand war auch, ob denn Sun überhaupt Server(produkte) auf Basis eines K6-Prozessor jemals hatte. Und da war meine Antwort ja - Nimms einfach hin, es tut auch nicht weh.

Abgesehen davon:
... Das ist ein normales Prozessor-Board, wie man sie auf Backplates steckt...gibt es quasi für jede x86er CPU, sicher auch für non-x86er. Hab davon auch noch mehrere. Das hat nichts mit "Server" zu tun.
Ist es nicht. Voraussetzung ist Solaris, idealerweise mit Suns SPARC-Hardware.

Möglicherweise funktioniert die Karte auch anderswo, aber die Berichte lassen darauf nicht schließen.

... Bei IBM/Sun bist du doch aber gerade an der Stelle, wo man eben keine Float-lastige Software einsetzt...da ist es doch klar, dass die dir sowas sagen. ...
Kann man so nicht sagen. Ich hatte die Tage doch noch mein Star Office 9 auf den aktuellesten Stand gebracht und da war tatsächlich ein Reiter enthalten mit dem Namen "Hardwarebeschleunigung". Ob es nun die GPU war, oder einfach eine angepasste Multicore-Funktionalität, oder SSE3 ... keine Ahnung. Jedenfalls startete es flink wie sonst jemals zuvor.

Es gibt also auch bei OpenOffice/Star Office die Möglichkeit mit moderner CPU/GPU-Hardware klassische integerlastige Software zu beschleunigen. Aber auch hier sehe ich keinen Widerspruch zu meiner vorherigen Aussage. Es bestätigt im Grunde genommen noch den "Software-Altbestand" mit Legacy-Code, auch im Jahr 2010.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Ich hab's doch hingenommen...hab ja sogar gesagt, dass ich den Cube schonmal gesehen hab. Trotzdem habe ich eher große Kisten gemeint. So einen kleinen Server kann man sich auch selbst bauen aus normaler SS7 Hardware...ich bezweifle, dass der schlechter läuft.

Es ist ein normales PC-Board...der Connector schränkt vll die Verwendung in einem System ein, aber ändert sonst nichts daran. Steht sogar in deinem Link...man braucht kein Solaris, denn das Teil ist dafür vorgesehen WIndows drauf laufen zu lassen, damit man von seiner Solaris-Workstation aus auf ein Windows zugreifen kann und da was testen kann o.ä. Es ist Als PC-Board konzipiert, damit man keinen extra Rechner hinstellen muss.
 
Um mal wieder auf die eigentliche Frage zurück zu kommen:

Der K6 hatte damals in Spielen so schlechte Karten, da damals viele der 3D Berechnungen auf der CPU ausgeführt wurden, welche tatsächlich FPU Leistung ohne Ende brauchen. Mit Einführung der GeForce Karten und damit verbundenem Hardware T&L haben sich diese Sachen allerdings auf die Grafikkarte verlagert.

Das heißt der von der CPU auszuführende Floatingpoint Code in heutigen Spielen ist seit damals eher stark rückläufig. Die meiste Arbeit wird tatsächlich in den Integereinheiten erledigt. Genauso wie das Betriebssystem im Kernel nur mit Int-Code arbeitet, dort ist FPU Code sogar verboten, da er die Kontextwechsel stark verlangsamt. Und ein BS ist mitnichten "geladen und dann idle", jedes mal wenn ein Programm Speicher anfordert muss das BS arbeiten, genauso bei Interrupts, Datenübertragen von der Hardware in den RAM, usw., da gibt es noch tausende Beispiele. Und das alles ist Integercode.
 
Hatte ich doch geschrieben @T'n'L.

Mit Idle ist ja auch nicht gesagt, dass absolut gar nichts passiert, aber eben fast nichts...der Taskmanager und die Temperatur bestätigen das ja. Dafür brauch man nicht die schnellste CPU am Markt...auch damals nicht.
 
Hatte ich doch geschrieben @T'n'L.

Mit Idle ist ja auch nicht gesagt, dass absolut gar nichts passiert, aber eben fast nichts...der Taskmanager und die Temperatur bestätigen das ja. Dafür brauch man nicht die schnellste CPU am Markt...auch damals nicht.
Es ändert aber nichts daran, dass Betriebssytem-Kernels nach wie vor reinstes unverfälschtes Integer-Gedöns ist.

Und es ändert auch nichts daran, dass jede Betriebssystem Grundfunktion nach wie vor benötigt wird für jegliche Art von Softwareverwaltung.

Und jetzt halte dich nicht am K6 fest, das gilt auch für den Llano und Ontario: ->
... jedes mal wenn ein Programm Speicher anfordert muss das BS arbeiten, genauso bei Interrupts, Datenübertragen von der Hardware in den RAM, usw. ...
@Lynxeye THX ;)

Nimms einfach zur Kenntnis KIDH, das relativiert die Wichtigkeit von Gleitkomma-Rechenpower. Bzw. erklärt weswegen AMD und Intel nach wie vor Wert darauf legen auch die klassischen Prozessorkerne in der Rechenleistung zu steigern.

-> Wer schneller rechnet, der kann sich auch schneller zur Ruhe legen. Das ist das Mantra von Intel seit dem Nehalem ... und voraussichtlich wird auch AMD das so machen (Turbocore/Turboboost).

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Dem allem widerspreche ich doch gar nicht...nur am Idlen bzw. an der Kerntemperatur sieht man genau das, was ich meine...diese Aufgaben vom OS sind so gering, dass es vollkommen egal ist ob man nun die schnellste oder eine der langsamsten CPUs hat, die grad verkauft werden...beide Schaffen diese Aufgaben in völlig annehmbarer Zeit.

Wenn du einen Prozessor mit einem OS auslasten willst, musst du ganz andere Sachen auffahren...z.B. Windows XP auf 8 MHz...da verbringt die CPU wirklich die ganze Zeit mit dem OS.

Um eine CPU auszulasten brauchst du auch heute Spiele, Videocodierung, wissenschaftliche Berechnungen usw.

Ich habe übrigens niemals gesagt, dass eine CPU nutzlos ist und gleich durch eine GPU ersetzt werden kann...ich habe dem sogar begründet wiedersprochen...also dichte mir sowas nicht an.

Um nochmal zurückzuschauen, die ganze DIskussion beruht auf dieser Aussage von dir:

Nein, selbst heute wird vorwiegend Ganzzahlberechnung benötigt.

"Gleitkommaberechnungen" im alten Stil werden an sich auch kaum noch gebraucht, es sei denn man ist Nvidia und frickelt etwas zusammen für PhysX, oder hat schon alten Programmcode, der "gut genug" ist.

Und das stimmt so nicht...siehe Spiele (ja auch ohne T'n'L gibt es noch genug Float-Berechnungen, z.B. Physik), Distributed Computing, Videosachen. Für die letzten beiden gibt es entweder nicht immer die Möglichkeit, es auf GPU zu verlagern oder aber die Arbeit hat sich bis jetzt niemand gemacht.
 
ct berichtet von Zacate, Ihr schreibt explizit das ein Board mit Ontario gezeigt wurde.

In http://www.planet3dnow.de/vbulletin/showpost.php?p=4286589&postcount=1677 wird aber wieder geschrieben das es ein Zacate war.

Bitte mal Butter bei die Fische: Habt ihr nur irgendwo abgeschrieben oder habt ihr selbst die Aussage erhalten das ein Ontario auf dem Board war?
 
Die Aussage ein Betriebssystem erzeugt keine Last mehr, wenn es geladen ist stimmt aber einfach nicht. Ich durfte vor vor einigen Tagen einem Performanceproblem auf den Grund gehen, bei dem das Programm unerklärliche Slowdowns hatte. Das Problem war das eine Programmfunktion oft aufgerufen wurde, die vom BS viel Arbeit erfordert und deswegen über 60% der Rechenleistung im Kernel verbraten wurde. Und da Float im kernelspace verboten ist, waren diese 60% reine Integerberechnungen.


Um noch ein paar Beispiele zu bringen: selbst wenn wie bei einigen DC Sachen die effektive Berechnung nur mit Floats erfolgt, braucht man trotzdem einen Haufen Zählvariablen, Speicherverwaltung, Dateizugriffe usw, das sind alles reinrassige Intergeroperationen.
 
Das ist dann aber auch eine böse Ausnahme...ein Programmfehler etc. Die ganzen Zähler usw ist klar...nur dürften die ziemlich schnell abgearbeitet sein im Vergleich zu den Floats.

BTW: Wer sein System schonmal mit einem enstrechenden Tool wie ProcessMonitor angeschaut hat, weiß, dass da eine Menge passiert, auch wenn der Rechner vermeintlich nichts macht...hunderte von Sachen pro Sekunde. Trotzdem...man sieht ja am Taskmanager udn an der Temperatur, dass das nicht mal 1% der abrufbaren Leistung ist.
 
Ui, nun endlich ein Prozzi im Schlüsselanhänger format, ich glaube, ich werde einen erwerben, nur um ihn am Schlüssel zu binden :D
Greetz
 
Ich vermute aber einfach mal, dass der 32nm Prozess hakt und daran noch gfeilt werden muss...oder?

die Lliano Technologie ist auch deutlich komplexer zu z.B. Clarkdale.
a) HK
b) neues Prozessor Design
c) integrierte GPU bei immer noch Quadcore
d) 32nm

klar das da erstmal gefeilt werden muss.
Zudem wird es Wegweisend für andere größere und schnellere Projekte sein.

Wie damals schon geschrieben, sind das nun die Ausläufer einer Kündungswelle in USA und der Kurzarbeit im Deutschen Werk. Diese verlorene Zeit kann man nicht einfach wieder aufholen.
Erst Recht nicht, wenn man eigentlich nach viele viele weitere Produkte (nicht AMD) fertigen will.
 
Zuletzt bearbeitet:
... BTW: Wer sein System schon mal mit einem enstrechenden Tool wie ProcessMonitor angeschaut hat, weiß, dass da eine Menge passiert, auch wenn der Rechner vermeintlich nichts macht...hunderte von Sachen pro Sekunde. Trotzdem...man sieht ja am Taskmanager udn an der Temperatur, dass das nicht mal 1% der abrufbaren Leistung ist.
Mit so etwas hat man keinen Überblick, wie der Anteil von Gleitkomma-Operationen zu Integer-Berechnungen ist. Viel zu grob, als ob man mit einer Mistgabel Nudeln aufwickeln will.

Zur Analyse was wie und wo was geschieht eignen sich eher Tools wie Suns Studio für Solaris und Linux. So etwas sollte es doch auch für x86-Programmumgebungen geben?!

Und genau über diese Ebene hatte ich mich mit IBM- und Sun-Repräsentanten ausgelassen und ausgetauscht.

MFG Bobo(2010)
 
Es ging mir nicht darum festzustellen ob dabei alles Int-Operationen sind...bei den durchgeführten Aktionen nehme ich das aber mal stark an. Es ging darum, dass das OS ne Menge macht, auch im Leerlauf, aber trotzdem nahezu keine CPU-Last erzeugt.
 
Es ging mir nicht darum festzustellen ob dabei alles Int-Operationen sind ...
Aber darum gings im Kern der Streits. Der Anteil von skalaren Integerberechnungen bei Computern ist, nach Meinung von IBM- und Sun-Experten, immer noch hoch und vorrangig.

Ja existenziell ist das sogar im Kern von Betriebssystemen, aber das war nur ein Beispiel.

MFG Bobo(2010)
 
Ich glaube, wir drehen uns im Kreis...die Antwort darauf hatte ich schon viel weiter oben geschrieben. -> Server-seitig mag das stimmen, vor allem wenn es um Datenbanken, eine hohe Anzahl an Abfragen über den TCP/IP Stack, viele Operationen im Dateisystem (möglichst "gleichzeitg") usw. geht...(Privat-)Nutzer-seitig aber nicht...da spielen IBM, Sun/Solaris (Oracle) auch quasi gar keine Rolle.

Und wie schon geschrieben...diese Operationen werden wohl größtenteils Int-Operationen sein, also ist es egal ob es mir dabei um die Ints oder um die Auslastung ging.
 
Tja, damit wir das Thema irgendwann mal abschließen können werde ich wohl heute Abend mal ein Boinc Lauf profilen, damit wir sehen, ob auch bei Floatlastigen Anwendungen noch ein signifikanter Anteil Integeroperationen dabei ist.

KIDH: Irgendwelche Projektvorschläge? Das aktuelle RNA@home mit seiner Suche scheint mir auch eher Intlastig. Hast du ein konkretes Projekt im Kopf, von dem bekannt ist, dass es Floatleistung frisst?
 
Zurück
Oben Unten