News Intel Themenabend: Nachbereitung

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Zum mittlerweile vierten Mal konnte Planet 3DNow! Vertreter der Intel Deutschland GmbH im Forum zu einem <a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=198">Themenabend</a> begrüßen. Und trotz des guten Wetters und relativ frühen Zeitpunktes für einen Themenabend wurden zahlreiche Fragen gestellt, die von Thomas Kaminski, Olaf Höhne, Frank Kuypers und Christian Anderka beantwortet wurden. Nachfolgend wollen wir ein paar der Aussagen kurz zusammenfassen.

<strong>Prozessoren</strong>
<blockquote>
<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=365116">D0-Stepping des Core i7 </a>
"performanceseitig sollte es keine Unterschiede geben. Im Spec-Update kann man genau Änderungen verfolgen."

<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=365132"> Intel Turbo Boost: Hauptvorteil ?</a>
"TurboBoost verbindet 2 Vorteile:

1a) Zum einen kann ich durch die gesteigerte Frequenz Programme beschleunigt, die heute noch nicht von mehreren Kernen durch Multithreading profitieren können.
1b) Auch bei Last auf allen Kernen kann eine Nehalem CPU in der Regel den Takt über kürzere Strecken nach oben nehmen, da selten alle Ausführungseinheiten einer CPU unter Last stehen und wir daher meist immer noch "Luft nach oben" haben.
2) Vor allem im Notebook Bereich hat sich herausgestellt, dass man Energie spart, wenn man nach dem HUGI Prinzip arbeitet: Hurry Up and Get Idle - Sprich.. arbeite Deine Aufgabe so schnell wie möglich ab und gehe dann so tief wie möglich schlafen und nimm noch möglichst viele andere Systemkomponenten mit schlafen (Speicher, usw.)"

<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=365135">Neue CPUs für den Sockel 775? </a>
"CPUs für den Sockel 775 wird es auch in 2010 noch geben.
Der Fokus bei Innovationen wird aber auf der neuen Plattform mit Nehalem-CPUs liegen.
Der schnellste Low-Power Quad-Core für LGA775 ist der Q9550s - da sind momentan keine Änderungen in Sicht."

<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=365118">Atom Prozessor auch für Desktop?</a>
"Atom im Desktopbereich läuft unter dem Nettop. Hierzu gibt es schon viele Angebote. Wie Du richtig sagst gibt es hier ja auch schöne Anwendungsfelder. So ist z.B. der Bereich AIO (All-In-One) mit Atom auch sehr interessant. Insbesondere um AIO zu geringeren Preisen anzubieten."
</blockquote>

<strong>Chipsätze</strong>
<blockquote>
<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=365123">Wann gibts EFI für alle</a>
"Intel strebt für UEFI eine höhere Verbreitung an und wir gehen davon aus, dass zukünftig immer mehr System auf dem neuen BIOS Framework basieren werden.
Allerdings muss man auch sehen, dass es nicht leicht ist, eine Code-Basis zu erneuern die über Jahrzehnte gewachsen ist.
Die gute Nachricht ist also: UEFI wird kommen - aber es dauert halt oft länger als man denkt."

<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=365183">Lebensdauer LGA1366 und LGA1156?</a>
"ja, der Sockel LGA775 kommt nun langsam in die Jahre. Zwar ist ein Ende auch in 2010 nicht abzusehen, aber Innovationen werden auf neuen Plattformen passieren und z.B. Nehalem CPUs brauchen einen neuen Sockel (eben LGA1366 oder LGA1156).
Wir werden auch nach Vorstellung der neuen Lynnfield-Plattformen weiterhin LGA1366 bei High-End Desktop, bei Workstations und bei Servern anbieten. Der LGA1366 Sockel erlaubt drei Speicherkanäle. Lynnfield wird "nur" zwei haben. Die Gerüchte zur Performance von Lynnfield sind sehr vielversprechend, aber mit dem dritten Speicherkanal werden spezielle Speicherbandbreiten-intensive Tests (etwa SPEC_fp) auf LGA1366 schneller sein."
</blockquote>


<strong>Sonstiges</strong>
<blockquote>
<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=365152">AMD & Intel Zusammenarbeit - Physikberechnung (Havok ...)</a>
"Havok wurde zwar von Intel aufgekauft, agiert aber als eigenständiges Unternehmen, das mit ATI/AMD zusammenarbeitet."

<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=365144"> Langfristig - was dürfen wir erwarten? </a>
"2009 haben wir also einen Tick auf 32nm, damit kommen also nach unserem Plan 2011 die 22nm CPUs)
Woran wir forschen sind bspw. optische Leiter und kabellose Stromübertragung. Wann diese Lösungen serienreif sein werden ist aktuell schwer einzuschätzen, ob das erst 2020 der Fall sein wird. Generell geht der Trend sicherlich ungebrochen weiter Richtung mehr Performance, weniger Stromverbrauch und vor allem bei mobilen Geräten Richtung noch mehr Mobilität (wirklich kabellos)."
</blockquote>


Dies ist natürlich nur ein Bruchteil dessen, was im Laufe des Abends besprochen wurde. Zu allen weiteren Beiträgen des Intel-Themenabends geht es <a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=198">hier lang</a>. Viel Spaß beim Stöbern...
 
AMD & Intel Zusammenarbeit - Physikberechnung (Havok ...)
"Havok wurde zwar von Intel aufgekauft, agiert aber als eigenständiges Unternehmen, das mit ATI/AMD zusammenarbeitet."

Da kann noch was werden... im Gegensatz zum eingefahrenen pX... Wohl die besten Neuigkeiten im Themenabend, der im Übrigen sehr gelungen war. ;)
 
Gerade noch gesehen, passt wohl auch gut hier rein:
Desktop-based Lynnfield CPUs and P55 chipsets will be announced between September 8-11.

Intel will announce Xeon W5590, W3580, W3550 and L5530 CPUs for servers in early August, and is also preparing to launch Xeon X3470, 3460, 3450, 3440 and 3430 CPUs along with Lynnfield CPUs, and 3400 and 3420 chipsets.

Intel declined the opportunity to respond to this report saying it cannot comment on unannounced products.
http://www.digitimes.com/news/a20090713PD203.html

Die Xeon 34xx sind dann wohl wirklich LGA1157 Teile, von denen der Intel Kollege noch nichts gehört hat (= Nichts sagen durfte).

Komisch .. ob sich das rentiert ... ok kleine 1P Serverchen, aber trotzdem ... S1366 ist auch nicht mehr soo teuer und bei Servern bringt der 3te Speicherkanal schon was. Naja *noahnung*

ciao

Alex
 
2) Vor allem im Notebook Bereich hat sich herausgestellt, dass man Energie spart, wenn man nach dem HUGI Prinzip arbeitet: Hurry Up and Get Idle - Sprich.. arbeite Deine Aufgabe so schnell wie möglich ab und gehe dann so tief wie möglich schlafen und nimm noch möglichst viele andere Systemkomponenten mit schlafen (Speicher, usw.)"

Halt ich für Quatsch da der Stromverbrauch mit der Zeit nur linear wächst, mit dem Takt aber quadratisch. Außerdem wiederspricht das dem was man mit SpeedStep erreicht, nämlich den Takt inkrementell zu steigern; würde man das HUGI-Prinzip konsequent umsetzen, dann gäb es ja sowas wie SpeedStep nicht.
 
Zuletzt bearbeitet:
Halt ich für Quatsch [...]

Schwierig zu berechnen das ist :) Am einfachsten wohl mit einem Kw/h - Messgerät und einem Test mit identischen Anwendungen - einmal mit aktiviertem Turbo Boost - und einmal ohne..Vorausgesetzt man muss für höhere Frequenzen nicht maßlos die VCore erhöhen, dann ist das evtl. sinnvoll...

En Beispiel dazu..meine aktuelle CPU hat einen offenen Multiplikator für CPU Core und CPU-NB und taktet Original und im Werkszustand mit folgenden Taktfrequenzen und Spannungen wenn Cool&Quiet aktiviert ist:

Idle:
4x 1300 Mhz ( CPU Core) @ 1.05 Volt | CPU - NB @ 2000 Mhz @ 1.30 Volt
Load:
4x 2600 Mhz (CPU Core) @ 1.30 Volt | CPU - NB @ 2000 Mhz @ 1.30 Volt

Mainboardspezifisch und mit Hilfe des MSR Tweakers konnte ich jetzt folgendes Energieschema nach ein bisschen Austesten selbst einstellen:

Idle:
4x 800 Mhz (CPU Core) @ 0,95 Volt | CPU - NB @ 2400 Mhz @ 1,40 Volt
Load:
4x 3000 Mhz (CPU Core) @ 1,35 Volt | CPU - NB @ 2400 Mhz @ 1,40 Volt

Diese Einstellung ist für mich ein Kompromiss aus Performace und Energieeffizienz..In der Praxis schaut das so aus:
Gestern habe ich etwa 15 Filme per Scriptjob von Mpeg 2 nach X.264 encodiert...In Originaleinstellungen und bei Two-Pass Encoding erziele ich da etwas über 50 Bilder pro Sek die encodiert werden - mit den manuellen Einstellungen sinds knapp 60 Bilder pro Sekunde..(1st Pass)....
Das Sysrtem ist so konfiguriert, dass es nach dem Encodiervorgang automatisch abschaltet...Ich denke schon, dass dieser 20% schnellere Encodiervorgang (sind in Wirklichkeit etwas weniger) sinnvoll sein können, da der rechner ja nach Ende des Encodiervorgangs überhaupt keinen Stromverbrauch mehr hat...

Noch deutlicher wird das, wenn man einen niedrig taktenden Singlecore beim Videoencodieren mit einem 4.0 Ghz OC Quad vergleicht..Da hab ich u.U. 8fache Performanceunterschiede, und ob der Rechner nun 1 Tag bei Vollast encodiert - oder 8 Tage per Vollast encodiert? Da müsste der Singlecore schon sehr, sehr sparsam sein, um am Ende weniger Kilowattstundenverbrauch zu haben, wie der übertaktete Quadcore...Immerhin kann man den Quadrechner 7 Tage früher ausschalten...

In meinem Fall allerdings kann es sehr gut sein, dass ein undervolten bei Standardtakt stromsparender wäre, als ein übertakten mit leichter V-Core Anhebung..Genau verglichen habe ich das noch nicht, aber mir gehts ja beim Desktop auch nicht um lange Akkulaufzeiten - sondern einen Kompromiss eben aus Leistung und Performance für Alltagsbetrieb..

-----------------------------

Ansonsten aber auch ein sehr interessanter Themenabend von Intel... Hat mir in der Form auch besser gefallen, als die AMD Themenwoche vor kurzem, die ja doch etwas entäuschend ausgefallen ist..

Grüße!
 
Hallo Elcaro,

das mag ich so jetzt nicht im Raum stehen lassen:

Zum einen haben wir bei unseren so genannten Customer Reference Boards - das sind quasi Notebook Boards im handlichen ATX Formfaktor :) die Möglichkeit, die entsprechenden Ströme, Spannungen und damit Leistungen sehr genau zu messen. Dies eben nicht nur auf CPU Level, sondern auch auf Systemlevel. Hier zeigt sich eindeutig, dass wenn ich beide Leistungskurven über die Zeit aufzeichne, dass HUGI hier klare Vorteile bringt.

Dein Referenzierung auf Speedstep verstehe ich nicht, denn auch hier geht ein System nur in den Schlafmodus, wenn es wiederholt vom Betriebssystem das Signal bekommen hat, dass es nichts für die CPU zu tun hat (MWAIT/HALT) - In meinem Beispiel haben wir aber etwas zu tun, die Frage ist nur, wie schnell will ich den Auftrag abarbeiten.

Drittens nimmt Deine Annahme, dass dier Verlustleistung mit steigenden Takt quadratisch steigt, nur die CPU in Betracht und läßt das Gesamtsystem aussen vor. Sobald die CPU Idle ist, können viele weitreicherende Systemkomponenten ebenfalls in Stromsparende Modie geschaltet werden:

- Memory Controller (DRAM Self Refresh)
- Display (Graphics Render Standby) - Davon ausgehend, dass vorher vielleicht etwas angezeigt wurde
- FSB
- Im Extremfall kann die Festplatte schlafen gelegt werden, zumindestens aber kann der SATA link in einen Slumber Modus gefahren werden
- Audio Codec
- PCIe Devices wie WLAN Karte

All dies sind zusätzliche Verbraucher, die Energy benötigen und deren Energiesparpotential ich nutzen kann, sobald die CPU ihre Arbeit erledigt hat.

Gruss

Frank
 
Zuletzt bearbeitet:
2) Vor allem im Notebook Bereich hat sich herausgestellt, dass man Energie spart, wenn man nach dem HUGI Prinzip arbeitet: Hurry Up and Get Idle - Sprich.. arbeite Deine Aufgabe so schnell wie möglich ab und gehe dann so tief wie möglich schlafen und nimm noch möglichst viele andere Systemkomponenten mit schlafen (Speicher, usw.)"

Halt ich für Quatsch da der Stromverbrauch mit der Zeit nur linear wächst, mit dem Takt aber quadratisch. Außerdem wiederspricht das dem was man mit SpeedStep erreicht, nämlich den Takt inkrementell zu steigern; würde man das HUGI-Prinzip konsequent umsetzen, dann gäb es ja sowas wie SpeedStep nicht.

Dann fix bei Intel bewerben. Die scheinen dort nämlich alle nichts zu können und sind da ganz extrem auf Genies wie dich angewiesen. :]
 
Da kann noch was werden... im Gegensatz zum eingefahrenen pX... Wohl die besten Neuigkeiten im Themenabend, der im Übrigen sehr gelungen war. ;)
a) Ich hoffe auf Kooperation von Intel/ AMD bei jener Erweiterung

b) Der Bericht zum Turbomodus speziell bei Notebook war erhellend und nachvollziehbar. Das ist mehr Innovation als 3-4 Cores demnächst im Notebook zu verbauen. Wird zwar fürs Marketing nötig werden, aber für den Anwender ist die Turboleistung bei 1-2 Cores viel wichtiger.
 
Drittens nimmt Deine Annahme, dass dier Verlustleistung mit steigenden Takt quadratisch steigt, nur die CPU in Betracht und läßt das Gesamtsystem aussen vor. Sobald die CPU Idle ist, können viele weitreicherende Systemkomponenten ebenfalls in Stromsparende Modie geschaltet werden
Erstens ist das keine "Annahme" sondern Tatsache, zweitens verbraucht eine CPU unter Volllast sicher mehr als 50% des Gesamtenergiebedarfs eines Systems (wenn nicht sogar 80%). Aus letzterem folgt, man kann die verbal endlose Liste von Verbrauchern vernachlässigen; Es geht um den pysikalischen Zusammenhang von Frequenz und Stromaufnahme.
 
- Taktsteigerung bedeutet lineare Erhöhung der Leistungsaufnahme
- Spannungssteigerung bedeutet quadratische Erhöhung der Leistungsaufnahme

Elcaro hat doch nur von Takt gesprochen, oder?*noahnung*
 
Es geht um den pysikalischen Zusammenhang von Frequenz und Stromaufnahme.
Dieser Zusammenhang ist blöderweise nur linear.

Das jetzt gilt für alle Klugscheißer hier: wenn ihr klugscheißen wollt, tut es richtig.
edit2: das klingt so bösartig, so ist es nicht gemeint. Entschuldigt bitte, ich mag sowas nur nicht

Schwierig zu berechnen das ist :) Am einfachsten wohl mit einem Kw/h - Messgerät (...)
Idle:
4x 1300 Mhz ( CPU Core) @ 1.05 Volt | CPU - NB @ 2000 Mhz @ 1.30 Volt
(...)
Gilt auch für dich. Eine Einheit "Planksches Wirkungsquantum" multipliziert mit "komplexe Zahl" bzw. einer zu definierenden Größe z macht keinen Sinn. Was du meinst sind Hz (nach Heinrich Rudolf Hertz). Selbes gilt für "Kelvin" multipliziert mit der Energiedichte pro Stunde ist Blödsinn. Außerdem bist du inkonsequent ("Volt" vs. "Mhz", müsste "V" und "Mhz" oder "Volt" und "Megawirkungsquantumz" heißen - deine Notation...)


Zum Thema hab ich nichts zu sagen ;D

edit: Jack war schneller. Und er hat recht. Bestimmt hat Puck auf den Kindergarden hier keine Lust mehr xD
 
Zuletzt bearbeitet:
Drittens nimmt Deine Annahme, dass dier Verlustleistung mit steigenden Takt quadratisch steigt, nur die CPU in Betracht und läßt das Gesamtsystem aussen vor. Sobald die CPU Idle ist, können viele weitreicherende Systemkomponenten ebenfalls in Stromsparende Modie geschaltet werden
Darf man das so verstehen, dass der Turbo Mode, bezogen auf die CPU selbst, nicht positiv für die Energieeffizienz ist, sondern nur, wenn man das gesamte System betrachtet?

Wirklich innovativ finde ich das ehrlich gesagt nicht. Das Prinzip ist im Grunde auch nichts anderes als die ständig steigende Anzahl an Kernen, die auf ein Package wandern. Sieht man ja gut am Istanbul. Trotz gleicher µArch und gleicher Fertigung arbeitet ein entsprechendes System weitaus effizienter als Shanghai.

Zumal ich mir höchstens vorstellen kann, dass HUGI Vorteile in Szenarien hat, wie von starled beschrieben. Also längere Tasks mit hoher Auslastung. Das sind aber eher untypische Workloads für durchschnittliche Notebook User. Anhand welches Anwendungsprofils hat Intel denn die Vorteile von HUGI ermittelt? Mir erscheint das gerade bei mobilen Plattformen doch eher kontraproduktiv.


@topic
Ich muss gestehen, ich war vom Themenabend etwas enttäuscht. Ich hätte mir mehr Informationen zu Havok gewünscht. Ich hoffe doch, Intel und AMD klotzen da richtig ran und überlassen das Feld nicht kampflos nVidias PhysX.
 
@topic
Ich muss gestehen, ich war vom Themenabend etwas enttäuscht. Ich hätte mir mehr Informationen zu Havok gewünscht. Ich hoffe doch, Intel und AMD klotzen da richtig ran und überlassen das Feld nicht kampflos nVidias PhysX.

Da meinst Du jetzt den AMD Themenabend, oder ? :)
Von Intel erfährst Du nicht viel zum ATi Havoc Port ... damit haben die Blauen nichts am Hut.

Die basteln an nem Larrabee Port, aber das ist noch geheim ... insofern konntest Du da nicht viel mehr erfahren.

ciao

Alex
 
Da meinst Du jetzt den AMD Themenabend, oder ?
Nee, Havok ist eine von Intel ausgekaufte Technologie. Das hat mit AMD erstmal nichts zu tun. Also zB eine OpenCL Implementierung bedarf in erster Linie dem Zutun von Intel. ;)

Ein Nichtwähler der nicht zur Wahl geht und dann über das Wahlergebnis enttäuscht ist. :]
Schau lieber nochmal im entsprechenden Thread nach. Das Thema wurde nachgefragt, blieb allerdings unbeantwortet. :]
 
[MTB]JackTheRipper;3986399 schrieb:
- Taktsteigerung bedeutet lineare Erhöhung der Leistungsaufnahme
- Spannungssteigerung bedeutet quadratische Erhöhung der Leistungsaufnahme

Elcaro hat doch nur von Takt gesprochen, oder?*noahnung*

hi..

man kann eine CPU nicht für sich betrachten, wenn man über Akkulaufzeiten oder auch Stromverbrauch (systemverbrauch) spekuliert..

Auch stimmt es nicht ganz, dass Spannungserhöhung quadratischen Stromverbrauchsanstieg bewirkt (betrachtet man nur die CPU) sowie Taktfrequenz einen linearen Verlauf aufweist..Jede CPU Baureihe hat da vermutlich eine eigene Kennlinie und die Leckströme verändern sich auch mit dem Takt, da andere temperaturen und so weiter.....
..Außerdem muss der Strom einmal vom Netzteil und einmal von den Spanungswandlern der Platine zur Verfügung gestellt werden - jeweils mit einer eigenen Kurve was Effizienz betrifft - ebenfalls abhängig von Temperaturen und %-Auslastung......Wenn dann beim Notebook noch eine ganze Reihe von Stromsparfeautures zum ´Tragen kommen - wenn die CPU im idle ist, dann reduziert sich der Stromverbrauch nochmal deutlich und die Scheere zwischen Idle und Load geht noch weiter auseinander....Unter diesen Vorraussetzungen ergibt es eben Sinn unterm Strich die CPU möglichst lange im idle zu halten - und das geht eben, indem man möglichst viel Perforamnce, bzw. Potenzial nach oben hat (Turbo .- Modus) - um notwendige Berechnungen möglichst schnell durchzuführen...
Die CPU hat eben auch nur einen Anteil am Stromverbrauch eines PCs..

Dieser Zusammenhang ist blöderweise nur linear.

S.o. :P



Zumal ich mir höchstens vorstellen kann, dass HUGI Vorteile in Szenarien hat, wie von starled beschrieben. Also längere Tasks mit hoher Auslastung. Das sind aber eher untypische Workloads für durchschnittliche Notebook User. Anhand welches Anwendungsprofils hat Intel denn die Vorteile von HUGI ermittelt? Mir erscheint das gerade bei mobilen Plattformen doch eher kontraproduktiv.
Hi..
Ebenfalls s.o. ;)
Beim Notebook hast du aber Recht, und es kann wirklich mal kontraproduktiv sein..Aber doch eher bei Dauervollastanwendungen wie BOINC oder Videoencoding. Das ist dann doch irgendwie "lastabhängig"....Aber man kann die Sache zum teil dann doch gut optimieren denke ich mal - auch automatisch und vom Hersteller. Notfalls kann man das Feature doch auch deaktivieren - zumindest beim Desktop geht das ja..

Grüße!
 
... Auch stimmt es nicht ganz, dass Spannungserhöhung quadratischen Stromverbrauchsanstieg bewirkt ... sowie Taktfrequenz einen linearen Verlauf aufweist. ...
Es ist aber eine recht gute Faustregel. Jedenfalls kommt diese Abschätzung näher an die Realität ran.

Wirklich "richtig" falsch bleibt die Gegen-These, dass eine Takterhöhung den Strombedarf quadratisch und/oder die Spannungserhöhung lediglich nur linear zum erhöhtem Stromkonsum beiträgt.

MFG Bobo(2009)
 
Zuletzt bearbeitet:
Letzten Endes geht's doch einfach nur darum den Einfluss beider Faktoren abschätzen zu können. ;)
 
Und du scheinst überhaupt nicht zu wissen, was du da eigentlich verlinkst. :]

Nochmal, sämtliche Havok Technologien, sowohl was Verfahren/Algorithmen als auch den Code selbst betrifft, gehört Intel. AMD kann nicht einfach hingehen, eine eigene Implementierung für die Havok Schnittstelle basteln und dann die eigene Software/Treiber als Havok kompatibel verkaufen. Das ist Urheberrechtsverletzung. Das wäre genauso, als würde ein Dritthersteller eine eigene DirectX Implementierung anbieten. Das hat man ja mit Version 10 unter Windows XP versucht und wurde von Microsoft rechtlich rigoros abgesägt.
Hierfür gibt es Lizenzabkommen. Und dort muss sich erstmal Intel bewegen und niemand anderes. Und genau solche Dinge, wie weit dort der Stand ist oder was überhaupt in Planung/Bearbeitung ist, hätte ich gerne am Themenabend erfahren.

Habe ich und stellte fest das

1. Die Antwort war klar und deutlich.
Eben. Und was sollte dann deine sinnfreie Bemerkung?
 
Und du scheinst überhaupt nicht zu wissen, was du da eigentlich verlinkst. :]

Nochmal, sämtliche Havok Technologien, sowohl was Verfahren/Algorithmen als auch den Code selbst betrifft, gehört Intel. AMD kann nicht einfach hingehen, eine eigene Implementierung für die Havok Schnittstelle basteln und dann die eigene Software/Treiber als Havok kompatibel verkaufen. Das ist Urheberrechtsverletzung. Das wäre genauso, als würde ein Dritthersteller eine eigene DirectX Implementierung anbieten. Das hat man ja mit Version 10 unter Windows XP versucht und wurde von Microsoft rechtlich rigoros abgesägt.
Hierfür gibt es Lizenzabkommen. Und dort muss sich erstmal Intel bewegen und niemand anderes. Und genau solche Dinge, wie weit dort der Stand ist oder was überhaupt in Planung/Bearbeitung ist, hätte ich gerne am Themenabend erfahren.


Eben. Und was sollte dann deine sinnfreie Bemerkung?

Ich zitiere an der Stelle mal Nero24:
Nero24 schrieb:
Unsere Gäste haben uns - wie schon beim letzten Intel Themenabend - gebeten darauf hinzuweisen, dass dies ein technischer Themenabend sein soll! Wir werden also alle Fragen zulassen, die ein Produkt im Speziellen oder eine Technologie im Allgemeinen betrifft. Nicht zugelassen sind Fragen abseits der Technik, also z.B. zu diversen Kartell-Prozessen oder Nicht-Technik-Fragen im Allgemeinen.

Ich würde mal behaupten, das Lizenzabkommen.etwas politisches und nichts technisches sind und demzufolge nicht am Themenabend thematisiert werden. ;)

MfG
 
Und genau solche Dinge, wie weit dort der Stand ist oder was überhaupt in Planung/Bearbeitung ist, hätte ich gerne am Themenabend erfahren.


Eben. Und was sollte dann deine sinnfreie Bemerkung?


Der Sinn ergibt sich daraus da du (nehme an keine Zeit hattest) sprich mit Abwesendheit geglänzt hast. Ich sehe nämlich 0 Beiträge von deiner Seite an diesem Abend.
Warum hinterher die Enttäuschung so groß ist obwohl quasi jeder weiß, selbst wenn die guten Leute was wissen sollten, keine spezielle Auskunft geben über Stand der Dinge, Planung, Bearbeitung etc..
Wenn dich mit einer Anwort a la "es läuft gut" zufrieden gibst bist genauso weit. Und solche speziellen Fragen wurden in der Regel noch nie auf einem Themenabend beantwortet.
 
man kann eine CPU nicht für sich betrachten, wenn man über Akkulaufzeiten oder auch Stromverbrauch (systemverbrauch) spekuliert..
Prinzipiell natürlich richtig, aber für die Betrachtung der CPU darf durchaus formal korrekt vorgegangen werden.

Auch stimmt es nicht ganz, dass Spannungserhöhung quadratischen Stromverbrauchsanstieg bewirkt (betrachtet man nur die CPU) sowie Taktfrequenz einen linearen Verlauf aufweist..Jede CPU Baureihe hat da vermutlich eine eigene Kennlinie und die Leckströme verändern sich auch mit dem Takt, da andere temperaturen und so weiter.....
Ich weiß nicht, worauf genau du dich beziehst, aber für CMOS gilt dieses:
P_ges = P_w + P_g = 1/2 * p*n*C*U^2*f + I_L * U,
wobei p die Schaltwahrscheinlichkeit des CMOS, n die Anzahl der schaltenden Transistoren beim Schaltvorgang, C die Cs im CMOS (*fg* ich meine natürlich nicht das namensgebende C sondern die Kapazitäten), U die anliegende Spannung und f die Frequenz darstellt.
Einfach hinzuaddiert wird der gesamte Leckstrom über den CMOS multipliziert mit der anliegenden Spannung.
(Quelle (TU Darmstadt, FG Rechnersysteme, PDF mit 1,7 MB, Seite 142 ist relevant))
 
Zurück
Oben Unten