Prescott 3.6 mit >100W Leistungsaufnahme??

Flox

Admiral Special
Mitglied seit
11.11.2001
Beiträge
1.245
Renomée
3
Standort
Nähe München
Hallo zusammen...

...die Meldungen, dass der Prescott trotz 90nm-Technologie mit über 100W Leistungsaufnahme ein wahrer Energiefresser sein dürfte geistern ja mittlerweile bei Xbitlabs, Anandtech und anderen Seiten durch´s Netz.

Ich hatte eigentlich erwartet, dass die 90nm-Technologie wieder ein wenig zum Stromsparen beiträgt.

Und wenn ich dann lese, dass selbst Desktop Replacement CPUs für Notebooks mehr als 90W brauchen werden, dann können sich die Hersteller solcher Notebooks den Akku künftig wohl komplett sparen, ein derartiger Rechner wird wohl eh nur am Netzstecker betrieben werden... ;)

Wohin soll das denn gehen, wenn die Prescotts Taktraten oberhalb der 4GHz erreichen?? :]

Auch aus Umwelt-Gesichtspunkten ist diese Entwicklung IMHO nicht unbedingt zu begrüßen!

Gruß, Flox
 
Na im Notebook hat man auch selen die Spitzen CPUs. Wer Intel und Leistung will muss dann wohl am Desktop arbeiten ;D
Allerdings würde ein AMD 3600+ (aber nicht mit dem Beschiss Barton Rating) auch viel Energie brauchen.
Wenn wenigstens der HALT befhel genutzt werden würde, das würde die meiste zeit über 50 W sparen.
 
der prescott ist aber ned mit barton vergleichbar sondern mit AMD64 / Athlon 64
 
sorry... my fault.....
aber das Rating bei A64 und Barton soll doch gleichwertig sein, also dass ein A64 3200 soviel Leistung (in den AMD benches) bringt wie ein Barton 3200. Na so in etwa. also könnte man auch spekulieren ob man Temp. und Strommässig mit nem A64 besser dran ist als mit nem Barton.
Natürlich führt bei mehr Leistung kein Weg am A64 vorbei.

Man könnte auch den Stromverbrauch von OCd Bartons mit dem Prescott vergleichen. .... natürlich ist das rating dann auch vom OS (32 bit/64 bit) etc. abhängig.

wieviel Leistungsaufnahme hat ein A 64 der so schnell ist wie der Prescott?
 
wenn ich das hier llese, dann wohl weniger
 
Original geschrieben von HerrKaLeun
sorry... my fault.....
aber das Rating bei A64 und Barton soll doch gleichwertig sein, also dass ein A64 3200 soviel Leistung (in den AMD benches) bringt wie ein Barton 3200.

wo haste denn den Dreck her ?! :]

das P-Rating wird ab dem A64 in einer festen Formel berechnet...such einfach ma im News-archiv hier auf P3D, da müsste das mitte Mai sein...
 
Der Intel Pentium 4 mit 3.2GHz hat auch schon eine Leistungsaufnahme von 82Watt.
Die AMD Modelle: Athlon 1400, 2100+ Palomino oder der Barton 3200+ braucht auch ca.: 75Watt.

Die hohe Leistungsaufnahme ist aus meiner Sicht schon fast normal.
Wo soll den die Taktfrequenz und die damit verbundene hohe Leistung sonst herkommen?
 
Zuletzt bearbeitet:
Original geschrieben von Flox
Ich hatte eigentlich erwartet, dass die 90nm-Technologie wieder ein wenig zum Stromsparen beiträgt.

Tja, das haben wohl viele erwartet! Doch der Prescott hat einen doppelt so großen L1 & L2 Cache, das wird oft vergessen! Ist kein Wunder dass der tierisch heiß wird, und wenn der mit 4 GHz kommt sind wir bei 120 Watt angelangt. Wie man DAS dann noch vernünftig mit'm Luftkühler kühlen soll ist mir ein Rätsel, die Wakü wird wohl bald Standard werden! :]

MfG 8)
 
Original geschrieben von J_Ryan
...die Wakü wird wohl bald Standard werden!

Das kann aber nicht der richtige Weg sein!
Man sollte sich langsam mal Gedanken um alternative Produktionsmöglichkeiten machen.
Oder noch besser Apple steigt in den OEM Markt ein!

Desweiteren finde ich Unsinnig: 4-5GHz mit 1-2MB Cache? :] Wer braucht das als normaler PC-User?
 
Original geschrieben von J_Ryan
Tja, das haben wohl viele erwartet! Doch der Prescott hat einen doppelt so großen L1 & L2 Cache, das wird oft vergessen! Ist kein Wunder dass der tierisch heiß wird, und wenn der mit 4 GHz kommt sind wir bei 120 Watt angelangt. Wie man DAS dann noch vernünftig mit'm Luftkühler kühlen soll ist mir ein Rätsel, die Wakü wird wohl bald Standard werden! :]

MfG 8)

Da Intel nur die Durchschnittswärme angibt ist man mit dem 3,6 Prescott schon bei 120-130 Watt MAXIMAL. Hier rächt sich endlich die auf miese ProTaktLeistung getrimmte Netwurst-Architektur. Der 4 GHz wird schnurstraks auf 120 Watt Durchschnitt und 140-150 Watt maximal gehen. Die Herdplattenhersteller wären dankbar für solch ne Heizleistung.

Misthaken
 
da sollte man was ändern. das ist ja krank. ich habe auch gehofft das die neue generation stromsparrender/kühler ist. der trend geht zu einem silent system. und mit einer luftkühlung kann man nur SEHR schwer 140W leise wegbekommen. von der hohen stromrechnung ganz zu schweigen....


ich hoffe es ändert sich bald was. die cpu´s von morgen sollen nicht schneller um jeden preis (denn wer braucht als normaler heimanwender im moment wirklich 3Ghz?????), sondern benutzerfreundlicher.....


mfg DvP
 
Original geschrieben von Zwender@AMD
Oder noch besser Apple steigt in den OEM Markt ein!

Desweiteren finde ich Unsinnig: 4-5GHz mit 1-2MB Cache? :] Wer braucht das als normaler PC-User?

Ich baue mir lieber so 'ne Heizung ein als mir einen Apple zu kaufen! ;D
Ich möchte mal den Intel Boxed Kühler sehen bei 140 Watt Verlustwärme! *drooling*

MfG 8)
 
jetzt wird sich wahrscheinlich das überhitzungs system des PIV beweisen (müssen).

Bei den meisten (Office) anwendern wird es wohl kein problem geben, da der pIV im idle modus "cool" bleibt.
ABER:
Was ist mit spielern die ständig 100% cpu last fahrem, auch encoder und renderer *chatt* .
~130w prozi, ~50w die "gute" FX5900pro ohh mann....
Ich schlage PC als durchlauferhitzer vor.

Was schlecht ist bei intel ist gut für amd :).

mfg
 
Wenn man den Rechner mit einen CPU fressenden "Bildschirmschoner" im Büro ausstattet, gewinnt das Wort Bürorechner eine vollkommen neue Bedeutung!
Möglicherweise ist dies der neue Grund für einen neuen Formfaktor für Mainboards...
die Warmhalteplatte muss nun integriert werden!
;D
 
Ich verstehe Euch nicht ... ;-). Hatte doch neulich hier den Link zur Entwicklung der Wasserkühlung für Notebooks gepostet. Und außerdem fressen die Dinger wegen den Leckströmen und Co auch im Ruhezustand mehr als zuviel. Ich ergötze mich derweil sowieso fast täglich am Silent-Prinzip bei den echt leisen FSC-PC. Da investieren die Kunden in eine 3 GHz CPU und in Wirklichkeit sitzen sie dank "silent" im BIOS für den Lüfter vor einer CPU mit realen 1,8 GHz. Hoch lebe das Marketing und der (Irr-)-Glaube ;-).
 
Original geschrieben von J_Ryan
Tja, das haben wohl viele erwartet! Doch der Prescott hat einen doppelt so großen L1 & L2 Cache, das wird oft vergessen! Ist kein Wunder dass der tierisch heiß wird, und wenn der mit 4 GHz kommt sind wir bei 120 Watt angelangt.
MfG 8)

es liegt aber nicht nur an den vielen zusätzlichen transistoren auf dem die. die erhöhung des caches soll ja vor allem eines bewirken: das der prescott einen höheren ipc hat als alle anderen p4 zuvor. höherer ipc heißt aber nichts anderes, als daß die cpu pro takt, nein: pro zeiteinheit, mehr arbeitet. was braucht man zum arbeiten? energie ;D und die genutze elektrische energie muß halt, irgendwie in form von wärme-energie abgeführt werden. wie sonst *noahnung* intel hat doch nur die hohen taktraten erreichen können, indem sie die leistung minimierten, um nicht zu warm zu werden. damit sind sie nun an ein ende gekommen - wie ja auch amd mit ihren athlons. bei allen benchmark-gemurkste, kommen die ja doch nicht an physikalischen gesetzten rum: mehr arbeit bedeutet mehr wärmeabgabe. zumindest bei ähnlichem prozessor-aufbau und praktisch gleicher fertigungstechnik werden der energieaufwand und die arbeitsleistung ähnlich sein...

der prozessor-aufbau ist insofern ähnlich, als daß sie beide x86 code verarbeiten. unabhängig davon wieviel fpu oder alu einheiten oder eben wie lang die pipeline ist. die fertigungstechnik ist gleich insofern es um 130nm strukturen handelt. okay, vor monaten haben wir lernen dürfen, daß die anzahl der layer hilft aus denen die cpu besteht ;D sicher gibt es da viele details, die eine rolle spielen, aber es fällt doch auf, daß beide - intel und amd - an eine grenze geraten, die sich fest macht bei 3ghz bzw. 3000+. amd konnte schon beim shrinking auf 130nm erleben, daß es so nicht weiter geht - was nicht verwundert, da deren ipc höher war...

welchen schluß hat amd gezogen? soi. ob es wirklich hilft, nämlich ob sich wirklich höhere taktfrequenzen erreichen lassen als bisher, wird sich zeigen. ich denke ja, aber eben nicht mehr so leicht und schnell...

immerhin sorgt soi dafür, daß die hammer cpus trotz höheren ipcs wenig mehr energie brauchen. damals war immer die rede von 20-25% weniger energieverbrauch. "zufällig" ziemlich genau die gleiche zahl, die angeblich der ipc steigt. das heißt dann in etwa(!!!): ein 2ghz hammer leistet 20% mehr als ein athlon xp@ghz, verbraucht aber auch fast genausoviel. ich meine gelesen zu haben, daß soi aber ein wenig die leckströme - was anscheinend lieblingsthema vieler wurde, seitdem die ct berichtet :-) - erhöht, also seinen vorteil ein wenig mildert. entscheidend ist aber, daß es unter dem strich hilft. 20% ist nämlich ne masse...lol

ach so, leckströme: sie steigen auch mit anderen faktoren:

- je höher die megaherz desto mehr leckströme
- je kleiner die strukturbreite desto mehr leckströme
und nicht zu vergessen:
- je heißer die cpu (meine ich zumindest, bin mir nicht ganz sicher)

alle diese drei bedingungen hat intel erfüllt...ende gelände

alle diese drei bedingungen hat amd gemindert...genau DESWEGEN mag ich die firma


p.s.: nebenbei erwähnt, alle die ich mal möchte habe(n) (ich) verloren: commodore, amiga,andrea ;D , atari, motorola, oh, ganz schlechtes ohmen, ganz schlecht...ich glaube das kommt mal in die signatur... außerdem immer fast das "a" dabei...habe ich schon mal erzählt, daß ich abergläubischer mensch bin *lol*
 
oh, ich habe noch was vergessen und bringe es extra, damit ein antwortender leichter zitieren kann:

ich frage mich ja schon lange, ob bei 64bit verarbeitung die aufwgewendete extra energie mit der aufgebrachten extra leistung korreliert, oder ob es wurscht ist. kann ja auch sein, daß die hammer cpus keinen unterscheid deutlich machen, weil intern doch am ende alles mit 64bit "gerechnet" wird, nur die oberen 32bit halt ignoriert werden. aber eigentlich sollte es doch so sein, denke ich, daß auch dort mehr leistung mehr energieverbrauch darstellt. deswegen könnte dies auch der grund sein, warum die hammer cpu für alle überraschend doch soviel energie benötigten - weil hardwaremäßig kein unterschied besteht...

dafür mache ich glaube ich einen neuen thread auf, finde ich nämlich wichtig die frage... *buck*
 
Original geschrieben von Treverer
der prozessor-aufbau ist insofern ähnlich, als daß sie beide x86 code verarbeiten. unabhängig davon wieviel fpu oder alu einheiten oder eben wie lang die pipeline ist. die fertigungstechnik ist gleich insofern es um 130nm strukturen handelt.

Ähm...Moment! Der Prescott wird in 90nm hergestellt! Nur mal so...

Gruß, Flox
 
Original geschrieben von Treverer
es liegt aber nicht nur an den vielen zusätzlichen transistoren auf dem die. die erhöhung des caches soll ja vor allem eines bewirken: das der prescott einen höheren ipc hat als alle anderen p4 zuvor. höherer ipc heißt aber nichts anderes, als daß die cpu pro takt, nein: pro zeiteinheit, mehr arbeitet. was braucht man zum arbeiten? energie ;D und die genutze elektrische energie muß halt, irgendwie in form von wärme-energie abgeführt werden. wie sonst *noahnung* intel hat doch nur die hohen taktraten erreichen können, indem sie die leistung minimierten, um nicht zu warm zu werden. damit sind sie nun an ein ende gekommen - wie ja auch amd mit ihren athlons. bei allen benchmark-gemurkste, kommen die ja doch nicht an physikalischen gesetzten rum: mehr arbeit bedeutet mehr wärmeabgabe. zumindest bei ähnlichem prozessor-aufbau und praktisch gleicher fertigungstechnik werden der energieaufwand und die arbeitsleistung ähnlich sein...

der prozessor-aufbau ist insofern ähnlich, als daß sie beide x86 code verarbeiten. unabhängig davon wieviel fpu oder alu einheiten oder eben wie lang die pipeline ist. die fertigungstechnik ist gleich insofern es um 130nm strukturen handelt. okay, vor monaten haben wir lernen dürfen, daß die anzahl der layer hilft aus denen die cpu besteht ;D sicher gibt es da viele details, die eine rolle spielen, aber es fällt doch auf, daß beide - intel und amd - an eine grenze geraten, die sich fest macht bei 3ghz bzw. 3000+. amd konnte schon beim shrinking auf 130nm erleben, daß es so nicht weiter geht - was nicht verwundert, da deren ipc höher war...

welchen schluß hat amd gezogen? soi. ob es wirklich hilft, nämlich ob sich wirklich höhere taktfrequenzen erreichen lassen als bisher, wird sich zeigen. ich denke ja, aber eben nicht mehr so leicht und schnell...

immerhin sorgt soi dafür, daß die hammer cpus trotz höheren ipcs wenig mehr energie brauchen. damals war immer die rede von 20-25% weniger energieverbrauch. "zufällig" ziemlich genau die gleiche zahl, die angeblich der ipc steigt. das heißt dann in etwa(!!!): ein 2ghz hammer leistet 20% mehr als ein athlon xp@ghz, verbraucht aber auch fast genausoviel. ich meine gelesen zu haben, daß soi aber ein wenig die leckströme - was anscheinend lieblingsthema vieler wurde, seitdem die ct berichtet :-) - erhöht, also seinen vorteil ein wenig mildert. entscheidend ist aber, daß es unter dem strich hilft. 20% ist nämlich ne masse...lol

ach so, leckströme: sie steigen auch mit anderen faktoren:

- je höher die megaherz desto mehr leckströme
- je kleiner die strukturbreite desto mehr leckströme
und nicht zu vergessen:
- je heißer die cpu (meine ich zumindest, bin mir nicht ganz sicher)

alle diese drei bedingungen hat intel erfüllt...ende gelände

alle diese drei bedingungen hat amd gemindert...genau DESWEGEN mag ich die firma


p.s.: nebenbei erwähnt, alle die ich mal möchte habe(n) (ich) verloren: commodore, amiga,andrea ;D , atari, motorola, oh, ganz schlechtes ohmen, ganz schlecht...ich glaube das kommt mal in die signatur... außerdem immer fast das "a" dabei...habe ich schon mal erzählt, daß ich abergläubischer mensch bin *lol*

SOI mindert die Leckströme, erhöht sie nicht.
 
Original geschrieben von BlackBirdSR
SOI mindert die Leckströme, erhöht sie nicht.

wenn das so ist, dann umso schöner. aber ich war der meinung - und war damals überrascht - anderes gelesen zu haben.

ich möcht auch erklären wieso: die leckströme werden bei kleinerer strukturbreite größer, darüber sind wir uns wohl einig. sie werden aber nicht größer, weil die die transistoren dichter zusammen liegen, sondern weil die benötigte energie zum schalten kleiner wird. hier kann natürlich mein fehler liegen: verringerte "schaltenergie" hat erhöhung der leckströme zur folge. und soi verringert ebenfalls die benötigte "schaltenergie".


sorry, für meine fachtermini *lol* , aber das ist alles nicht mehr so mein gebiet *noahnung*

jede/r trägt halt einen teil bei von seiner kompetent und inkompentenz *lol*

ich google mal, vielleicht finde ich was...

http://www.iee.et.tu-dresden.de/~graupner/off/soi1_d.html

nach dem was da steht, mindert (hm, da steht "unterdrückt" - heißt das also, weg, aus vorbei *noahnung* ) soi die klassischen leckströme, aber es treten andere "parasitäre effekte auf" (= erhöhung energieverbrauch) und sie erhöht wegen schlechterer wärmeleitfähigkeit die temperatur...

lohnt sich zu lesen, der text, ist zwar kompliziert aber zeigt: soi ist viel mehr als wir denken/wissen LOL

und hier, ct 1998: ;D

http://www.heise.de/ct/98/17/028/

zitat: "Wenn man nun die Verbindung der eigentlichen CMOS-Schalttransistoren zum Substrat unterbricht, können weder ungewünschte Transistoren noch Kapazitäten in vertikaler Richtung entstehen - das Ende der Leckströme, ein Kurzschluß wäre ausgeschlossen.

Und genau dies ist der Gedanke bei SOI: Man setzt jeden MOS-FET auf eine isolierte Fläche (Silicon-On-Insulator) und hält so Source und Drain des Schalttransistors elektrisch getrennt vom jeweils anderen FET sowie vom Substrat. Da hierdurch ein Großteil der parasitären Effekte auf einem Chip unterbunden ist, kann man im bisherigen Tempo mit der Schaltungenminiaturisierung fortschreiten - Moore's Law wäre gerettet. "
 
Zuletzt bearbeitet:
Treverer was meinst du mit Energie?

Die Schaltschwelle wird bei den moderenen CPU`s immer geringer; dies bedeutet dass weniger Spannung benötigt wird.
Spannung in der E- Lehre ist mit der Fallhöhe in der Mechanik vergleichbar.
Wenn ein Sack voll Elektronen einer Spannung von 2V ausgesetzt wird und diese reduziert wird auf den Wert 1V, so brauchst du zum Betrieb nur noch halb so viel Watt!

Der Wasserfall mit 100 l Wasser bei einer Fallhöhe 10 m liefert eine bestimmte Menge Kinetische Energie, bei einer Fallhöhe von 5 m reduziert sich die Kinetische Energie um die Hälfte.

Bei beiden Beispielen sind die Mengeneinheiten "Sack Elektronen", 100 l Wasser gleich geblieben!

Die CPU`s brauchen derzeit immer noch die gleiche Anzahl Elektronen (zum Teil werden sogar noch mehr Elektroen gebraucht), jedoch ist ihre "Fallhöhe" reduziert worden. Ist aber wirklich notwendig, da die Abmessungen der einzelnen Funktionselemente deutlich reduziert wurden.

Auch die Packdichte ist wichtig, da mit den kleineren Abmessungen der Leiterbahnen und Isolatoren, viel leichter die Isolierungen überwunden werden können, jede Erhöhung der Spannung erhöht die Wahrscheinlichkeit der Überwindung der Isolationsschicht noch weiter!
Habe meinen Senf dazu im Forum unter dem Stichhwort "Ziatatklau" mehrmals gepostet.
Nun zum Spämpapier

Der Text sollte die Probleme aufzeigen, die das Hochtakten mit sich bringen und zwar aus der Sicht der geschundenen CPU.
Zugleich werden die Maßnahmen der Hersteller genannt, um diese Probleme zu minimieren.

Zitatklau
Original geschrieben von Bokill

Kleiner Überblick zu den Problemen heutiger CPU’s

Silicium/Halbleiter
Der Schmelzpunkt von Silicium liegt bei Normdruck bei etwa 1410°c. Halbleiter sind um so besser elektrisch leitend je wärmer das System wird.
Das Problem liegt daher woanders, die leitenden Bahnen sind Bereiche im Reinstsilicium in denen Fremdatome zugefügt wurden, diese sind deutlich besser leitend, [/i] zusätzlich sind als Metalle Wolfram Aluminium und Kupfer eingesetzt, auch um die Verbindungen zwischen den einzelnen Schichten des Dies zu kontakten.

Irrwege und Kaputt !
Dieser Materialmix muss 100% funktionieren
, sobald durch thermische Vorgänge, die Elektronen/Elektronenlöcher nicht nur die vorgeschriebenen Wege benutzen, sondern ihre eigenen Abkürzungen wählen (Tunneleffekte), oder durch Überbeanspruchung die "Straßen" zerstört werden (Elektromigration{ Abtrag von Material durch "Heiße Elektronen"}), funktioniert die CPU zwar irgendwie, aber man kann sich ihrer Ergebnisse nicht sicher sein. Dummerweise sind diese Effekte teilweise (Elektromigration) irreversibel, die Folge ist dass deine CPU kaputt ist, in anderen Worten: Exitus, über den Jordan, Schrott, so dass du einen hübschen Schlüsselanhänger mehr hast, oder auch ein heimtückisches eBay-Objekt.

Nachtrag Elektrische Einflüsse
Eine CPU ist ein sehr komplexer Schaltkreis, selbst bei normaler Umgebungstemperatur sind durch Stromfluss bedingte Sekundärströme zu beachten. Jeder fließende Strom produziert Elektromagnetische Felder und Wärme (gilt für alle normalen Leiter). Der Transformator ist in diesem Falle durchaus vergleichbar mit einer CPU. Bei einer CPU ist dies jedoch kein konstant fließender Strom, sondern ist ein "quasi Chaotisch" fließender Strom, mit der Folge, dass Leiterbahnen wechselweise ihren Widerstand ändern, ohne dass alles 100% vorberechnet werden kann! Die Leiterbahnen sind auch nicht so schön regelmäßig im Raum aufgebaut, wie die klassische Spule eines Transformators im Schulversuch, dies erhöht die „Unvorherberechenbarkeit“ eines stromdurchflossenen komplexen Körpers.

Nachtrag: Simulation der elektrischen Wechselwirkungen
In der Vergangenheit waren elektrische Wechselwirkungen einer CPU eher ein 2-dimensionales Problem. Mit zunehmender Stapelhöhe der CPU“ Leiterbahnenkarten“ (der K6 hatte ein 5-Schicht Design – Die Athlons entwickelten sich von 6 Schichten zu bis jetzt 9 Schichten {Barton}) wächst sich das Problem, der Berechnung von Elektrischen-Wechselwirkungen, zu einem 3-dimensionalem Problem aus. Alle CPU-Bäcker gestalten ihre CPU’s immer komplexer.
Basierend auf Erfahrung und Simulationen werden CPU- Designs gebacken, diese Erfahrung ist in seinem Wert daher gar nicht hoch genug einzuschätzen. Nicht ohne Grund werden CPU-Designer aus dem Hause Alpha mit Kusshand genommen, da diese schon die verschiedensten Konzepte durchgedacht haben und auch Backen durften, ohne vom Marketing ausgebremst zu werden!

Nachtrag SOI, Maßnahmen gegen Tunneleffekte, Leckströme:
Dank an @Seemann aus „AMD XP 3200+ Enttäuschung?“
... Je kleiner die Strukturbreiten, desto größer die Leckströme. Der Palomino war ja noch in 0,18 µm gefertigt, die Nachfolger dann in 0,13 µm. Das erklärt die höheren Leckströme im TBred und im Barton. Zum Glück hat AMD mit SOI da eine mächtige Gegenmaßnahme in Petto!

...Dadurch, dass der gleiche Strom (trotz niedrigerer Spannung) durch eine kleinere "Leiterbahn" fließen muss, steigt der "Druck" auf die (auch kleiner gewordene) Isolierung (die jetzt auch nur noch 10 bis 20 Atomlagen dick ist) an, sodass "aus Versehen" doch mal das ein oder andere Elektron dahin wandert wo es nicht hin soll...

Antitunnelkommando SOI
Ein in jüngster Zeit aufgetretenes Phänomen sind die Leckströme, diese waren zwar immer schon vorhanden, waren aber nachrangig. @Seemann bemerkt aber ganz richtig, dass mit Umstellung auf die 0,13 µm Fertigungstechnologie bisher alle CPU Bäcker massive Probleme hatten. IBM, Motorola und AMD versuchten schon frühzeitig mit einem gleichen Konzept dagegen zusteuern, SOI war geboren (Silicon- on- Insulator). „SOI nutzt eine vergrabene Oxid-Schicht für die vollständige dielektrische Isolation jedes einzelnen Bauelements einer integrierten Schaltung“*. Herkömmlich war bisher, dass die Leiterbahnen und Transistoren, Bauteile direkt auf dem Silizium aufgebracht waren. Das Siliziumoxid war lediglich die Trennschicht zwischen den Leiterbahnebenen. Wenn das Verfahren im Griff ist geben alle Verfechter des Verfahrens eine Leistungssteigerung bis zu 30% an.

SOI verbessert die Isolatoreigenschaften durch spezielle Oxidschichten, ferner werden andere Isolatoren verwendet, der Sammelbegriff für diese spezielle „Stoffgruppe“ ist Dielektrika. Durch geschickte Kombination kann den Leckströmen und den Tunneleffekten so begegnet werden.
Leckströme sind ein spezieller Sonderfall von Tunneleffekten , dies betrifft genau die Stelle eines Transistors, wo gezielt der Elektronenfluss gesperrt oder durchgelassen wird.).
Zur Zeit geht man davon aus, dass das echte Minimum für eine Sperrschicht 3-4 Atomlagen sind.
Dahinter liegt der Phänomen-Zoo mit den Quanteneffekten, die zum Teil Phänomene zeigt, die dem normalen Verstand zu wieder laufen und auch mit Mitteln der Klassischen Physik nicht mehr erklärbar sind.

Link zu SOI:
* http://www.tecchannel.de/special/1040/

War im Forum CPU's
unter: warum sind amds so viel wärmer?

Auch gut:

1. Elektromigration durch hohen Takt/Temps?
2. CPU-Spezialisten sind gefragt
3. Her(t)zinfarkt - oder was ist Elektromigration?
Zu 3. Link dazu:
http://www.planet3dnow.de/vbulletin/showthread.php3?s=&threadid=79096
3 verweist auf folgende Links:
a. http://www.hardtecs4u.com/reviews/2003/snd_syndrom/

b. http://www.tweakpc.de/berichte/emig/emig.htm


c. http://www.hardtecs4u.com/reviews/2003/snd_syndrom/

Gruß Bokill
 
Zuletzt bearbeitet:
Original geschrieben von Bokill
Treverer was meinst du mit Energie?
Der Wasserfall mit 100 l Wasser bei einer Fallhöhe 2 liefert eine bestimmte Menge Kinetische Energie, bei einer Fallhöhe von 5 m reduziert sich die Kinetische Energie um die Hälfte.

peil ich jetzt nicht... ;D physik ist lange her, aber 100kg aus zwei meter höhe fallen gelassen entwickelt sicher nicht mehr kinetische als aus fünfen...hast dich sicher verschrieben....


also, was meine ich mit energie:

energie = arbeit = wärme (oder war arbeit jetzt leistung? nö, meine ich nicht)

reicht das als antwort :-*

achso, die einheit von energie ist Watt.

was passiert nun im prozessor? er wird gefüttert mit elektrischer energie um arbeit zu verrichten und dabei entsteht wärme...und nen paar ergebnisse wie high-scores, mp3 und pornos *lol*
 
Zurück
Oben Unten