App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Santa Clara! Is there a problem??
- Ersteller tomturbo
- Erstellt am
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
jap... ich muss zustimmen AMD ist derzeit geschockt und Intel hat seinen schock gerade hinter sich. nur sehe ich bei AMD einen kleinen Unterschied. denn Intel musste jetzt Seine "fehlentwicklungen" über bord werfen um das richtige zum conroe zu vereinen. AMD hingegen, war im groben schon auf dem richtigen weg, muss also am grundlegenden weg nichts verändern, vielmehr Hat AMD in seiner "trödelphase" an der Spitze des Marktes neue Ideen gesammelt, die sich Später vieleicht als sehr rentabel herausstellen können (das lässt sich auch an den Ankündigungen von AMD ablesen, die derzeit erstaunlich häufig auftreten). Interessant wird dann ob sie die richtigen ideen gesammelt haben, oder ob doch das meiste in die falsche richtung geht.
raven-666
Commodore Special
- Mitglied seit
- 19.08.2003
- Beiträge
- 430
- Renomée
- 3
- Prozessor
- c2d e6400@3,2
- Mainboard
- asus
- Kühlung
- lukü - scythe ninja
- Speicher
- 4x1024 geil/gskill
- Grafikprozessor
- connect 3d x800xl
- Display
- samsung 19" tft
- HDD
- hitachi 250GB Sata2, 2x Samsung 160 GB Sata2
- Optisches Laufwerk
- Benq Dvd-Brenner, Plextor CD-RW
- Soundkarte
- on board
- Gehäuse
- Thermaltake Tsunami
- Netzteil
- enermax 430W
- Betriebssystem
- Vista Ultimate 64bit
- Webbrowser
- firefox
... das lässt sich auch an den Ankündigungen von AMD ablesen, die derzeit erstaunlich häufig auftreten
was zum beispiel? ich habe in letzter zeit für mich nicht viel neues entdecken können...
lg
Dresdenboy
Redaktion
☆☆☆☆☆☆
Hach, entsteht hier schon wieder amüsanter Lesestoff
Wenn Patente, die den jetzigen K8 betreffen (in größerer Zahl hier zitiert), hauptsächlich im Zeitraum 1998-1999 eingereicht wurden, und man sich dazu bewußt wird, dass diese vorwiegend während oder gar erst nach dem Designprozess eingereicht werden, kann man sich ja gut vorstellen, wie lang der Entwicklungsprozess ist und vor allem, dass er doch schon deutlich vor dem Erscheinen des K7 auf dem Markt begann.
Da war es meiner Meinung nach bei AMD üblich, durch "Pipelining" zweier CPU-Designs die entsprechenden Designteams für die versch. Stufen (von High Level Architecture bis zum Gate-Level) gut auszulasten. Während der K7 finalisiert wurde, konnten die anderen Subteams ja schon am K8 arbeiten. Und das war dennoch notwendig, obwohl der K8 ja offensichtlich vom K7 abgeleitet wurde. Nebenbei entstehen ja auch stetig neue Revisionen mit ebenfalls kleineren Änderungen, die auch nicht die volle Manpower benötigen.
Bei (entwicklungstechnisch gesehen) kleineren Neuerungen, wie z.B. Dual Core (die SRQ war ja schon dafür ausgelegt) mit praktisch gespiegelten Cores, was das Design etwas vereinfacht, muss es natürlich nicht genauso ablaufen. Der DC war eher schon recht früh im Designprozess mit vorgesehen worden.
Der K8 kam (verspätet durch Prozessprobleme) schließlich im Frühjahr 2003 heraus und nach dem bisherigen Muster begann die Entwicklung des K8L (und/oder bis jetzt verworfener Designs) irgendwann im Zeitraum 2000-2002. Jetzt haben wir 2006 und ein Erscheinen des K8L nicht zu spät im Jahre 2007 würde gut in das Muster passen. Davon abgesehen, dass ja auch schon (von Ruiz auch bestätigt) an der nachfolgenden Architektur gearbeitet wird, wirkt das alles weder hastig noch überstürzt oder gar durch Intels NGMA verursacht. Es ist auch schon lange her, als wir beim INQ von irgendwelchen verworfenen Designs bei AMD lasen, sofern es sie gab und wo uns auch die Gründe nicht bekannt sind.
AMD kann/konnte vor allem nicht so handeln wie Intel. Sie konnten es sich bis vor wenigen Quartalen überhaupt nicht leisten, soviele parallele Entwicklungen wie Intel am Laufen zu haben. Intel hat ja sowohl bei der Netburst-Reihe, als auch bei den P6-Nachfolgern separat Designs in den Designpipelines gehabt. Für Intel war eine Entscheidung, eine Linie zu kippen, überhaupt erst möglich, da die andere Linie selbst eigentlich gut für den Einsatz auf allen Märkten (Server, Mobile, Desktop) geeignet war. Nun sind sie da, wo AMD bisher war: eine µArchitektur für alles.
Noch etwas zur Verdeutlichung der Umstände:
Da gehe ich nur nicht konform mit der Erwähnung kompletter Teams (von High- bis Low-Level-Design) pro Design, da z.B. die Architektur-Entwickler einfach nicht die ganze Zeit bis zur Marktreife an einer CPU arbeiten können.
Zum Vergleich mal der Entwicklungsprozess einer GPU (geschrieben von keinem INQ-Reporter ):
http://uk.theinquirer.net/?article=32876
Wenn Patente, die den jetzigen K8 betreffen (in größerer Zahl hier zitiert), hauptsächlich im Zeitraum 1998-1999 eingereicht wurden, und man sich dazu bewußt wird, dass diese vorwiegend während oder gar erst nach dem Designprozess eingereicht werden, kann man sich ja gut vorstellen, wie lang der Entwicklungsprozess ist und vor allem, dass er doch schon deutlich vor dem Erscheinen des K7 auf dem Markt begann.
Da war es meiner Meinung nach bei AMD üblich, durch "Pipelining" zweier CPU-Designs die entsprechenden Designteams für die versch. Stufen (von High Level Architecture bis zum Gate-Level) gut auszulasten. Während der K7 finalisiert wurde, konnten die anderen Subteams ja schon am K8 arbeiten. Und das war dennoch notwendig, obwohl der K8 ja offensichtlich vom K7 abgeleitet wurde. Nebenbei entstehen ja auch stetig neue Revisionen mit ebenfalls kleineren Änderungen, die auch nicht die volle Manpower benötigen.
Bei (entwicklungstechnisch gesehen) kleineren Neuerungen, wie z.B. Dual Core (die SRQ war ja schon dafür ausgelegt) mit praktisch gespiegelten Cores, was das Design etwas vereinfacht, muss es natürlich nicht genauso ablaufen. Der DC war eher schon recht früh im Designprozess mit vorgesehen worden.
Der K8 kam (verspätet durch Prozessprobleme) schließlich im Frühjahr 2003 heraus und nach dem bisherigen Muster begann die Entwicklung des K8L (und/oder bis jetzt verworfener Designs) irgendwann im Zeitraum 2000-2002. Jetzt haben wir 2006 und ein Erscheinen des K8L nicht zu spät im Jahre 2007 würde gut in das Muster passen. Davon abgesehen, dass ja auch schon (von Ruiz auch bestätigt) an der nachfolgenden Architektur gearbeitet wird, wirkt das alles weder hastig noch überstürzt oder gar durch Intels NGMA verursacht. Es ist auch schon lange her, als wir beim INQ von irgendwelchen verworfenen Designs bei AMD lasen, sofern es sie gab und wo uns auch die Gründe nicht bekannt sind.
AMD kann/konnte vor allem nicht so handeln wie Intel. Sie konnten es sich bis vor wenigen Quartalen überhaupt nicht leisten, soviele parallele Entwicklungen wie Intel am Laufen zu haben. Intel hat ja sowohl bei der Netburst-Reihe, als auch bei den P6-Nachfolgern separat Designs in den Designpipelines gehabt. Für Intel war eine Entscheidung, eine Linie zu kippen, überhaupt erst möglich, da die andere Linie selbst eigentlich gut für den Einsatz auf allen Märkten (Server, Mobile, Desktop) geeignet war. Nun sind sie da, wo AMD bisher war: eine µArchitektur für alles.
Noch etwas zur Verdeutlichung der Umstände:
(http://en.wikipedia.org/wiki/CPU_design)High-end processor economics
Developing new, high-end CPUs is a very expensive proposition. Both the logical complexity (needing very large logic design and logic verification teams and simulation farms with perhaps thousands of computers) and the high operating frequencies (needing large circuit design teams and access to the state-of-the-art fabrication process) account for the high cost of design for this type of chip. The design cost of a high-end CPU will be on the order of US $100 million. Since the design of such high-end chips nominally take about five years to complete, to stay competitive a company has to fund at least two of these large design teams to release products at the rate of 2.5 years per product generation. Only the personal computer mass market (with production rates in the hundreds of millions, producing billions of dollars in revenue) can support such economics. As of 2004, only four companies are actively designing and fabricating state of the art general purpose computing CPU chips: Intel, AMD, IBM and Fujitsu. Motorola has spun off its semiconductor division as Freescale as that division was dragging down profit margins for the rest of the company. Texas Instruments, TSMC and Toshiba are a few examples of a companies doing manufacturing for another company's CPU chip design.
Da gehe ich nur nicht konform mit der Erwähnung kompletter Teams (von High- bis Low-Level-Design) pro Design, da z.B. die Architektur-Entwickler einfach nicht die ganze Zeit bis zur Marktreife an einer CPU arbeiten können.
Zum Vergleich mal der Entwicklungsprozess einer GPU (geschrieben von keinem INQ-Reporter ):
http://uk.theinquirer.net/?article=32876
Zuletzt bearbeitet:
rkinet
Grand Admiral Special
a) Kann ich nur zustimmen. Zudem nützen AMD tolle CPU-Designs wenig, wenn nicht die dafür nötige Prozesstechnologie einsatzreif ist. Ich gehe mal davon aus, daß AMD schon vor Jahren den CPUs auch Prozesse (130/90/65/45/32nm) zugeordnet hat incl. Transitoren und deren Leistungsdaten (Takt, Verlustleistung)a) Der K8 kam (verspätet durch Prozessprobleme) schließlich im im Frühjahr 2003 heraus und nach dem bisherigen Muster begann die Entwicklung des K8L (und/oder bis jetzt verworfener Designs) irgendwann im Zeitraum 2000-2002. Jetzt haben wir 2006 und ein Erscheinen des K8L nicht zu spät im Jahre 2007 würde gut in das Muster passen.
b) AMD kann/konnte vor allem nicht so handeln wie Intel. Sie konnten es bis vor wenigen Quartalen überhaupt nicht leisten, soviele parallele Entwicklungen wie Intel am Laufen zu haben. Intel hat ja sowohl bei der Netburst-Reihe, als auch bei den P6-Nachfolgern separat Designs in den Designpipelines gehabt. Für Intel war eine Entscheidung, eine Linie zu kippen, überhaupt erst möglich, da die andere Linie selbst eigentlich gut für den Einsatz auf allen Märkten (Server, Mobile, Desktop) geeignet war. Nun sind sie da, wo AMD bisher war: eine µArchitektur für alles.
b) AMD wurde durch den Schwenk weg von Netburst /BTX kalt erwischt. Erst vor wenigen Monaten hat AMD bestätigt, daß CPUs mit (zu) hohem Strombedarf bald unverkäuflich wären. AMD mußte also innerhalb weniger Monate die Roadmap neu ausrichten, also DSL / eSiGe nicht für Takt sondern für weniger TDP einsetzen.
AMD muss sich bei den Entwicklungen beschränken, allerdings hat man auch viel Gutes einfach in die Tonne gehauen.
Noch in 130nm baute man den 'Paris', der außerordentlich wenig Strom benötigte - eingestellt.
Der Winchester (90nm) machte als Mobil-CPU und im Desktop machte Verbrauchswerten Aufsehen, die vielleicht ein Single-Core Conroe mal packen könnte - eingestellt.
Dann kam Intel Mitte 2005 - jetzt wird bei AMD wieder auf low power zurück gerudert.
AMD gibt wenig Infos zum So.AM2 'Manila' raus. Es ist aber zu 'befürchten', daß es sich hierbei um einen K8 handelt, der alles für Stepping F enthält, nur teildeaktiviert. So 100mm2 wird das Ding schon haben, zu verscherbeln ab $50 boxed. Ein modifizierter Winchester (fehlt eigentlich nur SSE3 und DDR2-Controller) mit 256k-L2 (vgl. Paris) würde bei 70mm2 liegen und deutlich die Herstellungskosten senken bzw. Waferfläche für X2 erhöhen.
Es brauch also nicht viele Ingenieure um gute Produkte zu fertigen. Allerdings hat AMD systematisch die Desktop-CPUs vernachläßit (2004 auf einem Analytentag sogar so präsentiert) und sich voll auf Opteron und Mobilmarkt ausgerichtet. Nicht einmal eine nachvollziehbare Socket-Politik betriebt AMD beim Desktop.
Jetzt kommt der Geldbringer Desktop ins schlingern - hausgemacht durchs Management der AMD.
Fonce
Vice Admiral Special
- Mitglied seit
- 03.08.2005
- Beiträge
- 620
- Renomée
- 1
- Prozessor
- AMD Phenom II X3 720BE
- Mainboard
- ASRock AOD790GX/128M
- Kühlung
- Noctua NH-U9F
- Speicher
- 4x1024MB DDR2-800 CL5
- Grafikprozessor
- Radeon HD 4850 512MB@650/1030MHz
- Display
- BenQ FP91GX
- HDD
- Samsung HD753LJ
- Optisches Laufwerk
- Samsung SH-S223F/BEBE
- Gehäuse
- Antec Three Hundred
- Netzteil
- Enermax 460W
- Betriebssystem
- Windows Vista Ultimate 64bit
- Webbrowser
- Firefox
AMD hat sich hauptsächlich auf den Server und Mobil Markt konzentriert weil hier das große geld zu machen ist ganz einfach
rkinet
Grand Admiral Special
Da kann Intel jetzt aber per Woodcrest/Merom auch blockieren.AMD hat sich hauptsächlich auf den Server und Mobil Markt konzentriert weil hier das große geld zu machen ist ganz einfach
Die hohe SSE-Performance ist natürlich beim Server selten nötig aber ein nettes Abfallprodukt aus dem Conroe-Design. Ebenso profitiert der Merom vom 4-fach superskalaren Aufbau, das rein für Server oder Mobilchips wohl so nicht gekommen wäre.
Intel hat viel Geld für die Entwicklung des neues Designs ausgegeben, kann die Kosten aber auch auf 3 Produktgruppen verteilen.
Dennoch ist natürlich Desktop preiskritisch - http://www.heise.de/newsticker/meldung/76220:
Intel stehe zwar nun durch seine neuen Produkte im Leistungsvergleich mit AMD besser, doch der PC-Markt sei zunehmend weniger an Performance interessiert. Diese Marktkräfte stellten für Intel eine größere Herausforderung dar als für AMD
Rein auf den Desktop betrachtet ist also die zurückhaltende Haltung (K8L, 65nm-Einführung) nachvollziehbar. Das Problem entsteht in der Verknüpfung aller drei Produktlinien für AMD. Zudem ein kräftiger Imageschaden für AMD wg. Performanceverlust. Je Desktop-CPU verdient AMD wenig, aber ohne diesen Bereich wird der Gewinn in Summe aber mickrig und kann die Kosten der anderen nicht tragen.
Allerdings hat AMD systematisch die Desktop-CPUs vernachläßit (2004 auf einem Analytentag sogar so präsentiert) und sich voll auf Opteron und Mobilmarkt ausgerichtet.
Intel stehe zwar nun durch seine neuen Produkte im Leistungsvergleich mit AMD besser, doch der PC-Markt sei zunehmend weniger an Performance interessiert.
Vielleicht war/ist ja es gut, dass sich AMD kurzzeitig nicht mehr so stark auf die Destop-CPUs konzentriert hat, da sie eben nicht 5 Entwicklungsteams gleichzeitig arbeiten haben, aber auch einmal gescheit Plattformen benötigt.
Vielleicht ja es ja sehr gut, dass sich AMD, sagen wird mal, zwischen Mitte 2005 und Mitte 2006, sich auf die Plattformen (Notebook, Wohnzimmer-CPU,...) konzentriert hat, da die Performance (siehe oben) nicht mehr so wichtig ist, sondern eher der Preis (Vereinheitlichung beiattformen) und der Stromverbrauch (Alle Komponeten auf Hinblick des Stromverbrauchs)
Und dann ist Anfang 2006 AMD draufgekommen, dass sie ATI braucht um diese Plattformen relativ schnell und gut zu erreichen.
Schließlich war/istgerade die Notebook-Plattform a la Centrino die Sträke Intel
Gut, AMD wurde mit der Leistung des Conroe übrauscht. Aber hätten die es sonst noch besser machen können??
Immerhin haben sie erst seit paar Quartalen 2 Entwicklungsteams und sie müssen in Zukunft vielleicht nicht mehr einen CPU Typ für einigen Monate einfrieren.
rkinet
Grand Admiral Special
Besser machen:Gut, AMD wurde mit der Leistung des Conroe übrauscht. Aber hätten die es sonst noch besser machen können??
- 65nm ist einfach überfällig, obwohl die Fab36 es kann; 65nm hätte jetzt verfügbar sein müssen.
- damit dann low power Turion X2 fertigen
- und mid power Desktop = ca. 65 Watt
- und endlich den TDP++ Quatsch beenden und die Werte realistisch angeben.
- dazu die Socket-Situation in den Griff kriegen. DDR2 benötigt einfach noch etwas Zeit zum Durchbruch. DDR1 ist auch 2006 noch wichtig, aber für So. 754 fehlen die performanten CPUs und für So.939 gehts zwar ab 30/3200+ los, dafür will AMD diesen Socket schnell killen.
Das ist kein Hexenwerk, muss aber gemacht werden.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Wie seht ihr es eigentlich mit den Memorycontrollern für FB-DIMMs? Wird hier AMD künftig seinen Vorteil behalten? Immerhin sitzen bei der Bensley Plattform gleich zwei und bei der Caneland Plattform gleich vier Speichercontroller zusammen in einem Chipsatz, während bei AMD jeder Prozessor seinen eigenen Speichercontroller für FB-DIMMs mitbringen wird und laut Intel hat benötigt ein Speichercontroller 22 Watt. AMD geht sogar von 46 Watt aus. Wenn ich aber bedenke, dass bei Intel alle Speichercontroller schön gebündelt in einem Chipsatz stecken, dann könnte es doch sein, dass ein Vebrauchsvorteil von AMD künftig dahin ist, weil ich mir vorstellen kann, dass vier Speichercontroller verteilt über die einzlenen Prozessoren einen höheren Verrbauch haben. Es sei denn man wechselt überhaupt zu FB-DIMMs, wonach es aber aussieht. Zu groß sind die Vorteile. Allein dass nun je Speichercontroller ganze acht Kanäle zu Verfügung stehen und nicht bloß zwei. Immerhin wird AMD dann schon seinen 65nm Fertigungsprozess verwenden. Nimmt man an, dass die TDP deshalb bei den DualCore Modellen von 95 Watt auf 65 Watt absinkt und man dann wieder die 46 Watt für den Speichercontroller abzüglich der 12 Watt für den bisherigen DDR2-RAM Controller aufschlägt, dann kommt man auf 99 Watt, was ungefähr der usprünglichen TDP der 90nm Opteron Prozessoren entspricht. Damit würde alles beim Alten bleiben.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Da kann Intel jetzt aber per Woodcrest auch blockieren.
Der Woodcrest kann im Serverbereich meiner Meinung nach gar nichts aendern.
Wie die aktuellen Meldungen zeigen, ~26 % bei den Stückzahlen und 33 % beim Umsatz, verdient AMD wohl eher im Bereich der 4P Server, genau da wo Dell sich AMD zuwendet.
Endlich wird IBM heute auch sein AMD-Portfolio ausweiten. Das Konzept der Socket F die kompatibel zum Quad-Core sind (bei gleicher TDP) scheint zu überzeugen und man kann davon ausgehen, dass gerade IBM die Quad-Cores schon gesehen hat.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Intel wird ab künftig bei den QuadProcessor Systemen deutlich zu AMD aufschließen können, denn es sind Chipsätze seitens Intel in Arbeit, die für jeden Prozessor einen eigenen Frontsidebus und Memorycontroller bieten. Dann entfällt der Makel, dass sich zwei Prozessoren einen Frontsidebus teilen müssen. Sollte Intel soweit sein, dann wird AMD nur noch die Hochburg der OctProcessor Systeme für sich haben, denn dort ist meines Wissen seitens Intel nichts in Planung.
LinuS
Vice Admiral Special
Ist nicht bei Intel immernoch CSI in Entwicklung? Damit könnte Intel noch einen Schritt weiter an AMD rankommen (wie sich das anhört Intel = Plagiator nicht mehr AMD )
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Bei FB-DIMM's kommt der Stromverbrauch gegenüber AMD nicht nur von der Northbridge, sondern auch von dem Kontroller auf dem Modul.Wie seht ihr es eigentlich mit den Memorycontrollern für FB-DIMMs? Wird hier AMD künftig seinen Vorteil behalten?
Daher kommt AMD wahrscheinlich auf die 46 Watt.
.
.
Edit:
Eine externe Northbridge wird nie die Latenzen eines eingebauten Kontrollers haben können.Intel wird ab künftig bei den QuadProcessor Systemen deutlich zu AMD aufschließen können, denn es sind Chipsätze seitens Intel in Arbeit, die für jeden Prozessor einen eigenen Frontsidebus und Memorycontroller bieten.
Daher ist von dieser Seite eher wenig zu befürchten.
lg
__tom
Zuletzt bearbeitet:
rkinet
Grand Admiral Special
So eine Art 'Pseudo-Northbridge', wo der CPU-Bus nur die Anforderungen ans Ram über das Silicium in der 'North-Bridge' weiterleitet. Dann noch ergänzt um eine zusätzliche CPU <-> CPU Kommunikation ?Intel wird ab künftig bei den QuadProcessor Systemen deutlich zu AMD aufschließen können, denn es sind Chipsätze seitens Intel in Arbeit, die für jeden Prozessor einen eigenen Frontsidebus und Memorycontroller bieten.
Bei AMD ist per Hypertransport und durch die Aussagen bzgl. Quad-Core und spätere CPUs mit DDR2/3 Kombikontroller technisch gutes, aber eben auch plattformstabiles in Sicht. Der So.F kann so theoretisch 90nm, 65nm und 45nm überstehen (bei 45nm die 2006er Boards nur per DDR2 Kontrollerfunktion nutzbar).
Mal realistisch - sind obige Ideen von Intel genauso langfristig nutzbar ?
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Nein. Die 10,4 Watt für den AMB und die BGA Chips hatte AMD nicht in die Rechnung mit einbezogen. Laut AMD sind die 46 Watt allein für den Speichercontroller und das ist ja schon ein recht beträchtlicher Wert, welchen ich mir eigentlich gar nicht erklären kann, denn der Speichercontroller wird ja eigentlich durch die Abwälzung von Aufgaben an die einzelnen Module entlastet...., sondern auch von dem Kontroller auf dem Modul. Daher kommt AMD wahrscheinlich auf die 46 Watt.
Zuletzt bearbeitet:
Opteron
Redaktion
☆☆☆☆☆☆
Ja und nein. Die Caneland-Plattform hat zwar 4 eigene Leitungen zw. CPU <-> Chipsatz, aber ansonsten bleibt es bei den 4 FB DIMM Kanälen wie schon jetzt beim broadwater.Intel wird ab künftig bei den QuadProcessor Systemen deutlich zu AMD aufschließen können, denn es sind Chipsätze seitens Intel in Arbeit, die für jeden Prozessor einen eigenen Frontsidebus und Memorycontroller bieten. Dann entfällt der Makel, dass sich zwei Prozessoren einen Frontsidebus teilen müssen. Sollte Intel soweit sein, dann wird AMD nur noch die Hochburg der OctProcessor Systeme für sich haben, denn dort ist meines Wissen seitens Intel nichts in Planung.
Besser als früher natürlich, aber immer noch ne Notlösung. Allerdings ist die CPU (zum Glück für Intel) besser, der Bus wird durch die Woodcrest entlastet, da die inter-chip Kommunikation über den L2 abläuft. Der ist auch noch 4 MB groß, und buffert bestimmt auch noch einiges ab. (Ein Vergleich zum Tulsa wäre mal interessant, zirkulieren da noch keine Samples ? Aber max. 3,4 netburst GHz interessieret das wohl keinen )
Allerdings würde mich mal interessieren, wieviel Layern man da braucht pro Caneland-board. Und die Meganorthbridge dürfte auch nicht "billig" herzustellen sein.
Was mich zweitens interessieren würde ...
Was passiert wenn da 4 woocrests mit Ihren Prefetch den RAM "beackern". Könnte mir vorstellen, dass die sich da etwas in die Quere kommen könnten. Aber muss nicht unbedingt sein, z.b. wenn jede CPU andre Daten braucht.
ciao
Alex
ein viel größeres problem als der conroe selbst scheinen die neuen g965/963 chipsätze zu sein.
so berichten digitimes und andere über erhebliche verzögerungen aufgrund diverser technischer probleme mit der integrierten grafiklösung.
d.h. im stückzahlen-starken office-bereich ist das sicherlich für intel ein ärgernis, da spielt die verfügbarkeit des conroe ja schon fast eine untergeordnete rolle.
so berichten digitimes und andere über erhebliche verzögerungen aufgrund diverser technischer probleme mit der integrierten grafiklösung.
Delayed shipments of Intel G965 chipset may interrupt Conroe's march
However, a defect in the integrated graphics subsystem was found, and Intel notified its customers that next stepping, called C-2, which fixes the flaw, will likely not be shipped until the middle of August, the makers indicated.
d.h. im stückzahlen-starken office-bereich ist das sicherlich für intel ein ärgernis, da spielt die verfügbarkeit des conroe ja schon fast eine untergeordnete rolle.
rkinet
Grand Admiral Special
ein viel größeres problem als der conroe selbst scheinen die neuen g965/963 chipsätze zu sein.
so berichten digitimes und andere über erhebliche verzögerungen aufgrund diverser technischer probleme mit der integrierten grafiklösung.
Ein Glück gibt es ja noch Nvidia und im äußersten Notfall ATI, damit man was am Bildschirm erkennen kannhttp://uk.theinquirer.net/?article=33433
We are told that if you go above 800*600
Im äußersten Notfall kauft Intel einfach noch Nvidia dazu - Schwamm drüber
Zudem ist der Conroe bei low resolution besonders leistungstark im Vergleich zum X2.
Viele haben eh nicht so gute Augen, sodaß 800x600 doch völlig ausreichen dürfte 8)
Und im Office wird die Zockerzeit reduziert - die Firmen werden den Chip Intel aus den Händen reisen.
achso - technisch betrachtet - könnte es sein, daß der brutal schnell zugreifende Speicherkontroller beim Conroe (fast so niedrige Latenzzeiten wie beim K8 ) einfach der int. GPU in der Northbridge zu oft den Speicher 'klaut' ?
Dann müßte Intel den Conroe modifizieren, damit die GPU wieder Luft bekommt.
Zumindest eine unerwartete und spannende Info ...
Zuletzt bearbeitet:
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
aber die preise für ne extra karte will man ja vermeiden.
außerdem, finde ich es schwachsinnig für nen office PC nen hyperschnellen Conroe zu nehmen... da gibts garantiert billigere lösungen.
außerdem, finde ich es schwachsinnig für nen office PC nen hyperschnellen Conroe zu nehmen... da gibts garantiert billigere lösungen.
rkinet
Grand Admiral Special
http://de.theinquirer.net/2006/08/02/der_amdintelpreiskrieg_laesst.htmlaußerdem, finde ich es schwachsinnig für nen office PC nen hyperschnellen Conroe zu nehmen... da gibts garantiert billigere lösungen.
Material dafür hat Intel genug - der unverkaufte Berg an Chips wächst und wächst ...
Aber, im Office sind stromsparende Lösungen (Stromverbrauch, Kühlung, Geräusch) angesagt. Da erscheint mir selbst als AMD-Fan ein Budget-Conroe auf Dauer preiswerter als ein fast geschenkter Netburst mit viel GHz inside - oder eben gleich einen K8.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 127K
- Antworten
- 0
- Aufrufe
- 142K
- Antworten
- 868
- Aufrufe
- 184K