App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Big Iron - wo geht die Reise hin?
- Ersteller mocad_tom
- Erstellt am
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Hat sich schon mal jemand dieses Paper angeschaut?
http://www.morganclaypool.com/doi/pdf/10.2200/S00193ED1V01Y200905CAC006
Seite 10:
http://www.morganclaypool.com/doi/pdf/10.2200/S00193ED1V01Y200905CAC006
Seite 10:
Das Paper lässt tief blicken.1.6.4 Quantifying Latency, Bandwidth, and Capacity
Figure 1.3 attempts to quantify the latency, bandwidth, and capacity characteristics of a WSC. For illustration we assume a system with 2,000 servers, each with 8 GB of DRAM and four 1-TB disk drives. Each group of 40 servers is connected through a 1-Gbps link to a rack-level switch that has an additional eight 1-Gbps ports used for connecting the rack to the cluster-level switch (an Ooversubscription factor of 5). Network latency numbers assume a socket-based TCP-IP transport, and networking bandwidth values assume that each server behind an oversubscribed set of uplinks is using its fair share of the available cluster-level bandwidth. We assume the rack- and cluster-level switches themselves are not internally oversubscribed. For disks, we show typical commodity disk drive (SATA) latencies and transfer rates.
Zuletzt bearbeitet:
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Klingt sehr nach den Data Center Switches welche es von Cisco gibt.
Nexus 5000 mit Fabric Extender gibt es seht mehr als einem Jahr, allerdings mit 10Gbps Anschlüssen
Von daher ist dieses Paper *gähn* nix wirklich neues.
Wir haben sowas da bei uns im RZ im Einsatz.
Big Iron ist also schon länger in diese Richtung gegangen ....
lg
__tom
Nexus 5000 mit Fabric Extender gibt es seht mehr als einem Jahr, allerdings mit 10Gbps Anschlüssen
Von daher ist dieses Paper *gähn* nix wirklich neues.
Wir haben sowas da bei uns im RZ im Einsatz.
Big Iron ist also schon länger in diese Richtung gegangen ....
lg
__tom
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Du nimmst mir die Worte aus dem Mund.... Big Iron ist also schon länger in diese Richtung gegangen ...
Zudem ziehen auch SSDs ein und sind sozusagen ein Level 4 Cache vor den vielen Festplatten.
Aber folgendes scheint mir für Dicke Eisen interessant- Tilera* ist da und scheint einige Unternehmen in den Bann gezogen zu haben. Deren Kachel-Architektur ist interessant genug für Samsung und Cisco: "Tilera raises $45 million from Samsung and Cisco".
Ältere Meldungen:
"ARM-Server-Startup sammelt 48 Millionen US-Dollar" (16.08.2010)
"Prozessorgeflüster, Von Okrakel und Oracle" c`t 16 2010 (Sommer 2010)
MFG Bobo(2010)
* = CPU-Glossar
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Eben meine Rede.
Sie bauen die größte Suchmaschine der Welt, ohne irgendwo teure Komponenten rein zu klemmen.
Deren Hardware-Spezifikation klingt so langweilig, dass man darüber einschlafen könnte.
Aber der Aufbau und der Software-Stack, der darauf läuft, kitzelt das Maximum heraus.
Habt ihr euch schon die Latenzen angeschaut?
Eigener Hauptspeicher hat niedrige Latenzen.
Hauptspeicher eines Knotens im eigenen Rack ist schneller zu erreichen, als die eigene (lokale) Festplatte.....
@Bobo
Ich finde so etwas einen totalen Quatsch.
General-Purpose-Prozessoren haben ihren Einsatzbereich gefunden und GPGPU-Supercomputing beweist, dass es ein richtiger Ansatz ist.
Zwischen den beiden "Extremen" wird es ARM nicht schaffen.
Entweder wird der ARM-Cluster ausgestochen von einem Warehouse-Scale-Computer, wie ihn Urs Hölzle beschreibt, oder aber von einem GPGPU-Cluster, wie er z.B. durch den Tianhe-1A-Cluster realisiert wird.
Wo soll denn da die Luft zum Atmen bleiben? In welchem Aufgabenbereich soll so ein ARM-Cluster wirklich schneller sein - der Sinn dahinter ergibt sich mir nicht.
Oder dieser Ansatz:
http://www.anandtech.com/Show/Index...-with-512-atom-cpus-and-low-power-consumption
Wirklich lächerlich.
Sie bauen die größte Suchmaschine der Welt, ohne irgendwo teure Komponenten rein zu klemmen.
Deren Hardware-Spezifikation klingt so langweilig, dass man darüber einschlafen könnte.
Aber der Aufbau und der Software-Stack, der darauf läuft, kitzelt das Maximum heraus.
Habt ihr euch schon die Latenzen angeschaut?
Eigener Hauptspeicher hat niedrige Latenzen.
Hauptspeicher eines Knotens im eigenen Rack ist schneller zu erreichen, als die eigene (lokale) Festplatte.....
@Bobo
Das finde ich wiederum zum Gähnen. Im Urs Hölzle Abstract "Brawny cores still beat wimpy cores, most of the time" wird angedeutet, dass zu kleine Kerne keinen Sinn machen, weil die Kommunikation untereinander zu teuer ist.Ältere Meldungen:
"ARM-Server-Startup sammelt 48 Millionen US-Dollar" (16.08.2010)
Ich finde so etwas einen totalen Quatsch.
General-Purpose-Prozessoren haben ihren Einsatzbereich gefunden und GPGPU-Supercomputing beweist, dass es ein richtiger Ansatz ist.
Zwischen den beiden "Extremen" wird es ARM nicht schaffen.
Entweder wird der ARM-Cluster ausgestochen von einem Warehouse-Scale-Computer, wie ihn Urs Hölzle beschreibt, oder aber von einem GPGPU-Cluster, wie er z.B. durch den Tianhe-1A-Cluster realisiert wird.
Wo soll denn da die Luft zum Atmen bleiben? In welchem Aufgabenbereich soll so ein ARM-Cluster wirklich schneller sein - der Sinn dahinter ergibt sich mir nicht.
Oder dieser Ansatz:
http://www.anandtech.com/Show/Index...-with-512-atom-cpus-and-low-power-consumption
Wirklich lächerlich.
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.983
- Renomée
- 232
@Itanium
Oracle steigt aus.
http://www.heise.de/newsticker/meldung/Oracle-stellt-die-Softwareentwicklung-fuer-den-Itanium-ein-1213716.html
MfG
Oracle steigt aus.
http://www.heise.de/newsticker/meldung/Oracle-stellt-die-Softwareentwicklung-fuer-den-Itanium-ein-1213716.html
MfG
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Johan de Gelas hat bei Anandtech einen Westmere-EX-Artikel geschrieben.
http://www.anandtech.com/show/4285/westmereex-intels-flagship-benchmarked/6
Ziemlich interessant, dass AMD beim Stromverbrauch gut mithalten kann.
Das müsste ja dann beim BD noch besser werden.
http://www.anandtech.com/show/4285/westmereex-intels-flagship-benchmarked/6
Ziemlich interessant, dass AMD beim Stromverbrauch gut mithalten kann.
Das müsste ja dann beim BD noch besser werden.
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
najaaa, x86 ist aber nun wirklich kein "big iron".
Was ich ebenso peinlich finde ist die Tatsache, dass alle außer IBM bei 2 GHz herumgurken und trotzdem auf dicke Hose machen....
Aber das mit dem Stromverbrauch erstaunt wirklich und lässt hoffen, dass die nächste Generation aufzuholen im Stande ist.
Was ich ebenso peinlich finde ist die Tatsache, dass alle außer IBM bei 2 GHz herumgurken und trotzdem auf dicke Hose machen....
Aber das mit dem Stromverbrauch erstaunt wirklich und lässt hoffen, dass die nächste Generation aufzuholen im Stande ist.
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Mir fällt eigentlich nur noch ein Iron ein, welches größer ist als der Westmere-EX.
Der Power7 aber die anderen haben sich im Umfeld-Performance-Krone verabschiedet.
Wer heute was großes will kann auch zu Intel greifen.
Ein Acht-Sockel Westmere-EX hat mächtig Dampf.
8 Sockel, 10 Kerne, 2 Threads pro Kern = 160 Threads.
Speicherausbau - mächtig viel.
Der Power7 aber die anderen haben sich im Umfeld-Performance-Krone verabschiedet.
Wer heute was großes will kann auch zu Intel greifen.
Ein Acht-Sockel Westmere-EX hat mächtig Dampf.
8 Sockel, 10 Kerne, 2 Threads pro Kern = 160 Threads.
Speicherausbau - mächtig viel.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
8 Sockel, 10 Kerne, 2 Threads pro Kern = 160 Threads.
Speicherausbau - mächtig viel.
Wenn den ein BS soviel mich machen würde. Selbst Linux hatte mit 80 Kernen Problem in der aktuellen ct zumindestens
Windows Server 2008 R2 hat bei >64 Kernen große Probleme.
nonworkingrich
Captain Special
- Mitglied seit
- 28.04.2006
- Beiträge
- 234
- Renomée
- 4
Manchem ist aber RAS wichtiger als Dampf.Wer heute was großes will kann auch zu Intel greifen.
Ein Acht-Sockel Westmere-EX hat mächtig Dampf.
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
http://www.tecchannel.de/server/pro...ation_dreimal_schneller_als_x7460/index4.html
In Sachen RAS haben die neuen Xeon aufgeholt.
Und zur maximalen Anzahl an Kernen in einem OS:
http://pdos.csail.mit.edu/papers/linux:osdi10.pdf
In Sachen RAS haben die neuen Xeon aufgeholt.
Und zur maximalen Anzahl an Kernen in einem OS:
http://pdos.csail.mit.edu/papers/linux:osdi10.pdf
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
http://www.tecchannel.de/server/pro...ation_dreimal_schneller_als_x7460/index4.html
In Sachen RAS haben die neuen Xeon aufgeholt.
Und zur maximalen Anzahl an Kernen in einem OS:
http://pdos.csail.mit.edu/papers/linux:osdi10.pdf
Die RAS Features des Xeon kommen noch lang nicht an die des POWER heran. Alleine doublechecked Execution und Processor Hotswapping sind bei den x86 Kisten nicht möglich.
Und zu den 48 Kernen in einem OS: was ist daran so besonders? Wir haben seit Monaten 4P MagnyCourse Maschinen im Produktiveinsatz.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
die hatten 48 Kerne, ich meine auch gelesen zu haben das man ab 63 Kerne zu in Gruppierungen packen muss was wohl nicht so trivial ist.
Die ct hat in der aktuellen den EX und 80 Kerne...
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Der Smiliey ist da nur aus versehen reingekommen.
Das Paper befasst sich mit Open-Source. Sprich wenn man sich dahinterklemmt kann man Linux dahingehend aufbohren, dass es skaliert. Die habens jetzt bis 48 Kerne gemacht, bei mehr wirds schwieriger. IBM und Oracle mit ihren kommerziellen Produkten sind da schon drüber.
Ist ja klar, dass sich die OSe daran anpassen müssen, dass die Grenzen immer weiter nach oben gepushed werden.
Ein 8-Sockel-Xeon 160 Threads.
Ein 4-Sockel-G34-Bulldozer jetzt dann hoffentlich bald 64 Threads.
Das Paper befasst sich mit Open-Source. Sprich wenn man sich dahinterklemmt kann man Linux dahingehend aufbohren, dass es skaliert. Die habens jetzt bis 48 Kerne gemacht, bei mehr wirds schwieriger. IBM und Oracle mit ihren kommerziellen Produkten sind da schon drüber.
Ist ja klar, dass sich die OSe daran anpassen müssen, dass die Grenzen immer weiter nach oben gepushed werden.
Ein 8-Sockel-Xeon 160 Threads.
Ein 4-Sockel-G34-Bulldozer jetzt dann hoffentlich bald 64 Threads.
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Der Smiliey ist da nur aus versehen reingekommen.
Das Paper befasst sich mit Open-Source. Sprich wenn man sich dahinterklemmt kann man Linux dahingehend aufbohren, dass es skaliert. Die habens jetzt bis 48 Kerne gemacht, bei mehr wirds schwieriger. IBM und Oracle mit ihren kommerziellen Produkten sind da schon drüber.
Ist ja klar, dass sich die OSe daran anpassen müssen, dass die Grenzen immer weiter nach oben gepushed werden.
Sorry, aber glaub bitte nicht immer dem Marketinggeblubber der großen Anbieter. Ja, Linux mag teilweise noch Probleme haben, die man mit etwas Tuning umgehen kann. Die 48 Core Maschinen bei uns laufen trotzdem auf RedHat EL und das ziemlich gut.
Dagegen haben wir mit Solaris teilweise massive Skalierungsprobleme, auch wenn Oracle behauptet Solaris würde extrem gut skalieren. Die wollen halt was verkaufen, kochen aber wie alle anderen auch nur mit Wasser.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
die hatten 48 Kerne, ich meine auch gelesen zu haben das man ab 63 Kerne zu in Gruppierungen packen muss was wohl nicht so trivial ist.
Wer sind die?
Falls du die ct meintest, die hat in der 12/2011 mit 80 logische Prozessoren getestet. Die Gruppierung unter Windows und deren Problematik wurde dort auch erwähnt.Die Programme hatten entweder 60 oder 20 Kerne wie viele der Anwendung dann zur Verfügung standen war dann reiner Zufall.
Das "die" bezog sich auf das Paper was verlinkt war.Das System hatte 48 kerne.
Das hab ich (noch) nicht gelesen aber die Beschreibung das Kerne zufällig zugewiesen werden sagt doch das es nicht einfach ist.Falls du die ct meintest, die hat in der 12/2011 mit 80 logische Prozessoren getestet. Die Gruppierung unter Windows und deren Problematik wurde dort auch erwähnt.Die Programme hatten entweder 60 oder 20 Kerne wie viele der Anwendung dann zur Verfügung standen war dann reiner Zufall.
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Gut das so zu hören. Ich finde ja auch das Paper extrem spannend - es befasst sich ja nicht mit einer maximalen teoretischen Anzahl an CPUs, sondern mit der tatsächlichen Rohleistung in realen Anwendungen.Sorry, aber glaub bitte nicht immer dem Marketinggeblubber der großen Anbieter. Ja, Linux mag teilweise noch Probleme haben, die man mit etwas Tuning umgehen kann. Die 48 Core Maschinen bei uns laufen trotzdem auf RedHat EL und das ziemlich gut.
Dagegen haben wir mit Solaris teilweise massive Skalierungsprobleme, auch wenn Oracle behauptet Solaris würde extrem gut skalieren. Die wollen halt was verkaufen, kochen aber wie alle anderen auch nur mit Wasser.
Es geht darum, wo das Filesystem hakt, wo globale Counter Flaschenhälse darstellen, wo die Netzwerkkarte ein Flaschenhals sein kann.
Und tatsächlich schaffen sie es Postgres auf einer 48-Kern-Maschine skalieren zu lassen - finde ich extrem spannend. Apache skaliert (auch wenn ich da lieber nginx gesehen hätte). Memcache skaliert.
Es geht ja nicht mehr wirklich darum, ein Programm 160 mal parallel zu starten und die Prozessoren aus zu lasten. Dafür kann man sich ja auch eine Farm aus Zwei-Sockel-Server bauen. Es geht darum eine konkrete Anwendung (Postgres, Mysql, MS SQL Server) auf ein Eisen drauf zu installiern und zu kucken wie gut mir diese Kiste unter Last antwortet. Memcache und Apache sind ja schon wieder Anwendungen, die sich über mehrere Kisten hinweg verteilen lassen.
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi
hm mal ein Test unter verschiedenen Systemen wäre mal Interessant zb. Linux Win2008 R2 Solaris OVMS usw.
Aber ich glaube sie werden immer weiter diese Maschinen Virtualisieren und der Skalierung ab einem Punkt nicht weiter folgen da der Aufwand je nach Applikation sehr aufwendig wird.
lg
hm mal ein Test unter verschiedenen Systemen wäre mal Interessant zb. Linux Win2008 R2 Solaris OVMS usw.
Aber ich glaube sie werden immer weiter diese Maschinen Virtualisieren und der Skalierung ab einem Punkt nicht weiter folgen da der Aufwand je nach Applikation sehr aufwendig wird.
lg
Ähnliche Themen
- Antworten
- 6
- Aufrufe
- 572
- Antworten
- 1
- Aufrufe
- 392
- Antworten
- 1
- Aufrufe
- 309
- Antworten
- 0
- Aufrufe
- 168