App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
10GBit Netzwerk - Direct Cache Access - Cloud Computing
- Ersteller mocad_tom
- Erstellt am
-
- Schlagworte
- 10gbit cloud multiqueue
- Status
- Für weitere Antworten geschlossen.
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Mit I/O Acceleration Technology, Direct Cache Access und Multiqueue-Netzwerkkarten sind TCP/IP-Verbindungen besser in Hardware gegossen worden und Multiqueue hilft Multi-Core-Systeme besser aus zu lasten.
Gibt es hier weitere Bestrebungen, um noch mehr merkmale von Infiniband in diese 10Gbit-Systeme mit hinein zu nehmen. Ist z.B. ein spezieller PCIe Port denkbar, der direkt an die CPU angeflanscht wird, um die Latenzen noch weiter herunter zu drehen.
Diese Features sind besonders Cloud Computing interessant, da günstig viel Rechenleistung vernetzt werden muss. Gleichzeitig darf aber nicht zu viel CPU-Overhead das System belasten. 10GBit Ethernet hat einen klaren Kostenvorteil gegenüber Infiniband, wird in Punkto Leistung der Abstand ebenfalls verkürzt?
Gibt es hier weitere Bestrebungen, um noch mehr merkmale von Infiniband in diese 10Gbit-Systeme mit hinein zu nehmen. Ist z.B. ein spezieller PCIe Port denkbar, der direkt an die CPU angeflanscht wird, um die Latenzen noch weiter herunter zu drehen.
Diese Features sind besonders Cloud Computing interessant, da günstig viel Rechenleistung vernetzt werden muss. Gleichzeitig darf aber nicht zu viel CPU-Overhead das System belasten. 10GBit Ethernet hat einen klaren Kostenvorteil gegenüber Infiniband, wird in Punkto Leistung der Abstand ebenfalls verkürzt?
Frank Kuypers
Intel Mobile Platform Architecture Specialist
- Mitglied seit
- 13.02.2008
- Beiträge
- 98
- Renomée
- 1
Hallo mocad_tom,
weitere wichtige Technologien sind die Unterstützung der Virtualisierung in Hardware, so daß die Netzwerkperformance auch ohne grosse Verluste innerhalb von virtualisierten Umgebungen durchgereicht werden kann.
Ein weiteres grosses Thema ist FCoE. Hier soll vor allem die Komplexität der Netzwerkinfrastruktur reduziert werden, die ja zur Zeit getrennte Netze für SAN und LAN haben.
Generell sind die PCIe Ports ja jetzt auch schon direkt an der CPU vorhanden.
Gruß,
Frank
weitere wichtige Technologien sind die Unterstützung der Virtualisierung in Hardware, so daß die Netzwerkperformance auch ohne grosse Verluste innerhalb von virtualisierten Umgebungen durchgereicht werden kann.
Ein weiteres grosses Thema ist FCoE. Hier soll vor allem die Komplexität der Netzwerkinfrastruktur reduziert werden, die ja zur Zeit getrennte Netze für SAN und LAN haben.
Generell sind die PCIe Ports ja jetzt auch schon direkt an der CPU vorhanden.
Gruß,
Frank
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.275
- Renomée
- 1.413
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.4355 / Server 20348.2227
- Webbrowser
- Edge 124.0.2478.51
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
....
Gibt es hier weitere Bestrebungen, um noch mehr merkmale von Infiniband in diese 10Gbit-Systeme mit hinein zu nehmen. Ist z.B. ein spezieller PCIe Port denkbar, der direkt an die CPU angeflanscht wird, um die Latenzen noch weiter herunter zu drehen.
Diese Features sind besonders Cloud Computing interessant, da günstig viel Rechenleistung vernetzt werden muss. Gleichzeitig darf aber nicht zu viel CPU-Overhead das System belasten. 10GBit Ethernet hat einen klaren Kostenvorteil gegenüber Infiniband, wird in Punkto Leistung der Abstand ebenfalls verkürzt?
Es grenzt zwar an OT aber:
Es gibt doch bereits Infiniband-Adpater bzw. 10GBit-Netzwerk-Adapter die per HTX (bzw HTX3) an AMD Opterons gehangen werden - gerade wegen der geringeren Latenzen ggü. PCIe (oder früher ggü PCI-X )
Daher wäre es auch durchaus möglich, dass Intel dies auch machen könnte - ohne PCIe - halt mit deren "HyperTransportDing" - QPI ??
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
@Crashtest
Die Lösung ist wieder vom Markt verschwunden. Auch dieser Hypertransport-Slot.
Meine Frage zielt eigentlich dorthin:
Lighhtpd und Nginx sind entstanden, weil man das C10K Problem lösen wollte.
Dabei ging es nicht in erster Linie um Rohrechenleistung sondern um effektives Thread-Handling, Mutexe, Interrupts und andere Ressourcen, die in Multicore-Systeme plötzlich zur Mangelware wird.
Ein Punkt war ja mehr Netto vom Brutto.
Es lässt sich ja auch belegen, dass die Ladezeit von Amazon z.B. direkt Auswirkungen auf die Conversion Rate hat. Je besser die Ladezeiten desto höher die Umsätze bei Amazon, da sich der User auch länger auf der Seite aufhält.
Gibt es hier weitere Bemühungen um den wirklich guten Netzwerkchip 82599 noch besser an die Multi-Cores an zu binden. Mehr Netto vom Brutto bei niedriger Latenz unter hoher Last.
Die Lösung ist wieder vom Markt verschwunden. Auch dieser Hypertransport-Slot.
Meine Frage zielt eigentlich dorthin:
Lighhtpd und Nginx sind entstanden, weil man das C10K Problem lösen wollte.
Dabei ging es nicht in erster Linie um Rohrechenleistung sondern um effektives Thread-Handling, Mutexe, Interrupts und andere Ressourcen, die in Multicore-Systeme plötzlich zur Mangelware wird.
Ein Punkt war ja mehr Netto vom Brutto.
Es lässt sich ja auch belegen, dass die Ladezeit von Amazon z.B. direkt Auswirkungen auf die Conversion Rate hat. Je besser die Ladezeiten desto höher die Umsätze bei Amazon, da sich der User auch länger auf der Seite aufhält.
Gibt es hier weitere Bemühungen um den wirklich guten Netzwerkchip 82599 noch besser an die Multi-Cores an zu binden. Mehr Netto vom Brutto bei niedriger Latenz unter hoher Last.
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 779
- Antworten
- 0
- Aufrufe
- 377K