AMD Boards mit zwei 16x PCI-Express Steckplätzen

Alan

Lieutnant
Mitglied seit
30.10.2003
Beiträge
81
Renomée
8

Dank des neuen nForce 250GB PRO der neben einen Hypertransporttunnel
auch PCI Express mitbringt sollen bald auch Boards
für AMD (s754-939-940) folgen die zwei
16x PCI-Express Steckplätzen bieten.

Ähnlich wie beim neuen Opteron Board von Iwill, dem DK8E
bei dem der AMD 8131 hinter dem nForce Chip sitzt und
dessen Hypertransporttunnel benützt,

sollen dann auf HighEnd Boards zwei nForce 250GB PRO CHips sitzen,
bei dem der zweite nForce 250GB PRO den Hypertransporttunnel
des ersten nutzt.
Auch der 2te nForce 250 könnte dann mit vollen 8.4GB/s mit dem Prozessor
komunizieren.


Ein derartiges Board käme dank der 2 Chips
auf eine gewaltigen Austattung, u.a:
- 8 native SATA ports
- 2 16x PCI-Express Steckplätzen
- 2 4x PCI-Express Steckplätzen oder acht 1x PCI-Express Steckplätze
- 2 native GbE LANs
....

Ebenso denkbar ist die Verwendung anderer HyperTransport fähiger
Chips hinter dem Force 250GB PRO. (z.B: ALi M1563)

Bisher hat allerdings noch kein Hersteller OFFIZIELL ein solches
Mainboard angekündigt.

Was meint ihr dazu?
 
weil es sich ned lohnt. wer braucht schon so überwältigend viele steckplätze wenn alles schon onboard ist? oO
 
.... Gerade in Anbetracht der Möglichkeit
die Leistung zweier Graphikkarten zu kombinieren....
 
Original geschrieben von Alan
Ähnlich wie beim neuen Opteron Board von Iwill, dem DK8E
bei dem der AMD 8131 hinter dem nForce Chip sitzt ...
Darf ich fragen wie du darauf kommst?

Falls das bei einer Workstation nötig wäre, würde man einfach die anderen HT-Links des Opteron System nutzen, schließlich stehen alleine durch die CPUs bei einem Dual Sys schon 4 Links für IO zur Verfügung
 
frage: warum gibt´s noch keine 32x pci express lösungen? also warum ist da "erst" pci express 16x drauf?
 
Weil sich dadurch die Leitungszahl annähernd verdoppeln wurde, alleine für die eigentlichen Datenleitungen würden 32 (für 32 lanes) x 2 (Hin und Rückkanal) x 2 (differenzielle Übertragung) = 128 Stück benötigt.Dazu kommen noch Steuerleitungen, Leistungsleitungen usw.. Die Komplexität würde wohl annähernd an PCI-X heranreichen, wäre also nicht sehr günstig.

@Alan
1

Wie du auf dem Bild erkennen kannst ist die Distanz zwischen den beiden Sockeln gößer als die zwischen AMD 8131 PCI-X Tunnel und unterem Sockel. Mit hoher Wahrscheinlichkeit ist daher dieser Prozessor direkt mit zweiter CPU, PCI-X Chip und nForce verbunden.
Es wäre letztendlich auch sehr unlogisch, wenn NVIDIA einen zweiten HT-Port implementiert hätte, nur damit ein völlig unnötiger zweiter Chip auf das board passt, was ohnehin schon möglich ist.
Falls du deine Annahme aus der Frage "Oder wandelt der Nvidia-Baustein die HyperTransport-Frequenzen?" schließt, dann eine Antwort auf Heises Frage: Jeder HT-Chip stellt beim Initialisieren die für diesen einzelnen Link mögliche Maimalgeschwindigkeit ein. So funktioniert das auch in einem Dual System, bei dem nur ein 8111 zum Einsatz kommt. Zwischen den CPUs ist ein 16 Bit Link bei 800 MHz/1,6 GHz, der IO Chip wird jedoch mit 8 Bit bei 200 MHz/400 MHz.
 
Zuletzt bearbeitet:
@sledgehammer

da der Opteron 3 Hypertransportlinks hat kann das darchaus so sein.
Ich glaube jedoch dass der nForce einen Tunnel besitztda:

- Vom Layout her wäre es am einfachsten den AMD 8131 so anzubinden.
- Eine Punkt zu Punkt Verbindung wäre doch das logischste oder?
- Auserdem darf man nicht vergessen, dass das Board ja auch mit nur einem
Prozessor funktionieren muss (oder sollte)
- Der Athlon 64 FX (939-940) und der Athlon 64 (754-939) haben nur einen Hypertransportlink.
So würde der Tunnel hier besonders sinnvoll sein, da der Chip ja mit Sicherheit
auch hier eingesetzt werden wird.


http://www.hypertransport.org/faqs.html#7
7. What is HyperTransport technology?
HyperTransport chip-to-chip interconnect technology is a highly optimized, high performance and low latency board-level architecture for embedded and open- architecture systems......

http://www.hypertransport.org/faqs.html#12
12. What are HyperTransport hosts, caves, tunnels, and bridges?
Each HyperTransport link must have at least two ends, a host that is the source of HyperTransport information and signals and an endpoint or cave. If additional HyperTransport devices need to be added to a link, a tunnel is used to connect additional HyperTransport devices to the link. If a HyperTransport link is expanded to connect to another I/O technology, a bridge links the HyperTransport link to the other I/O technology. An example would be a PCI-to-HyperTransport bridge device. Tunnels and bridges can serve as endpoints or caves.
 
Zuletzt bearbeitet:
Original geschrieben von Alan
@sledgehammer

da der Opteron 3 Hypertransportlinks hat kann das darchaus so sein.
Ich glaube jedoch dass der nForce einen Tunnel besitztda:

[...]

Das würde nur den Pincount des nForce noch weiter erhöhen, der ist eh schon vollgestopft genug. Schau mal wie viele der verbauten nForce3 xxx Chips auf derartigen Boards landen, irgendwo im 0,x% Bereich wird das sein.
 
Original geschrieben von hunert
frage: warum gibt´s noch keine 32x pci express lösungen? also warum ist da "erst" pci express 16x drauf?

Weil niemand die Bandbreite braucht.
 
Das schreit ja förmlich nach einer neuen Form von SLI GraKas.
Diesmal über PCIe gekoppelt.
 
Original geschrieben von Alan
- Auserdem darf man nicht vergessen, dass das Board ja auch mit nur einem
Prozessor funktionieren muss (oder sollte)
Spielt im Serverbereich nicht wirklich eine Rolle .. welcher ernsthafter Anwender kauft sich ein DUAL-board, ohne den 2ten Sockel zu bestücken ? Das kommt höchstens im Privatbereich vor, was eine zu vernachlässigende Marktnische ist. hps neuer 4x Opteronserver DL585 benötigt z.B. auch zwingend mindenstens 2 CPUs.
- Der Athlon 64 FX (939-940) und der Athlon 64 (754-939) haben nur einen Hypertransportlink.
So würde der Tunnel hier besonders sinnvoll sein, da der Chip ja mit Sicherheit
auch hier eingesetzt werden wird.
Hmmm und wieso ? der nforce3 hat schon alles, was man im Desktopsegment braucht und PCI-X Steckplätze sind bei den genannten Sockel auch nicht zu erwarten, v.a. wenn es ja eh schon PCI-E Slots gibt. Abgesehen davon intressiert PCI-X im Desktopbereich auch keinen, zumindest ist mir kein S754 board mit PCI-X bekannt, und den Sockel gibts mittlerweile ja schon etwas länger.

ciao Alex
 
AGP 8x schrie auch ... und keiner hörte hin ;)

AGP 8x hatte auch die Möglichkeit AGP doppelt in ein System einzubinden, sogar verbesserte Streamingmöglichkeiten waren da (glaube ich) drin ...

Doch trotz verbesserter Technik reichte es lediglich zu roten/grünen/blauen

WHOW!NOW with AGP8x !

Stickern auf Graka und Mainboardverpackungen ...

MFG Bokill
 
Meinst Du nicht, dass der harte Kern heute bereit ist 1200,00€ für eine Grafikkarten Kombo hinzublättern?

ICh dachte an SLI wegen des schnellen Rückkanals. Das Übertragen jeder zweiten Zeile von einer Grafikkarte zu anderen sollte ganz schön Bandbreite kosten. Von nVidia kommt die Idee mit den beiden schnellen Ports auch noch. Die freuen sich sicherlich über jede extra verkaufte GraKa.
 
Original geschrieben von Alan
1 - Vom Layout her wäre es am einfachsten den AMD 8131 so anzubinden.
2 - Eine Punkt zu Punkt Verbindung wäre doch das logischste oder?
3 - Auserdem darf man nicht vergessen, dass das Board ja auch mit nur einem
Prozessor funktionieren muss (oder sollte)
4 - Der Athlon 64 FX (939-940) und der Athlon 64 (754-939) haben nur einen Hypertransportlink.
So würde der Tunnel hier besonders sinnvoll sein, da der Chip ja mit Sicherheit
auch hier eingesetzt werden wird.
Zu Punkt 1: Wie Desti schon erwähnt hat dürfte das Routing von einem zusätzlichen HT Link zum IO Chip weitaus problematischer sein, als einfach ein paar längere Leitungen um den Chip drumrum. Das ist übrigens ein großer Vorteil der seriellen Verbindungen wie HT.
Zu Punkt 2: Was willst du nun damit sagen?: HT funktioniert aufrund der seriellen Bauart nur als Punkt zu Punkt Verbindung.
Zu Punkt 3: Warum sollte es mit einem Prozessor nicht funktionieren, schließlich reichen 3 Links locker um 2 Chips + 1 CPU zu verbinden.
Zu Punkt 4: Wurde auch schon beantwortet: Dort reicht ein nForce Chip locker.

Eine SLI Lösung liese sich IMO auch wesentlich einfacher herstellen, wie eben schon bei den guten alten SLI Systemen per getrenntem Datenweg (wäre ja auch unsinnig, dass ganze System mit der Kommunikation der beiden Grafikchips zu belasten).
Bevor wir diese Möglichkeit sehen (also 2 nForce auf einem Board) wird es spezielle PCIe tunnels sehen, so wie es heute PCI-X tunnels gibt.
 
Zurück
Oben Unten