PCIe 2.0: Doppelter Datentransfer und bis zu 300W

Maxefix

Grand Admiral Special
Mitglied seit
20.01.2003
Beiträge
6.223
Renomée
176
  • SIMAP Race
  • QMC Race
Auf dem IDF (Intel Developer Forum) wurde von der PCI SIG, einer Gruppe von Firmen, die das Ziel haben, den PCI Standard zu entwickeln und zu organisieren, eine neue PCI Express-Spezifikation vorgestellt.

Der neue PCI Express 2.0-Standard soll bereits nächstes Jahr erscheinen. Unter anderem wurde die Datentransferrate auf 5 Gigatransfers pro Sekunde verdoppelt und Probleme mit dem Jitter behoben. Jitter bedeutet dabei nichts anderes als ein leichtes zittern oder rauschen der Signalflanken.

Weiterhin wurde die maximal mögliche Leistungsaufnahme enorm gesteigert. Laut der PCI Special Interest Group (PCI SIG) dürfen Grafikkarten der 2. Generation jetzt 225 W oder sogar 300 W aus dem PEG Slot ziehen. Diese Karten sollen allerding ein neues Kühlkozept bekommen, welches eine Umgestaltung des Gehäuses notwendig macht.

<b>Quelle:</b> <a href="http://www.heise.de/newsticker/meldung/78696" target="b">heise online</a>

<b>Links zum Thema: </b><ul><li><a href="http://www.pcisig.com/" target="b">PCI SIG</a></li></ul>
Thx @ Sonic für den Hinweis
 
300W, Beeindruckend! :o Würde mich nicht wundern wenn die ATX Spezifikation dafür nochmals erweitert wird.

Sicher kein neuer Gehäusestandard nach dem BTX Debakel. ;)
 
Weiterhin wurde die maximal mögliche Leistungsaufnahme enorm gesteigert. Laut der PCI Special Interest Group (PCI SIG) dürfen Grafikkarten der 2. Generation jetzt 225 W oder sogar 300 W aus dem PEG Slot ziehen.
Ich hoffe sehr, dass weder NVIDIA noch ATI/AMD auf die Wahnsinnsidee kommt, das abseits irgendwelcher Spezialkarten für den professionellen Einsatz auch auszunutzen.
 
Ich hoffe sehr, dass weder NVIDIA noch ATI/AMD auf die Wahnsinnsidee kommt, das abseits irgendwelcher Spezialkarten für den professionellen Einsatz auch auszunutzen.

Der R600 soll doch schon über 200W verbraten. :o Es wird ja spekuliert das die Karte mit einem eigenen externen Netzteil ausgestattet wird.
 
nicht schon wieder eine BTX-Geschichte.... :] . 300 Watt? Hallo? is ja bald wirklich krank *suspect* .

lg s.
 
Schon lustig, eine Grafikkarte, die nur dafür zuständig ist ein Bild aufn Monitor zu zaubern braucht zwei und dreimal soviel Strom wie hochmoderne Zweikern-Prozessoren *buck*

Verkehrte Welt... *abgelehnt

MFG Max
 
Was mich vielmehr interessiert als dieser offensichtliche Grakaunfug: Wann gibt es endlich mal PCIe-Soundkarten ...am besten von Creative? Mittlerweile habe doch ziemlich viele Leute PCIe-Systeme. Der Markt wäre doch da. *noahnung*
 
Laut manchen Seiten braucht der G80 auch um die 250 Watt, als Kühlung soll ja so ne Hybridlösung aus Wasser und "normaler" Luftkühlung herhalten. Damit SLI, noch ein 4x4 System - schöne neue Zukunft " 8) ;D :]
 
Ah ja.
Beim Einsatz eines solchens Wattmonsters bedingt ein neus Kühlkonzept das die Umgestaltung des Gehäuses notwending macht.

BTX durch die Hintetür also :)
Und die Grafikkartenhersteller machen bereitwillig mit wenn man den Gerüchten glauben darf das der kommende R600 200 Watt säuft.
Aber na ja. So haben wenigstens die 1 Kilowatt Netzteile auch ihre Daseinsberechtigung :)
 
Jede Grafikkarte, die mehr als 100 W zieht, ist absolut ABGELEHNT! Die Hersteller haben doch echt ein Schuss, dass sie solche Stromsauger rausbringen. *motz*

Btw. wann soll PCIe 2.0 eigentlich so ungefähr rauskommen??
 
Jede Grafikkarte, die mehr als 100 W zieht, ist absolut ABGELEHNT! Die Hersteller haben doch echt ein Schuss, dass sie solche Stromsauger rausbringen. *motz*

Btw. wann soll PCIe 2.0 eigentlich so ungefähr rauskommen??

Du sprichst mir aus der Seele. Ich finde es auch einfach nur Krank! Man muss sich mal ausrechnen was so eine Grake dann im Jahr kostet (Anschaffung + Unterhalt)
 
Ich bin mal gespannt auf das neue Kühlkonzept. Grundlegend kann an den Karten ja nichts geändernt werden, da sie auf- und abwärtskompatibel bleiben sollen. Also muss schon das Gehäuse herhalten... Vielleicht kommt ja ein neuer Kühlkanal. Einen für die CPU und einen für die Graka...

Und die kranken Verbrauchswerte kommen ja nur beim Zocken zustande... Im 2D Betrieb sollten Stromspartechniken bei Grafikchips doch einfach zu realisieren sein. Im Grunde besteht der Chip ja aus mehreren Quads. Also könnte man für den Desktopbetrieb ja einfach alles bis auf 4 Pipes abschalten und hat immer noch genug Power für Vista. Den Takt könnte man auch massiv senken. So müsste man den Chip passiv kühlen können...
 
Selbst wenn dieser Verbrauch nur unter Last erreicht wird, ist er viel zu hoch. Es gibt DualCore-CPUs, die auch unter Last weniger als 65W benötigen und trotzdem nicht langsam sind. Es muss doch möglich sein, GPUs herzustellen, die weniger als 100W fressen und trotzdem schnell sind.
 
Und die kranken Verbrauchswerte kommen ja nur beim Zocken zustande... Im 2D Betrieb sollten Stromspartechniken bei Grafikchips doch einfach zu realisieren sein.
Sowas gibt's zwar schon, aber trotzdem steigen ja auch die Idle-Werte. Und davon abgesehn ist der Stromverbrauch trotzdem VIEL zu hoch, auch wenn man "nur" Spiele spielt. Das geht auch tierisch ins Geld. Du brauchst ja z.B. auch ein höher dimensioniertes Netzteil, was dann wiederum auch massig Strom verbrät. Nee nee nee, nicht mit mir, liebe Hersteller, so ein Rotz könnt ihr gerne behalten! Ich kauf mir vll noch ne 7900 GTO, aber das ist dann auch das höchste der Gefühle. Meine bisherige 7800 GT muss ich dabei ja schon als absoluten Stromsparer titulieren.. :] *nein* Ist doch alles net mehr normal, diese Entwicklung.. Pfui Deibel. Und im Winter ziehen dann wieder die Strompreise an, oder wie?! :P
 
... die wollen einen neuen Standard?
Haben die eigentlich alle einen an der Waffel? Bis auf Grafikkarten kenne ich keine anderen Steckkarten, die im Augenblick überhaupt die Version 1.0 nutzen.

Aber der Kunde wird sich schon wieder übertölpen lassen - hat ja bisher immer geklappt ...
 
[P3D] Crazy_Chris;2901369 schrieb:
Der R600 soll doch schon über 200W verbraten. :o Es wird ja spekuliert das die Karte mit einem eigenen externen Netzteil ausgestattet wird.

Als 3Dfx das damals einführen wollte, haben alle nur über die gelacht :(
War klar das es irgendwann dazu kommt. Aber mal ehrlich: Das heist doch wohl nicht schon wieder Graka/Mainboard neu kaufen oder? Wehe das ist nicht abwärtskompatibel.*noahnung*
 
toll das ATI und NVidia nun schon einen durch standarts geschaffenen freibrief für ihren wahnsinn bekommen!

Das Grafikchips soviel strom verheizen finde ich solangsam echt inakzeptabel.
Dabei habe ich eigentlich recht positiv in die zukunft geschaut, als es hieß, dass die Geforce 6 Generation den stromverbrauch senkt.
Dem war zwar auch so...aber leider ging es seitdem wieder steil bergauf (vor allem seit ati taktratensteigerung als leistungsheilmittel gefunden hat)

Ich hoffe einfach, dass aus irgendwelchen gründen einer der beiden hersteller auf die idee kommt das reduzierter stromverbrauch in einem markt gut ankommen würde, in welchem die beiden hauptprozessorhersteller gerade um die stromsparendsten und leisesten modelle streiten.

[ironie an]
Oder gibts einen Branchenübergreifenden Vertrag mit dem Stromerzeugern, der einen Mindestverbrauch pro System vorschreibt? Und da nun keine Heizkraftwerke mehr als Prozessor konzeptioniert werden muss halt die Graka ran.
[ironie aus]
Und nochwas...300 Watt durch die Mainboard-Leiterbahnen. Na das kann ja heiter werden...
 
Was mich vielmehr interessiert als dieser offensichtliche Grakaunfug: Wann gibt es endlich mal PCIe-Soundkarten ...am besten von Creative? Mittlerweile habe doch ziemlich viele Leute PCIe-Systeme. Der Markt wäre doch da. *noahnung*

Da gibts Probs mit der Größe der Pakete, welche über den PciExpress gesendet werden. Sind zu groß oder so ähnlich. So habe ich es zumindest verstanden........

Gruß Wuschl
 
Wird ja auch langsam Zeit @ PCIe 2.0. Ich ging eigentlich davon aus, das es bereits Standard bei AM2 Boards @ erscheinen gewesen wäre.

Dann können wir ab nächstes Jahr dann wohl mit vernünftigen PCIe Soundkarten rechnen (afaik sollte das Latenzproblem bei PCI 2.0 ggü. PCIe 1.0 beseitigt worden sein).
 
Wenn ihr keine 250W Graka kauft werden die sich auch nicht durchsetzen.

Imo braucht meine 6600GT schon viel zu viel.
Was berechtigt ne Graka mehr als 30 Watt zu brauchen ? Mehr als ein paar Bilder macht die nicht ;)
 
Zurück
Oben Unten