News Palit zeigt eigenes GeForce GTX 285 Design mit 2 GB

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Wer eine Grafikkarte mit ATI Radeon oder NVIDIA GeForce GPU kauft, erwirbt keine Karte der Chip-Hersteller, sondern der Grafikkarten-Hersteller wie Club3D, Sapphire, ASUS und wie sie alle heißen. Allerdings macht das in den meisten Fällen kaum einen Unterschied, da mittlerweile - und das schon seit Jahren - praktisch alle Grafikkarten-Hersteller nach dem sog. Referenz-Design des jeweiligen Chip-Herstellers fertigen. Das heißt, die Karten werden zwar noch selbst produziert, aber nicht mehr selbst entwickelt, da die Fertigung gemäß den Vorgaben der Chip-Hersteller erfolgt. Die einzelnen Grafikkarten-Hersteller differenzieren sich somit nur noch anhand des verwendeten Kühlers bzw. dessen Steuerung, des Software-Bundles und der Verpackung. Das mag für den Kunden nicht unbedingt von Nachteil sein, schließlich sinkt so die Gefahr einen Fehlgriff zu tätigen, ein bisschen langweilig dagegen ist es schon.

<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=13853&d=1235679367" alt="Palit zeigt eigenes GeForce GTX 285 Design mit 2 GB" border="1"></center>

Heute nun hat der Grafikkarten-Hersteller Palit offiziell verkündigt, als einziger Hersteller eine NVIDIA GeForce GTX 285 nach eigenem Design zu fertigen. Die GTX 285 ist NVIDIAs schnellste Single-Chip GPU. Palit betreibt den Grafikkern mit einer Taktfrequenz von 648 MHz und stellt diesem wahlweise 1 GB oder 2 GB GDDR3-RAM zur Verfügung, der mit 1242 MHz getaktet wird. Grafikkarten mit 2 GB RAM gibt es auch anderswo, doch meist handelt es sich dabei um Karten mit 2 GPUs, wobei jeder GPU 1 GB RAM zur Verfügung steht. Auf der Palit jedoch stehen nun einer GPU bis zu 2 GB RAM zur Verfügung, was insbesondere bei <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1229611556">GPGPU-Aufgaben via CUDA</a> von Vorteil sein kann. Angebunden ist der Speicher mit 512 Bit.

Die GPU kühlt Palit dabei mit vier Heatpipes, die mittels zweier temperaturgeregelter Lüfter umströmt werden. So soll in 2D eine möglichst geringe Geräuschkulisse realisiert werden. Weitere Informationen dazu gibt's in der <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3877948">Palit-Pressemitteilung</a>.
 
naja. das grafikkarten-lastigste spiel ist nun mal crysis und crysis warhead.

und es sieht so aus, dass ne 4870 mit 1024 GDDR5 die man inzwischen für 180€ kriegt, schneller ist.

http://www.pcgameshardware.de/aid,6...-Mittelklasse-SLI/CF/Grafikkarte/Test/?page=6

genauso sieht es aus bei call of duty 4.

und am meisten gpu-leistung braucht man nun mal bei schnellen bewegungen in shootern.

von daher. naja.

und wers noch billiger will, um die karte absolut zu deklassieren, der kauft sich zwei 4830 im crossfire für zusammen 170€
die sind ca 50% flotter in cod4 als so ne nvidia.
 
Zuletzt bearbeitet:
naja. das grafikkarten-lastigste spiel ist nun mal crysis und crysis warhead.

und es sieht so aus, dass ne 4870 mit 1024 GDDR5 die man inzwischen für 180€ kriegt, schneller ist.

http://www.pcgameshardware.de/aid,6...-Mittelklasse-SLI/CF/Grafikkarte/Test/?page=6

genauso sieht es aus bei call of duty 4.

und am meisten gpu-leistung braucht man nun mal bei schnellen bewegungen in shootern.

von daher. naja.

und wers noch billiger will, um die karte absolut zu deklassieren, der kauft sich zwei 4830 im crossfire für zusammen 170€
die sind ca 50% flotter in cod4 als so ne nvidia.
Es wäre schön, wenn du nicht immer alles durch deine AMD-grüne Brille sehen würdest. Das im PCGH Test lediglich eine GTX280 mitgetestet wurde fällt dir z.B. gar nicht auf. Auch andere Spiele die die Grafikkarten fordern lassen deine Verallgemeinerung, dass eine 4870 1GB schneller ist ganz schnell im anderen Licht erscheinen (lediglich 2 von 5 Games ist die 4870 mal mehr mal weniger weit vorne, d.h. in der Mehrzahl ist die 280, also noch nichtmal die noch schnellere 285, vorne)... Dazu ist ein Schnitt aus 5 Games nicht gerade wirklich representativ. Eigne dir also bitte mal ein wenig mehr Sachlichkeit und vor allem "Neutralität" an.

btw. schade das die oben gennante Karte sich scheinbar nicht! im Referenzlayout fertigen lässt, da die firmeneigenen bzw vormontierten Kühler öfter mal nicht das Optimum darstellen und so durch diese nicht referenzkonforme Bauweise ein Wechsel eben jenes Kühler erschwert wird. Andererseits natürlich auch schön, dass sich die Karten so mehr von einander abgrenzen könnten.
 
Zuletzt bearbeitet:
ne GTX 285 ist so 5-10% schneller als ne GTX280. also reichts immer noch net bei crysis gegen ne 4870 1024GDDR5.

zum anderen. ok, gibt noch andere spiele. nur mal ehrlich, in welchem game limitiert denn die graka im moment wirklich?

nur bei crysis. alles andere spielt man doch mit anderen karten schon absolut flüssig. 110 oder 100 frames ist doch wohl mehr als egal.

in den beiden besten shooter zur zeit, eben die cod reihe und die crysis reihe ist jetzt nun mal ati schneller. und da zählt eben gpu-power. bei schnellen bewegungen und dann im inet.

und an die fakten, dass zwei 4830 im crossfire eben auch ne GTX 285 absolut verbraten, die aber fast doppelt so teuer ist, kommt man eben auch net vorbei.

was sollen also so blöde angriffe wegen "fanboy"? oder sind da nvidiafanboys n bissle gefrustet im moment? ;D
 
eigenes KÜHLdesign oder ganzes platinenlayout?

Eigner Kühler mit doppelt so großen Speicherchips...


Jedenfalls denke ich mir das so.

Ein wirklich eigenes PCB gibt es wie in der News schon geschrieben schon seit Jahren nicht mehr. Entweder man hat seit Jahren was bemerkenswertes verpasst oder eben nicht. Ich befürchte letzteres.

PS: Im Grunde ist das wie mit den Mainboards. Alle gleichschnell unterscheiden sich nur noch durch Onboardfeatures (wenn überhaupt) oder übertaktetem Referenztakt (FSB). Bei GraKas ist nun mal nicht wirklich was durch andere Leiterbahnplatzierung zu gewinnen.
 
was sollen also so blöde angriffe wegen "fanboy"? oder sind da nvidiafanboys n bissle gefrustet im moment? ;D

Weil du einfach blödsinn schreibst und ich bin noch net mal nen Nvidiafanboy.Es ist nunmal so das Nvidia die schnellsten Karten stellt,da nützt deine rosarote Brille auch nix.Und dann noch dein sinnloser Vergleich immer mit der 4830. :]
 
Also wenn die Karte Shared Memory hätte, dann würds vielleicht Sinn machen. Aber sonst, wofür 2GB??? *noahnung* Jemand der extremes GPU Computing macht holt sich eh ne Tesla.

NVIDIA 2007: Die CPU hat ausgedient! (Kauft mehr (NVIDIA) Grafikkarten)
NVIDIA 2008: Die PPU hat ausgedient! (Kauft noch mehr (NVIDIA) Grafikkarten)
NVIDIA 2009: Der Ram hat ausgedient! (Kauft noch mehr (NVIDIA) Grafikkarten)


*buck**buck**buck*
 
Zurück
Oben Unten