nVidia Geforce GTX 1630/1650/1660(S/Ti) und RTX 2060(S)/2070(S)/2080(S/Ti)/Titan RTX: Tests/Meinungen im Netz. Links in Post 1

Was die Leistungsaufnahme angeht, kann die RX570 nicht mal ansatzweise mithalten. Die schluckt das Doppelte, bis zu 100W mehr.
Damit kann die 1650 innerhalb des 75W-Limits ohne extra Stecker und/oder passiv gekühlt realisiert werden.
 
Kannst ja mal ausrechnen was das beim Verwendungszweck Spielen im Jahr ausmacht.
 
Zuletzt bearbeitet:
Kannst ja mal ausrechnen was das beim Vernwendungszweck Spielen im Jahr ausmacht.

Bei vier Stunden zocken täglich an 365 Tagen im Jahr und einem angenommenen Strompreis von 30 Cent je Kilowattstunde wären das bei Exakt 100 Watt Differenz beider Karten 43,80 Euro Stromkosten.

Aber wer zockt schon durchschnittlich vier Stunden täglich an allen Tagen im Jahr...
 
Aber auch NUR wenn's immer 100Watt Unterschied sind.

Richtig.

Knapp 44 Euro im Worst-Case-Szenario. Realistisch betrachtet kommt vielleicht irgendwas zwischen 5 und 10 Euro zusammen. Das wären immernoch entweder eine Stunde täglich zocken mit 100 Watt Differenz oder aber weniger zocken und/oder weniger Differenz in der Leistungsaufnahme.
 
Was man auch nicht vergessen darf auch wenn der Unterschied jetzt nicht gewaltig ist mit rund 8%,die RX570 leistet auch mehr.Bei gleicher Leistung würde es vom Verbrauch so wie bei der 1060 vs RX570 aus sehen.
Aber man bekommt mittlerweile doch schon sehr viel Leistung die man locker mit nem 300-350Watt Netzteil betreiben kann.
 
Kannst ja mal ausrechnen was das beim Verwendungszweck Spielen im Jahr ausmacht.
Ich spiele doch gar nicht.
Mein Verwendungszweck ist Boinc. Damit sind es dann eher 12 Stunden täglich.

Aber selbst bei nur 2 Stunden Zocken am Tag sind es 22€ im Jahr und nach 5 Jahren schon 100€.
Von der Ersparnis kann man sich dann auch gleich ne 1060 kaufen und selbst die ist noch sparsamer als die 570.

Dazu kommt, dass man ein etwas besser belüftetes Gehäuse und ein potenteres Netzteil braucht, sofern nicht zufällig schon vorhanden.
 
Zuletzt bearbeitet:
Wir reden aber hier von GPUS und die meisten Leute kaufen die zum Spielen siehe auch die Reviews, Bitcoin etc ist so gut wie tot und für Bonic und sein Projekt muss man dann differenzieren. Ich vermute hier ist der Abstand ggf deutlich größer und wenn ich dann für die selben Credits deutlich weniger Zeit brauche dann relativiert sich das ggf.

Heißt pauschal Aussage sollte man eher nicht machen.

Aber selbst bei nur 2 Stunden Zocken am Tag sind es 22€ im Jahr und nach 5 Jahren schon 100€.

Ich kriege aber eine Mehrleistung dafür, mehr GPU Power und 8 GB VRAM. Das schöne ist das jeder selber entscheiden kann was für ihn wichtig ist

Dazu kann man noch das Softwareumfeld für Windows und Linux als Auswahlkriterium hinzunehmen.
 
Ich spiele doch gar nicht.
Mein Verwendungszweck ist Boinc. Damit sind es dann eher 12 Stunden täglich.

Aber selbst bei nur 2 Stunden Zocken am Tag sind es 22€ im Jahr und nach 5 Jahren schon 100€.
Von der Ersparnis kann man sich dann auch gleich ne 1060 kaufen und selbst die ist noch sparsamer als die 570.

Dazu kommt, dass man ein etwas besser belüftetes Gehäuse und ein potenteres Netzteil braucht, sofern nicht zufällig schon vorhanden.

Und wo kann man sich die Leistung und den Verbrauch unter Boinc ansehen???
Bei der Kühlung muss man aufpassen,aber ne passive 1650 wird auch lauter sein als ne Aktive und da die 1650 ohne Drossel über 75Watt geht,braucht die auch nem 6Pin Stromanschlüsse.
Somit ist es auch egal ob ich jetzt die 1650 am 300Watt Netzteil betreibe oder die RX570 mit einem Stromanschluss.
 
Und wo kann man sich die Leistung und den Verbrauch unter Boinc ansehen???
Bei der Kühlung muss man aufpassen,aber ne passive 1650 wird auch lauter sein als ne Aktive und da die 1650 ohne Drossel über 75Watt geht,braucht die auch nem 6Pin Stromanschlüsse.
Somit ist es auch egal ob ich jetzt die 1650 am 300Watt Netzteil betreibe oder die RX570 mit einem Stromanschluss.
Auf dem Messgerät in der Steckdose. :)

Warum soll ne lüfterlose Karte laut(er) sein als eine mit Lüfter?
Die ist still.

In meinem Fall hab ich einfach einen 140er Lüfter @600 UMin auf eine passive 1050ti draufgeschnallt. 40°C unter Vollast (Einstein/Seti). Und den Lüfter hör ich nicht raus.
Komplett passiv wäre mit 70°C aber auch noch OK gewesen, aber die Karte soll ja auch lange leben.
Die Karte konnte ich sogar zum Betrieb an einem 120W-Netzteil überreden. Mehr als 50W wollte die nicht haben.
Eine normale 1650 sollte ziemlich genau in der gleichen Verbrauchsregion landen.
Dass Übertakten bei einer 75W-Karte ohne Stromanschluss ausfällt, versteht sich ja von selbst. (Falls das heutzutage als "Drosseln" verstanden wird, weil die Hersteller sich gegenseitig im werksseitigen Übertakten überbieten).
 
Zuletzt bearbeitet:
Die für mich interessanteste Karte ist die hier: https://www.techpowerup.com/reviews/Palit/GeForce_GTX_1650_StormX/

Leider nicht Single-Slot, aber dafür _KURZ_..... Die 10% weniger Geschwindigkeit zur 570 sind mir nicht wichtig, wichtiger ist der nicht vorhandene extra Stromanschluss. Da kribbelts mir direkt in den Fingern den MSI AG240 daheim gegen ein winziges Kästchen auszutauschen......
 
Auf dem Messgerät in der Steckdose. :)

Warum soll ne lüfterlose Karte laut(er) sein als eine mit Lüfter?
Die ist still.

In meinem Fall hab ich einfach einen 140er Lüfter @600 UMin auf eine passive 1050ti draufgeschnallt. 40°C unter Vollast (Einstein/Seti). Und den Lüfter hör ich nicht raus.
Komplett passiv wäre mit 70°C aber auch noch OK gewesen, aber die Karte soll ja auch lange leben.
Die Karte konnte ich sogar zum Betrieb an einem 120W-Netzteil überreden. Mehr als 50W wollte die nicht haben.
Eine normale 1650 sollte ziemlich genau in der gleichen Verbrauchsregion landen.
Dass Übertakten bei einer 75W-Karte ohne Stromanschluss ausfällt, versteht sich ja von selbst. (Falls das heutzutage als "Drosseln" verstanden wird, weil die Hersteller sich gegenseitig im werksseitigen Übertakten überbieten).

Also über die Steckdose bekomme ich da keine anständige Messung hin ohne Boinc Studiert zu haben......
Fakt ist aber das der Alien vs Predator Benchmark (als Spielebeispiel) der kaum CPU Last erzeugt locker 50Watt + bei der Grafikkarte an Strom MEHR frisst als Boinc.
Stell ich die GPU ein wenig von Hand ein sind es gut 25Watt weniger bei gleicher Leistung.
Wenn ich die CPU irgendwie aus Boinc bekommen hab,dann schwankte es um gut 45Watt/von 130-175Watt OHNE das die GPU den Takt verliert.......
Soooo und dann ist die Frage wie schnell berechnet wird....

Wie du selber schreibst,läuft deine Karte passiv wird sie Heiß und da Boinc die Karte kaum Belastet würde sie unter richtiger Last schon Überhitzen/Drosseln......und um das zu Verhindern müssen die Gehäuselüfter unnötig hoch drehen womit es lauter wird.

Ein mal das Übertakten und dann dürfte der Grundtakt geringer ausfallen bzw der Takt weniger gut gehalten werden da sie schneller an die Grenzen kommt.
Man könnte natürlich mit Selektierung und kaum OC Möglichkeiten gegensteuern.
 
Zuletzt bearbeitet:
Auch mit Boinc ist es kein Problem eine GPU am Vollanschlag laufen zuhaben, ggf muss man sie mehr als 1. WU gleichzeitig berechnen lassen.
 
Da muss man nix studieren.
Die CPU rechnet bei Boinc auf allen Kernen = CPU-Last.
Die GPU rechnet noch zusätzlich was = CPU+GPU.
Die GPU allein ist also die Differenz + ca. 5W idle (je nach Karte auch mal 10W).
Ja, Einstein und Seti sind jetzt nicht die Extrem-Auslaster. Aber Primegrid heizt schon gut.
 
Auch mit Boinc ist es kein Problem eine GPU am Vollanschlag laufen zuhaben, ggf muss man sie mehr als 1. WU gleichzeitig berechnen lassen.

Ja,hatte ich bei Milkyway als ichs gestartet hatte......
ABER ich wollt ja NUR die GPU Rechnen lassen,ABER hab kein Boinc Studium gemacht.;)

--- Update ---

Da muss man nix studieren.
Die CPU rechnet bei Boinc auf allen Kernen = CPU-Last.
Die GPU rechnet noch zusätzlich was = CPU+GPU.
Die GPU allein ist also die Differenz + ca. 5W idle (je nach Karte auch mal 10W).
Ja, Einstein und Seti sind jetzt nicht die Extrem-Auslaster. Aber Primegrid heizt schon gut.

Wenn ich danach gehe/Seti 8x + 1xGPU
NUR CPU 153Watt
Mit RX570 max 235Watt
UND rund 230Watt zeigt mir der Spielebenchmark auch Max an ohne große CPU Last.

Das größte Problem ist gezieht GPU Zeig zu bekommen.....

--- Update ---

7x Seti + 1x PrimeGrid nur CPU 160Watt
Ne GPU Sache ist nicht da zu gekommen.
Somit lief noch der Spielebench mit und ich hatte ein Max von 293Watt.
angenommen die RX570 braucht im Idle 15Watt,dann sind wird grob bei (85% Netzteil) 126Watt.
Jetzt ist noch 1x Milkyway dazu gekommen mit GPU und es sind MAX 245Watt.Somit MAX rund 85Watt für die GPU.....
 
Zuletzt bearbeitet:
Ich spiele doch gar nicht.
Mein Verwendungszweck ist Boinc. Damit sind es dann eher 12 Stunden täglich.
Hast du schon BOINC Benches gesehen?!
Bevor das der Fall ist, solltest du ev. vorsichtiger sein. Bedenke, dass die 1650 weniger als die Hälfte an Shadern denn die RX5

Aber selbst bei nur 2 Stunden Zocken am Tag sind es 22€ im Jahr und nach 5 Jahren schon 100€.
Von der Ersparnis kann man sich dann auch gleich ne 1060 kaufen und selbst die ist noch sparsamer als die 570.
Die angenommenen 100W sind Worst Case, im Real Life sind das dann eher weniger.
Und natürlich auch abhängig von den Einstellungen.

Aber wenn du so schon argumentierst:
Ja warum hast du denn überhaupt 'ne Grafikkarte?!
Nen Ryzen 2400G tuts doch auch!

Dazu kommt, dass man ein etwas besser belüftetes Gehäuse und ein potenteres Netzteil braucht, sofern nicht zufällig schon vorhanden.
DAS ist doch völliger Bullshit!
Was ist denn die minimal Wattage bei halbwegs guten Netzteilen??
Richtig, 450W, in seltenen Fällen (be quiet) auch mal 400W.
Und dadrunter kannsts vergessen (gibt noch ein brauchbares Silverstone 350W SFX Gerät das wars dann aber auch).

Und welches halbwegs gute/neue 400W Netzteil muss ich jetzt noch mal gegen was besseres tauschen, wenn ich die RX570 kaufe?!

Ganz ab davon:
Seltsam dass das bei der GTX570 niemanden gestört hat...
 
Die shader waren bisher ein gutes Indiz für die Leistung bei Nvidia.

Nein, ein Ryzen2400G hat mir zu wenig Leistung.

Ich hätte auch keine Bedenken mit einem 300W-Netzteil in einem sparsamen Rechner.

--- Update ---

Kurzer Nachtrag, dann höre ich auf mit Offtopic:
Mit Primegrid wird meine 1050ti 48°C warm und rennt ins 75W-Powerlimit und taktet sich auf 1800MHz runter (was immer noch weit über dem Standardtakt liegt).
Man kann also aus den 75W trotzdem eine Menge rausholen.
 
Zuletzt bearbeitet:
AMD-Karte? GPUgrid ist Nvidia-only.
 
Nimm mal Collatz Conjecture, das läuft gut mit open cl.

Mittels App_config.xml kannst du die WU Anzahl einstellen etc:

<app_config>
<app>
<name>collatz_sieve</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.25</cpu_usage>
</gpu_versions>
</app>
</app_config>

Ggf muss du noch Visual Studio 2012 oder höher Runtimes installieren.
 
Zurück
Oben Unten