Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 25 von 46
  1. Beitrag #1
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2

    Teraflops daheim. Enttäuscht oder begeistert?

    Tach auch.

    Wenn ich so durchrechne, welche Peakleistung, auch die möglichst reale, in <200€ CPUs und <160W GPUs, und das nicht erst seit 2020, bin ich ehrlich gesagt ziemlich davon enttäuscht, wie sie von den Programmierern real genutzt wird.

    Durchs Netz streifend um etwas über die Leistungen zu erfahren, bekommt man den Eindruck, daß die PC-Nutzung größtenteils entweder aus Zocken oder dem Schneiden und Recodieren von Mediamaterial besteht. Flankiert vom ständigen Repacken der sonstigen Datenbestände, auf verschlüsselten Datenträgern.
    Das wars dann auch fast schon mit den höhsten Gefühlen diesbezüglich.
    Ok, es gibt auch noch bisschen mehr. Programme für die Konstruktion, in vierstelligen Preisbereichen. Auch die nutze ich aber nicht.

    Es gibt sonst schon einige andere positivere Beispiele, die beziehen sich aber meist auf das Speichern des Ergebnisses. Beim Verarbeiten selbst wirkt sich das um Größenodernungen weniger aus. Und hat leider auch nichts damit zu tun, wie "modern" die Software ist.

    Grad angesichts der durch AMD losgetretenen "core-flood" find ich das zuweilen schon bisschen frustierend. Geschweige der Leistung die über GPGPU vorhanden wäre, wenn man sie denn nutzen würde.

    Meine real größten Leistungssteigerungen ergaben sich mit der Einführung der SSDs und das hochpeitschen des Hauptspeichers. Obwohl hiermit nicht nur sehr speicherintensive Szenarios gemeint sind. Beides brachte überall sehr spürbar etwas.

    Davor und damals, war die große Steigerung mit dem Umstieg von XP auf Win7 und damit vom 2Kerner auf einen 4Kerner. Das brachte zwar den ohne Frage angenehmen Effekt, daß eine - für sich selbst und eine Weile - auf Vollast laufende Anwendung die sonstige Nutzung des Rechners nicht mehr mit feststellbaren Zucken&Rucken beinträchtigt hat und sie selbst durch jenes auch nicht relevant langsamer/gestört wurde.

    Eigentlich wars das dann aber auch schon. Das meiste in den folgenden Upgrades ergab sich hier nur noch aus gesteigertem IPC. Nicht aus der core-flood.

    Wie seht ihr das? (und warum/wodurch)
    Geändert von HalbeHälfte (19.05.2020 um 08:39 Uhr)

  2. Beitrag #2
    Commodore
    Special
    Commodore

    Registriert seit
    04.03.2017
    Beiträge
    436
    Danke Danke gesagt 
    46
    Danke Danke erhalten 
    0
    Ich hoffe, daß dein Betrag bald entfernt wird!

  3. Beitrag #3
    Fleet Captain
    Special
    Fleet Captain

    Registriert seit
    03.04.2008
    Ort
    im schönen Allgäu
    Beiträge
    272
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    1
    warum?,
    was passt dir da nicht?

  4. Beitrag #4
    Grand Admiral
    Special
    Grand Admiral
    Avatar von MagicEye04
    • Mein System
      Notebook
      Modell: Dell Latitude E7240
      Desktopsystem
      Prozessor: R7-1700 (3G@0,94V) - 2x
      Mainboard: Asus Prime B350M-A
      Kühlung: TR Macho - AMD Wraith stealth
      Arbeitsspeicher: 2x8GiB Corsair LPX2400C14 - 2x8GiB DDR4-3200 crucial CL16
      Grafikkarte: Radeon VII - GTX1070ti
      Display: 61cm LG M2452D-PZ - 50cm Philips 200W
      SSD(s): Crucial MX300-275GB - Samsung 840pro 128GB
      Festplatte(n): Seagate 7200.14 2TB - Seagate 7200.12 1TB (jeweils eSATAp)
      Optische Laufwerke: LG DVDRAM GH24NS90
      Soundkarte: onboard
      Gehäuse: Nanoxia Deep Silence1 - Lian-Li PC-G7A
      Netzteil: BeQuiet StraightPower 10 400W - E7 400W
      Betriebssystem(e): Ubuntu
      Browser: Feuerfuchs
      Sonstiges: 5x Nanoxia Lüfter (120/140mm) Festplatten in Bitumenbox
    • Mein DC

      MagicEye04 beim Distributed Computing

      Aktuelle Projekte: Seti,WCG,Einstein + was gerade Hilfe braucht
      Lieblingsprojekt: Seti
      Rechner: R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
      Mitglied der Kavallerie: Nein
      BOINC-Statistiken:
      Folding@Home-Statistiken:

    Registriert seit
    20.03.2006
    Ort
    oops,wrong.planet..
    Beiträge
    10.436
    Danke Danke gesagt 
    45
    Danke Danke erhalten 
    5
    Es darf doch letztendlich Jeder selbst entscheiden, ob er lieber viele Kerne kauft oder eine CPU mit möglichst hohem Boost/Core-Takt bei eher wenig Kernen.
    AMD hat nun für Jeden was im Programm und das finde ich gut so.
    _____________________________________________________________________
    >> Mitglied im Verein gegen den im P3D-Forum herrschenden Netzteilleistungs-Wahn VgP3DhNlW <<

  5. Beitrag #5
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2
    @trethupe
    Weiß ich auch nicht... Das Thema wurde im Tech-Talk erst geschlossen, auf Nachfrage was damit sein sollte, hierhin verschoben.

    Es sagt aber niemand, auch der Erstkommentator nicht, was damit jetzt nicht stimmen sollte. Der Erstkommentator wurde zwar seiner Rolle als Kämpfer für die allgemeine Redefreiheit wie immer gerecht..., mehr mochte er dazu aber auch nicht beitragen.

    @Magic
    Es darf doch letztendlich Jeder selbst entscheiden, ob er lieber [...]
    Das ist zwar vollkommen richtig, stellt imho aber keinen Kontext zum ersten Beitrag. Da geht es nicht um dürfen und auch nicht darum diese oder jene Entscheidung infrage zu stellen.
    Geändert von HalbeHälfte (19.05.2020 um 08:34 Uhr)

  6. Beitrag #6
    Grand Admiral
    Special
    Grand Admiral
    Avatar von MagicEye04
    • Mein System
      Notebook
      Modell: Dell Latitude E7240
      Desktopsystem
      Prozessor: R7-1700 (3G@0,94V) - 2x
      Mainboard: Asus Prime B350M-A
      Kühlung: TR Macho - AMD Wraith stealth
      Arbeitsspeicher: 2x8GiB Corsair LPX2400C14 - 2x8GiB DDR4-3200 crucial CL16
      Grafikkarte: Radeon VII - GTX1070ti
      Display: 61cm LG M2452D-PZ - 50cm Philips 200W
      SSD(s): Crucial MX300-275GB - Samsung 840pro 128GB
      Festplatte(n): Seagate 7200.14 2TB - Seagate 7200.12 1TB (jeweils eSATAp)
      Optische Laufwerke: LG DVDRAM GH24NS90
      Soundkarte: onboard
      Gehäuse: Nanoxia Deep Silence1 - Lian-Li PC-G7A
      Netzteil: BeQuiet StraightPower 10 400W - E7 400W
      Betriebssystem(e): Ubuntu
      Browser: Feuerfuchs
      Sonstiges: 5x Nanoxia Lüfter (120/140mm) Festplatten in Bitumenbox
    • Mein DC

      MagicEye04 beim Distributed Computing

      Aktuelle Projekte: Seti,WCG,Einstein + was gerade Hilfe braucht
      Lieblingsprojekt: Seti
      Rechner: R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
      Mitglied der Kavallerie: Nein
      BOINC-Statistiken:
      Folding@Home-Statistiken:

    Registriert seit
    20.03.2006
    Ort
    oops,wrong.planet..
    Beiträge
    10.436
    Danke Danke gesagt 
    45
    Danke Danke erhalten 
    5
    Na gut gut, dann halt nur ein: "Bin begeistert!!"
    _____________________________________________________________________
    >> Mitglied im Verein gegen den im P3D-Forum herrschenden Netzteilleistungs-Wahn VgP3DhNlW <<

  7. Beitrag #7
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2
    Welche Software entfaltet sich da so begeisternd?

    p.s.:
    Grad kurz überlegt... Es kann vielleicht sein, daß die ganz trüben Lichter - also noch keiner hier - denken, es geht darum über die Hardware abzulästern. Nicht wirklich.
    Wenn sich hier überhaupt eine Frage stellen sollte, dann eher nach der Software die ausserhalb dessen existiert was schon im ersten Beitrag erwähnt wurde.

  8. Beitrag #8
    Grand Admiral
    Special
    Grand Admiral
    Avatar von MagicEye04
    • Mein System
      Notebook
      Modell: Dell Latitude E7240
      Desktopsystem
      Prozessor: R7-1700 (3G@0,94V) - 2x
      Mainboard: Asus Prime B350M-A
      Kühlung: TR Macho - AMD Wraith stealth
      Arbeitsspeicher: 2x8GiB Corsair LPX2400C14 - 2x8GiB DDR4-3200 crucial CL16
      Grafikkarte: Radeon VII - GTX1070ti
      Display: 61cm LG M2452D-PZ - 50cm Philips 200W
      SSD(s): Crucial MX300-275GB - Samsung 840pro 128GB
      Festplatte(n): Seagate 7200.14 2TB - Seagate 7200.12 1TB (jeweils eSATAp)
      Optische Laufwerke: LG DVDRAM GH24NS90
      Soundkarte: onboard
      Gehäuse: Nanoxia Deep Silence1 - Lian-Li PC-G7A
      Netzteil: BeQuiet StraightPower 10 400W - E7 400W
      Betriebssystem(e): Ubuntu
      Browser: Feuerfuchs
      Sonstiges: 5x Nanoxia Lüfter (120/140mm) Festplatten in Bitumenbox
    • Mein DC

      MagicEye04 beim Distributed Computing

      Aktuelle Projekte: Seti,WCG,Einstein + was gerade Hilfe braucht
      Lieblingsprojekt: Seti
      Rechner: R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
      Mitglied der Kavallerie: Nein
      BOINC-Statistiken:
      Folding@Home-Statistiken:

    Registriert seit
    20.03.2006
    Ort
    oops,wrong.planet..
    Beiträge
    10.436
    Danke Danke gesagt 
    45
    Danke Danke erhalten 
    5
    Es geht um die bunten Bildchen meiner Signatur. Boinc.

    So langsam beginne ich auch zu verstehen, was Beitrag #2 zu sagen hat, bei #1 dauert es noch ein wenig.
    _____________________________________________________________________
    >> Mitglied im Verein gegen den im P3D-Forum herrschenden Netzteilleistungs-Wahn VgP3DhNlW <<

  9. Beitrag #9
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2
    Ah ok. Das passt dann. Da kann ich auch nicht mitreden

    Bei mir selbst fing erst eine kleine Flamme für ein neues Upgrade zu lodern, mit dem 3300X. Den fand ich sofort klasse. Nicht den 3700 und nicht den 3900 davor
    Das ist aber wie gesagt eher und leider der Software und nicht der Hardware geschuldet.

    Und das nervt mich langsam
    Geändert von HalbeHälfte (19.05.2020 um 09:01 Uhr)

  10. Beitrag #10
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    27.05.2016
    Beiträge
    547
    Danke Danke gesagt 
    9
    Danke Danke erhalten 
    1
    Welche Software benutzt du denn, HalbeHälfte?

  11. Beitrag #11
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2

    Und dann? Ich kenn die Software und die ist ausgesucht, auch nach dem Abchecken von Alternativen.

  12. Beitrag #12
    Redaktion
    Redaktion
    Avatar von Effe
    • Mein System
      Desktopsystem
      Prozessor: RyZen R7-3700X; RyZen 5 2400G
      Mainboard: ASUS X370 Prime Pro; MSI B350M Mortar
      Kühlung: Alpenföhn Brocken 2; Alpenföhn Wasser
      Arbeitsspeicher: 32GB Crucial Ballistix Sport CL16 3200 MHz ;GSkill F4-3200C14D-16GTZ;
      Grafikkarte: MSI Radeon RX 5700 XT Gaming X; Vega 11 + Inno3D GTX1660;
      Display: HP Pavilion 32 HDR; HP Pavilion 32
      SSD(s): Crucial P1 1TB NVMe + BX500 960GB; Sandisk Plus 480GB
      Festplatte(n): WD Blue 1TB; WD Purple 3TB
      Soundkarte: X-Fi Titanium Fatal1ty; X-Fi Titanium
      Gehäuse: Chieftec Smart CH-09B-U3; Sharkoon CA-M silber
      Netzteil: Aerocool P7 650W; SST-SX500-LG
      Betriebssystem(e): Win10 64bit
      Browser: Firefox X,; Chrome 10000
    • Mein DC

      Effe beim Distributed Computing

      Aktuelle Projekte: Rosetta & TN-Grid + F&H ->>> FCK CVD19 !
      Lieblingsprojekt: Einstein@Home
      Rechner: 3700X+2080+1650; 2400G+290X+560D+Vega11; 2200G+ 5700XT+Vega8; i7860+R7950; i73930K+1660+Vega56+750ti
      Mitglied der Kavallerie: Nein
      BOINC-Statistiken:
      Folding@Home-Statistiken:

    Registriert seit
    17.02.2011
    Ort
    Im Havelland
    Beiträge
    2.918
    Danke Danke gesagt 
    166
    Danke Danke erhalten 
    128
    Zitat Zitat von HalbeHälfte Beitrag anzeigen

    Und dann?
    Dann ist diese Diskussion kein Stochern im Nebel mehr, sondern verrät auch mal, was Du mit "Software" meinst und warum diese Dich frustriert.

    Ich kenn die Software und die ist ausgesucht, auch nach dem Abchecken von Alternativen.
    Du bist also der Meinung, es sei befruchtend für eine Diskussion, den Gesprächsteilnehmern eine Hauptkomponente des angestoßenen Themas vorzuenthalten. Wozu dann der Thread?

  13. Beitrag #13
    Grand Admiral
    Special
    Grand Admiral
    • Mein System
      Notebook
      Modell: dv6-2028ez; 6465b
      Prozessor: M600; A6-3410MX
      Mainboard: -;-
      Kühlung: -;-
      Arbeitsspeicher: 4GB DDR2 800; 8GB DDR3 1600
      Grafikkarte: Mobility HD4550; HD6530G
      Display: 15"(1366x768);14"(1600x900)
      SSD(s): -;240GB SSD Samsung 840
      Festplatte(n): 500GB;2nd HD 500GB Toshiba
      Optische Laufwerke: Blueray Drive;-
      Gehäuse: dv6-2028ez; 6465b
      Netzteil: HP 90W
      Betriebssystem(e): Win 7 hp; Win8.1 Pro
      Browser: UX Nightly 64bit
    • Mein DC

      ONH beim Distributed Computing

      Rechner: M600, A6-3410MX
      Mitglied der Kavallerie: Nein
      BOINC-Statistiken:

    Registriert seit
    31.08.2009
    Ort
    AG CH
    Beiträge
    2.838
    Danke Danke gesagt 
    203
    Danke Danke erhalten 
    3
    Zitat Zitat von MagicEye04 Beitrag anzeigen
    So langsam beginne ich auch zu verstehen, was Beitrag #2 zu sagen hat, bei #1 dauert es noch ein wenig.
    Interessant, Beitrag #1 ist eigentlich sonnenklar, was er damit bezwecken will. Mal abgesehen, davon das du genau auf #1 passend geantwortet hast, nehme ich dir nicht ab das du es nicht verstehst.

    Bei #2 verstehe ich nicht mal abgesehne davon, dass der Thread wohl in Tech-Talk falsch platziert war.

    Edit:
    Zum Thema, ich bin begeistert das dadurch für 0815 Anwendungen nun stromsparende HW zur Verfügung steht. Und sich mehrere Anwendungen nicht gegenseitig die Resourcen stehlen können, so dass sie nciht mehr benutzbar sind. Schade ist das es bei Viel SW einfach kein Mehrwert bietet die Leistung zu nutzen, da die Peripherie die Einschränkung ist wird es sich auch nicht ändern solange wir noch mit 1981er Peripherie unterwegs sind. Für den Alltag ist "Teraflop daheim" unnötig und eine Zeit/Energieverschwendung.
    Geändert von ONH (20.05.2020 um 10:57 Uhr)

  14. Beitrag #14
    Grand Admiral
    Special
    Grand Admiral
    Avatar von MagicEye04
    • Mein System
      Notebook
      Modell: Dell Latitude E7240
      Desktopsystem
      Prozessor: R7-1700 (3G@0,94V) - 2x
      Mainboard: Asus Prime B350M-A
      Kühlung: TR Macho - AMD Wraith stealth
      Arbeitsspeicher: 2x8GiB Corsair LPX2400C14 - 2x8GiB DDR4-3200 crucial CL16
      Grafikkarte: Radeon VII - GTX1070ti
      Display: 61cm LG M2452D-PZ - 50cm Philips 200W
      SSD(s): Crucial MX300-275GB - Samsung 840pro 128GB
      Festplatte(n): Seagate 7200.14 2TB - Seagate 7200.12 1TB (jeweils eSATAp)
      Optische Laufwerke: LG DVDRAM GH24NS90
      Soundkarte: onboard
      Gehäuse: Nanoxia Deep Silence1 - Lian-Li PC-G7A
      Netzteil: BeQuiet StraightPower 10 400W - E7 400W
      Betriebssystem(e): Ubuntu
      Browser: Feuerfuchs
      Sonstiges: 5x Nanoxia Lüfter (120/140mm) Festplatten in Bitumenbox
    • Mein DC

      MagicEye04 beim Distributed Computing

      Aktuelle Projekte: Seti,WCG,Einstein + was gerade Hilfe braucht
      Lieblingsprojekt: Seti
      Rechner: R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
      Mitglied der Kavallerie: Nein
      BOINC-Statistiken:
      Folding@Home-Statistiken:

    Registriert seit
    20.03.2006
    Ort
    oops,wrong.planet..
    Beiträge
    10.436
    Danke Danke gesagt 
    45
    Danke Danke erhalten 
    5
    Zitat Zitat von ONH Beitrag anzeigen
    Interessant, Beitrag #1 ist eigentlich sonnenklar, was er damit bezwecken will. Mal abgesehen, davon das du genau auf #1 passend geantwortet hast, nehme ich dir nicht ab das du es nicht verstehst.
    Inhaltlich, ja.
    Aber ich habe den Eindruck, dass hier irgendwas zwischen den Zeilen existiert.
    _____________________________________________________________________
    >> Mitglied im Verein gegen den im P3D-Forum herrschenden Netzteilleistungs-Wahn VgP3DhNlW <<

  15. Beitrag #15
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2
    @Magic
    Ich freu mich zwar auch, daß du eine dieser wenigen Ausnahmen bist, welche die Regel bestätigen, daß hinter fast jedem Beitrag irgendetwas zwischen den Zeilen existiert. Damit kann man aber daher noch keine Stigmatisierung erzeugen.

    @Effe
    Ist mir an der Stelle zu hoch. Was passiert dann, wenn sich der Nebel richtet? Aufklärung, daß die Programme doch sehr gut mehr als 4 threads nutzen? (und ich Depp das nicht geschnallt hab?) Oder halt, "ja da ist das halt so"? Ich hab von beiden nichts, da eben kein Depp

    @ONH
    Und sich mehrere Anwendungen nicht gegenseitig die Resourcen stehlen können, so dass sie nciht mehr benutzbar sind.
    Ich schrieb gleich darüber, als ich auch die Vorteile ab einem Vierkerner ansprach. Genau darüber...

    Des Pudels Kern ist hier auch nicht, ob mehr als 4 oder 8 Threads irgendeinen Sinn ergeben, sondern wie schwer wohl den Codern Parallelisierung fällt. Anscheinend. Das ist es was zwischen den Zeilen existiert. Macht man gelegentlich, wenn man gerne sieht, wie sich eine Diskussion entwickelt und Leute sich dem Kern selbst nähern.

    Meist scheitert das aber auch an einer zu hochen Erwartungshaltung. Wenn man z.B. wartet bis jemand selbst aufzählt was er im Alltag so an alltäglicher (?!) Software nutzt und seine Beispiele aufführt, wie gut das DANK 4 Threads oder gar mehr, abgeht.

    Ich hab mir davor ehrlich gesagt aber auch keine Gedanken dazu gemacht, daß soetwas in einem most-AMD forum, zu Ryzenzeiten, eine Art Tabuthema sein könnte und man erstmal sofort gleich die Löschung des Themas postuliert, gefolgt schonmal von einer Schliessung, im Tech-Talk. Wo das nichts anderes als nur Tech-Talk ist...

    Aber ok. Auch dadurch wird das hier keine Tragödie Danke allen Teilnehmern für ihre Zeit. Die Halbwertzeit des Threads wurde bereits nach 2 Tagen erreicht.

    Ciao.

  16. Beitrag #16
    Redaktion
    Redaktion
    Avatar von Effe
    • Mein System
      Desktopsystem
      Prozessor: RyZen R7-3700X; RyZen 5 2400G
      Mainboard: ASUS X370 Prime Pro; MSI B350M Mortar
      Kühlung: Alpenföhn Brocken 2; Alpenföhn Wasser
      Arbeitsspeicher: 32GB Crucial Ballistix Sport CL16 3200 MHz ;GSkill F4-3200C14D-16GTZ;
      Grafikkarte: MSI Radeon RX 5700 XT Gaming X; Vega 11 + Inno3D GTX1660;
      Display: HP Pavilion 32 HDR; HP Pavilion 32
      SSD(s): Crucial P1 1TB NVMe + BX500 960GB; Sandisk Plus 480GB
      Festplatte(n): WD Blue 1TB; WD Purple 3TB
      Soundkarte: X-Fi Titanium Fatal1ty; X-Fi Titanium
      Gehäuse: Chieftec Smart CH-09B-U3; Sharkoon CA-M silber
      Netzteil: Aerocool P7 650W; SST-SX500-LG
      Betriebssystem(e): Win10 64bit
      Browser: Firefox X,; Chrome 10000
    • Mein DC

      Effe beim Distributed Computing

      Aktuelle Projekte: Rosetta & TN-Grid + F&H ->>> FCK CVD19 !
      Lieblingsprojekt: Einstein@Home
      Rechner: 3700X+2080+1650; 2400G+290X+560D+Vega11; 2200G+ 5700XT+Vega8; i7860+R7950; i73930K+1660+Vega56+750ti
      Mitglied der Kavallerie: Nein
      BOINC-Statistiken:
      Folding@Home-Statistiken:

    Registriert seit
    17.02.2011
    Ort
    Im Havelland
    Beiträge
    2.918
    Danke Danke gesagt 
    166
    Danke Danke erhalten 
    128
    Viel BlaBla um nichts. Einen Thread eröffnen, aber das Gespräch verweigern ist ganz große Schule.

  17. Beitrag #17
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2
    p.s.:
    Viel BlaBla um nichts.
    Weißt du wie oft ich dir schon sowas schreiben wollte? Ich wollte aber nicht die Gefahr laufen mir dann mit Gefühlsduselei begründete mangelnde Objektivität unterstellen lassen.
    Für eine Gesprächsverwegerung sind meine Beiträge übrigens kleinwenig zu lang...

    Ich bin trotzdem doch noch mal sehr gespannt wie sich das gleich weiter entwickeln wird:
    Zwei Tools von Faststone, DxO/Lightroom, Firefox, Thunderbird, Open/Libre Office, TotalCommander, 7-zip, Paint.net, mpc-hc, Locate, Aimp, FileZilla, GnuPG, MinGW, Xmedia Recode, Foxit, Acronis, und paar andere kleinere Tools.

  18. Beitrag #18
    Cadet

    Registriert seit
    20.01.2018
    Beiträge
    44
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    0
    Multithreading wird zusehends besser genutzt, das sehe ich gut bei meinem steinalten Intel Q9550 (Core2Quad), der mir immer noch reicht für alles was ich mache, im Netz Surfen (ich neige dazu viele Tabs offen zu haben im Firefox), gelegentlich spielen (Team Fortress 2), Fotos bearbeiten (gimp), oder gerade demnächst wieder einfache 3D-Bearbeitung (FreeCAD). Ich habe häufig die CPU-Auslastung im Blick, und da kommt es durchaus vor, dass alle 4 Kerne gut belastest sind. Insofern sehe ich eine Anwendung für mehr (und natürlich auch schnellere) Kerne.
    Wenn ich meinen Bulldozer mit 8 Threads (Opteron 3280) dazu überreden könnte, mit einer aktuellen Grafikkarte zu kooperieren, dann würde ich auch sofort umsteigen und den Intel wegstellen, auch wenn der Bulldozer pro Thread etwas weniger leistet.
    Auch wen GPGPU kaum genutzt wird, Grafikkarten sind das, was ich wirklich aufrüsten musste in den letzten Jahren. Die CPU-Entwicklung lief doch sehr viel gemächlicher bis AMD mit Ryzen den Markt aufgemischt hat.
    Wer öfters Software selber kompiliert, der profitiert definitiv von mehr Kernen, so ein EPYC 7402P oder ähnliches geht da ganz anders zu Werke, wenn man ihm genug Arbeit gibt. Auch moderne Videocodes wie AV1 können multithreaded decodiert (oder encodiert) werden, und Videos schauen ist nun wirklich keine Nischen-Anwendung (Besser ist natürlich wenn es die GPU decodiert).

    Für mich ist klar dass mein nächster Rechner mindestens 8 Cores haben wird, Software wird zusehends besser darin, mehr Kerne auszunutzen, und ich versuche nach Möglichkeit bei jedem Upgrade alles mindestens zu verdoppeln, damit es sich lohnt.
    Mein letztes Upgrade war von 2 (Opteron 121 auf 4 Kerne (Q9550), bei identischem RAM und Massenspeicher, und das Upgrade habe ich durchaus gemerkt.
    SMP ist jetzt auch nichts neues für die Programmierer, das gab es schon beim Pentium (Mein erster eigener Rechner war ein alter Dual-Pentium 100), Linux unterstützt das schon ewigs (IIRC ab Kernel 2.0 oder 2.2, ab 2.4 hat es richtig Spass gemacht), bei Windows ging es etwas länger bis es im Mainstream angekommen ist (XP war das erste Consumer-Windows auf NT-Basis, welches SMP konnte).

    Auch bei den normalen Nutzern (Mit Windows 10, falls das jemand kennt) profitiert man von mehr als zwei Kernen. Ich habe heute meinen Eltern den alten Office-PC von 2 (E7500) auf 4 (Q8400) Kerne aufgerüstet, weil ich mich das letzte mal geärgert habe als ich mal wieder alle Software aktualisierte und alles etwa lange dauert.
    Andererseits muss man leider sehen, dass auch im Jahr 2020 noch echt laaaangsaaaaaame Hardware verkauft wird, kürzlich war eine grosse Anzeige für ein Acer Notebook mit AMD A4-9120C in der Zeitung. Ich habe extra die Benchmarks rausgesucht, der alte Core 2Duo meiner Eltern war schneller als so eine Krücke :-)
    Die wichtigste Neuerung in den letzten 10 Jahren war aber klar die SSD.

    Der Serverbereich ist da auch weiter, im Webhosting wird ganz sicher niemand behaupten dass mehr Kerne nichts bringen.
    Bei Kommerz-Software sieht es möglicherweise anders aus, die Hersteller haben teilweise seltsame Vorstellungen bei der Lizenzierung von Software in Abhängigkeit von der Anzahl CPU-Kerne. Ist aber zum Glück nicht mein Gebiet :-)

    Mein Fazit: Mehr Kerne werden genutzt, auch mehr als 2 Kerne, aber es gibt halt auch noch jede Menge Hardware mit 2-4 Threads im Feld. Das ändert sich jetzt erst langsam, und der Modernisierungszyklus bei Computern ist länger geworden. Das hat auch seine guten Seiten, man muss nicht mehr so häufig den Rechner neu kaufen oder massiv aufrüsten und kann trotzdem alle Mainstream-Anwendungen nutzen.

    Etwas irritiert haben mich übrigens die Benchmarks des 3300X. Der ist teilweise ähnlich schnell wie die Hexa-Cores von AMD.

  19. Beitrag #19
    Grand Admiral
    Special
    Grand Admiral
    Avatar von kuppi
    • Mein System
      Notebook
      Modell: Thinkpad T420
      Desktopsystem
      Prozessor: Ryzen 3600
      Mainboard: Asrock B450
      Kühlung: Scythe Big Shuriken @ Noiseblocker XL1
      Arbeitsspeicher: 64GB
      Grafikkarte: MSI 270X Gaming
      Display: Dell 2715H
      SSD(s): intel s660
      Festplatte(n): Samsung EcoGreen F4 2TB
      Optische Laufwerke: LG BH16NS40 Blu-Ray Brenner
      Soundkarte: ASUS Xonar DX
      Gehäuse: Silverstone GD09B
      Netzteil: Cougar SE 400
      Betriebssystem(e): Win 10 Professional
      Browser: Firefox

    Registriert seit
    19.12.2005
    Ort
    Montpellier
    Beiträge
    3.949
    Danke Danke gesagt 
    15
    Danke Danke erhalten 
    21
    Wer des Englischen mächtig ist, lese mal den folgenden Auszug aus Wikipedia:

    An outdated version of an anti-virus application may create a new thread for a scan process, while its GUI thread waits for commands from the user (e.g. cancel the scan). In such cases, a multi-core architecture is of little benefit for the application itself due to the single thread doing all the heavy lifting and the inability to balance the work evenly across multiple cores. Programming truly multithreaded code often requires complex co-ordination of threads and can easily introduce subtle and difficult-to-find bugs due to the interweaving of processing on data shared between threads (see thread-safety). Consequently, such code is much more difficult to debug than single-threaded code when it breaks. There has been a perceived lack of motivation for writing consumer-level threaded applications because of the relative rarity of consumer-level demand for maximum use of computer hardware. Also, serial tasks like decoding the entropy encoding algorithms used in video codecs are impossible to parallelize because each result generated is used to help create the next result of the entropy decoding algorithm.


    Given the increasing emphasis on multi-core chip design, stemming from the grave thermal and power consumption problems posed by any further significant increase in processor clock speeds, the extent to which software can be multithreaded to take advantage of these new chips is likely to be the single greatest constraint on computer performance in the future. If developers are unable to design software to fully exploit the resources provided by multiple cores, then they will ultimately reach an insurmountable performance ceiling.
    Das ist meiner Meinung nach irgendwo schon der Fall. Die Software Entwicklung hängt für mich subjektiv der ganzen Multi-Core Entwicklung um 10 Jahre hinterher. Ich gebe aus beruflichen Gründen Geld für AutoCAD und ADOBE CC aus. Schaut man sich die Core Auslastung einmal an, es ist ein Trauerspiel. Bin nachwievor nicht sicher ob es wirklich Sinn gemacht hat den Ryzen 3600 zu kaufen, oder ich nicht besser einen Intel I3 mit 4 Kernen genommen hätte.

    Der Trend hin zu 8, 12 oder 16 Kernen im Consumer Bereich ist aus meiner Sicht derzeit nur für eine verschwindend geringe Nische an Nutzern wirklich auch eine Verbesserung. Es gibt einfach zu wenig Software die das effektiv nutzen kann.

    Für mich ist dieser Multi-Core Trend in gewisserweise lediglich geschicktes Marketing. Ansonsten würden die CPU Hersteller ja gar nix mehr verkaufen, da es einfach keinen Grund zum Wechsel gibt. Im Home-User Bereich geht es ohnehin weg vom "PC" die große Mehrheit hat jetzt schon nur noch Laptops (mit vergleichsweise geringer Leistung) und auch die werden weniger werden. Tablet und Smartphone ist alles was die meisten User im Alltag brauchen.
    Was passiert, wenn man sich alle Türen offen hält?
    Spoiler

  20. Beitrag #20
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2
    Zitat Zitat von kuppi Beitrag anzeigen
    Die Software Entwicklung hängt für mich subjektiv der ganzen Multi-Core Entwicklung um 10 Jahre hinterher.
    Ja. Und:
    Ich gebe aus beruflichen Gründen Geld für AutoCAD und ADOBE CC aus. Schaut man sich die Core Auslastung einmal an, es ist ein Trauerspiel.
    Ja.

    Bin nachwievor nicht sicher ob es wirklich Sinn gemacht hat den Ryzen 3600 zu kaufen, oder ich nicht besser einen Intel I3 mit 4 Kernen genommen hätte.
    Wäre es jetzt gewesen, würde ich dann doch eher den 3300X vorziehen. Ich bin von der CPU fast schon begeistert Ich hoffe vom Zen3 gibts dann auch mal sowas.

    @Cmdr_Zod
    Etwas irritiert haben mich übrigens die Benchmarks des 3300X. Der ist teilweise ähnlich schnell wie die Hexa-Cores von AMD.
    Mich nicht. Der passt eben besser (noch) in die Zeit als bereits alte core-flood. Aber hej, core-flood glättet frametimes...

    Ich bin nicht der Meinung, daß ein Videodecoder multithreaded sein muss. Oder gar zwischen P5 und P7 eine Radeon auslasten sollte. Bei Videos teht es imho darum SO WENIG WIE MÖGLICH die Hardware zu beschäftigen. Ich sehe am anderen Verhalten ehrlich gesagt nichts moderneres. Ausnahmsweise.
    Wenn man in Player oder gleich Glotze einen spezialisierten PGA hat der max. 15W verbraucht und u.a. einen Decoder für H.264 wie H.265, dann ist das was anderes als wenn man AV1 über 8 Kerne ausrollt.
    In so einem Feature sehe ich wie gesagt ausnahmsweise nichts positives.
    Geändert von HalbeHälfte (22.05.2020 um 22:19 Uhr)

  21. Beitrag #21
    Grand Admiral
    Special
    Grand Admiral
    Avatar von MagicEye04
    • Mein System
      Notebook
      Modell: Dell Latitude E7240
      Desktopsystem
      Prozessor: R7-1700 (3G@0,94V) - 2x
      Mainboard: Asus Prime B350M-A
      Kühlung: TR Macho - AMD Wraith stealth
      Arbeitsspeicher: 2x8GiB Corsair LPX2400C14 - 2x8GiB DDR4-3200 crucial CL16
      Grafikkarte: Radeon VII - GTX1070ti
      Display: 61cm LG M2452D-PZ - 50cm Philips 200W
      SSD(s): Crucial MX300-275GB - Samsung 840pro 128GB
      Festplatte(n): Seagate 7200.14 2TB - Seagate 7200.12 1TB (jeweils eSATAp)
      Optische Laufwerke: LG DVDRAM GH24NS90
      Soundkarte: onboard
      Gehäuse: Nanoxia Deep Silence1 - Lian-Li PC-G7A
      Netzteil: BeQuiet StraightPower 10 400W - E7 400W
      Betriebssystem(e): Ubuntu
      Browser: Feuerfuchs
      Sonstiges: 5x Nanoxia Lüfter (120/140mm) Festplatten in Bitumenbox
    • Mein DC

      MagicEye04 beim Distributed Computing

      Aktuelle Projekte: Seti,WCG,Einstein + was gerade Hilfe braucht
      Lieblingsprojekt: Seti
      Rechner: R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
      Mitglied der Kavallerie: Nein
      BOINC-Statistiken:
      Folding@Home-Statistiken:

    Registriert seit
    20.03.2006
    Ort
    oops,wrong.planet..
    Beiträge
    10.436
    Danke Danke gesagt 
    45
    Danke Danke erhalten 
    5
    Tja, ich warte hingegen auf einen 8Kerner mit iGPU in 45W-Ausführung.
    _____________________________________________________________________
    >> Mitglied im Verein gegen den im P3D-Forum herrschenden Netzteilleistungs-Wahn VgP3DhNlW <<

  22. Beitrag #22
    Cadet

    Registriert seit
    20.01.2018
    Beiträge
    44
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    0
    Zitat Zitat von HalbeHälfte Beitrag anzeigen
    Ja. Und:
    @Cmdr_Zod
    Mich nicht. Der passt eben besser (noch) in die Zeit als bereits alte core-flood. Aber hej, core-flood glättet frametimes...

    Ich bin nicht der Meinung, daß ein Videodecoder multithreaded sein muss. Oder gar zwischen P5 und P7 eine Radeon auslasten sollte. Bei Videos teht es imho darum SO WENIG WIE MÖGLICH die Hardware zu beschäftigen. Ich sehe am anderen Verhalten ehrlich gesagt nichts moderneres. Ausnahmsweise.
    Wenn man in Player oder gleich Glotze einen spezialisierten PGA hat der max. 15W verbraucht und u.a. einen Decoder für H.264 wie H.265, dann ist das was anderes als wenn man AV1 über 8 Kerne ausrollt.
    In so einem Feature sehe ich wie gesagt ausnahmsweise nichts positives.
    Grundsätzlich gebe ich dir recht, Decoding ist eigentlich Aufgabe eines spezifischen Funktionsblocks in der GPU. Blos kann die GPU halt nur das effizient in Hardware, was zum Zeitpunkt des Designs implementiert wurde. Im Notebook kann keiner die Grafikkarte tauschen, und auch auf dem Desktop sind es nur die Gamer und eine technisch interessierte Minderheit, die Grafikkarten tauscht oder nachrüstet. Folglich bin ich ganz glücklich, wenn ich AV1 auch mit ein paar CPU-Threads dekodieren kann.
    Bei meiner HD 7750 ist bei MPEG 4 bzw VC 1 Schluss. Bei der ursprünglich verbauten Quadro FX 3700 wars nicht besser, blos kommt dort noch bescheidene Treiberunterstützung obendrauf. Onboard-Intel aus der Zeit kann nur MPEG 2.
    Neuere AMD-Karten können auch HEVC und JPEG (JPEG? Wozu baut man jpeg-Dekodierung ein, wo doch MJPEG längst veraltet ist und die CPU JPEGs zum Frühstück verputzt?).

  23. Beitrag #23
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2
    @Cmdr_Zod
    Nicht zu vergessen die Software ("Player") die das erstmal richtig nutzen müssten...

    p.s.: @kuppi
    Du gehörst wohl wie ich zu denen die sich über einen 3300X viel mehr freuen würden als über den 3600 Und ich denke der würde auch bei dir bessere rennen. Sowas sind aktuell die sinnvollsten CPUs, wenn es nicht um top-highend-gaming geht. Oder sowas was Magic macht.
    Geändert von HalbeHälfte (23.05.2020 um 11:42 Uhr)

  24. Beitrag #24
    Cadet

    Registriert seit
    20.01.2018
    Beiträge
    44
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    0
    Zitat Zitat von kuppi Beitrag anzeigen
    Das ist meiner Meinung nach irgendwo schon der Fall. Die Software Entwicklung hängt für mich subjektiv der ganzen Multi-Core Entwicklung um 10 Jahre hinterher. Ich gebe aus beruflichen Gründen Geld für AutoCAD und ADOBE CC aus. Schaut man sich die Core Auslastung einmal an, es ist ein Trauerspiel. Bin nachwievor nicht sicher ob es wirklich Sinn gemacht hat den Ryzen 3600 zu kaufen, oder ich nicht besser einen Intel I3 mit 4 Kernen genommen hätte.
    Wieso kontaktiest du nicht den Hersteller und fragst, ob er gedenkt, mal moderne Technik umzusetzen? Du zahlst für das Zeugs, das ist nicht frei Software, wo es an den Interessen und der verfügbaren Freizeit von ein paar Hobby-Entwicklern hängt was und wie weiterentwickelt wird.


    Zitat Zitat von kuppi Beitrag anzeigen
    Der Trend hin zu 8, 12 oder 16 Kernen im Consumer Bereich ist aus meiner Sicht derzeit nur für eine verschwindend geringe Nische an Nutzern wirklich auch eine Verbesserung. Es gibt einfach zu wenig Software die das effektiv nutzen kann.

    Für mich ist dieser Multi-Core Trend in gewisserweise lediglich geschicktes Marketing. Ansonsten würden die CPU Hersteller ja gar nix mehr verkaufen, da es einfach keinen Grund zum Wechsel gibt. Im Home-User Bereich geht es ohnehin weg vom "PC" die große Mehrheit hat jetzt schon nur noch Laptops (mit vergleichsweise geringer Leistung) und auch die werden weniger werden. Tablet und Smartphone ist alles was die meisten User im Alltag brauchen.
    Es ist heute wesentlich einfacher, in die "Breite" zu gehen. Jahrelang konnte man die Fortschritte in der Chipfertigung darin stecken, einen Core schneller und besser zu machen (FPU integrieren, MMU integrieren, Cache, noch mehr Cache-Stufen, mehr parallele Ausführungseinheiten, lange Pipelines, Out of Order Instruction, Sprungvorhersage mit spekulativer Ausführung, Integration vom Speichercontroller, grössere Verarbeitungsbreite, SIMD-Befehle, mehr Taktrate...). Zwischenzeitlich sind wir aber am Punkt, wo das extrem schwierig ist, bzw. überproportional viel mehr Energie und Chipfläche pro zusätzliche Rechenleistung in einem Core verbraucht wird. Gut sieht man das z.B. an den ersten Atoms, die auf geringe Kosten getrimmt wurden. Die hatten keine Out of Order Instruction, aber dafür Hyperthreading, weil Hyperthreading weniger Chipfläche braucht um die Gesamtleistung zu steigern.
    Bei den Tablets und Smartphones ist die Entwicklung ähnlich, dort sind auch bis 8 Kerne verbaut, teilweise unterschiedlicher Art, um besser Strom sparen zu können.

    Mehr Kerne sind sind auch immer eine Investition in die Zukunft, zumindest am PC, wo man nicht nach 2 Jahren ohne Software-Updates im Regen steht.
    Da kann man sich überlegen, ob man gleich 8 Kerne kauft, oder darauf spekuliert in ein paar Jahre günstig nachlegen zu können (Bei Intel ist das dann meist der Gebrauchtmarkt, bei AMD ist die Sockel-Politik kundenfreundlicher).

    Noch ein Nachtrag zum Verkauf von neuen Computern. Es gab in den letzten Jahren auch abseits von der CPU Gründe zum Aufrüsten. Festplatten wurden grösstenteils durch SSDs ersetzt, die Anbindung der SSDs wird auch schneller, Arbeitsspeicher wurde schneller und mehr, USB wurde schneller, WLAN wurde besser (Irgendwann gibt es dann vielleicht auch endlich schnelleres Ethernet), Notebooks erhalten bessere Monitore und werden auch immer dünner (bessere Effizienz, bessere Akkus), und die Grafikkarten wurden modernisiert um hochauflösende Displays anzusprechen.
    Geändert von Cmdr_Zod (23.05.2020 um 21:16 Uhr)

  25. Beitrag #25
    Themenstarter
    Vice Admiral
    Special
    Vice Admiral

    Registriert seit
    30.07.2006
    Beiträge
    543
    Danke Danke gesagt 
    0
    Danke Danke erhalten 
    2
    @Cmdr_Zod
    Die Hersteller haben ewig fertige Textbausteine für solche Fragerei. Man bewirkt leider garnichts mit sowas. Wirklich. Vor allem wenn wer wirklich gut ist, im... ermöglichten Endergebnis, und weiß, die Leute nutzen das dann doch entweder mit Zähneknirschen, Nasrumpfen oder halt ohne zu mosern, dann passiert da erstmal seeehr lange nichts.

    Du kannst auch ein Meer an Pros ansammeln. Wie bei Photoshop zum Beispiel. Und lässt deine angesammelten Kohorten auf die los, zu fragen, ob sie denn nicht bitte mal AVX oder mehr GPU in die Berechnungen einbeziehen könnten. Vergiss es.
    Und das ist paar Routinen umzuschreiben bzw. zu erweitern. Das ist noch nicht Routinnen auseinandernehmen um sie zu parallelisieren. Sie haben irgendwann ihr Zeug von MMX nach SSE2 portiert und das wars
    Und so ist das überall in der Kommerz. Sowas kostet eben Geld. Wenn die Leute nicht drohen dir die Bude abzubrennen passiert da nichts. Man hat ja noch 304 Bugfixes von der Brust...

    Wenn das alles klappt, sie ihn also im verhältnis so boosten lassen wie den 3300X, und sowas überhaupt kommt, wird der 4300X aber richtig cool sein. Ich bin da langsam heiss drauf

    edit:
    Für den PC tätigt man NIEMALS "Investitionen in die Zukunft" Man kauf was man grad gut gebrauchen kann.
    Geändert von HalbeHälfte (23.05.2020 um 22:23 Uhr)

Seite 1 von 2 12 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •