Rechenleistung

GoJoe

Lieutnant
Mitglied seit
02.06.2003
Beiträge
57
Renomée
0
Inwieweit könnte man Distributed Computing Projekte mit Hochleistungsrechnern vergleichen? Nachdem ich mich ein wenig belesen habe, kann ich zwar schließen, dass rein theoretisch ein normer Rechner x Mflops schafft und dass dann n normale Rechner halt n*x Mflops schaffen, doch wäre dies wohl eine totale Milchmädchenrechnung. Hat sich schonmal jemand Gedanken gemacht, vielleicht aufgrund realistischer Erfahrungen (SETI, CP), wieviel Rechenleistung durch keine durchgängige Laufzeit, abgebrochene WU, lahme Internetverbindung, weniger RAM und Plattenplatz, ausgestiegene Teilnehmer usw. verloren geht in Bezug auf einen Idealfall? Durch welchen Wert könnte man also dividieren müssen, um die Rechenleistung eines DCP (Distributed Computing Projekt) in sagen wir 24 Stunden realistisch ausdrücken zu können? Dann wäre ja vielleicht auch ein realistischer Vergleich mit Supercomputern möglich oder?

Ich wäre über jede Hilfe, Hinweise, Kommentare usw. dankbar.

MfG Joe
 
Da CP relativ neu ist, ist das hier wahrscheinlich das falsche Forum. z.B. SETI läuft ja schon viel länger, mit mehr Teilnehmern; ich denke, da wird man eher was finden können. Auf der offiziellen SETI-Seite gibts ja irgendwo Gesamtstatistiken. Aber über den Verlust an theoretischer Rechenleistung hab ich auch noch nichts gefunden.

Ich könnte jetzt auch nur wild spekulieren. Andererseits ist das wahrscheinlich auch relativ egal, selbst wenn 90% "daneben gehen", ist es immer noch unschlagbar billig und lohnt sich deswegen trotzdem für hoffnungslos unterfinanzierte Projekte (wie bei Unis üblich ;) ). Zeitkritische Anwendungen sind dafür natürlich ungeeignet.
 
man schaue mal hier

Link

MFG
Sir Ulli
 
wobei ich mich letztens auch gefragt habe wieviel rechenleistung für die verwaltung von dc projekten gebraucht wird....
 
Zurück
Oben Unten