PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussionsthread zu "Raid-Controller und Festplatten" :)



Nero24.
30.11.2005, 15:13
Hier könnt Ihr über den Raid-Controller und die Festplatten für den neuen P3D-Server diskutieren.

gruenmuckel
30.11.2005, 16:06
Dann mach ich mal den Anfang.
Wir wollen ja hohe Verfügbarkeit.
Raid5 ist zwar toll, aber wenn zwei Platten ausfallen ist auch da Schicht.
Deswegen wäre es anzudenken einen 6-Kanal Controller zu kaufen und 1-2 Platten als Hotspare mitlaufen zu lassen.
Dadurch sollte die Zeit bis ein Betreuer ne neue Platte nachgeschoben hat unkritischer sein.

Beim Seti-Projekt hatten wir bis vo 1,5 Monaten mit einem stark überlasteten Raid zu tun. Da dort alle Dateien für Up- und Download lagen und andere Dienste auch ständig darauf zugriffen kam das Raid nicht mehr hinterher.
Seitdem dort ein steinaltes Raid angeklemmt wurde um die Last auf zwei Raids zu verteilen läuft es wie Schmitt's Katze.
Vielleicht sollten wir auch an zwei Raids denken.
Eines für die Newsseite und eines für das Forum. Die Trennung von beiden Baustellen ist vielleicht keine dumme Idee. Klar, besser wären zwei Server, aber das ist teuer. Deswegen vielleicht 2 Raids im selben Server.

*justmy2cents*

sysfried
30.11.2005, 16:11
Dann mach ich mal den Anfang.
Wir wollen ja hohe Verfügbarkeit.
Raid5 ist zwar toll, aber wenn zwei Platten ausfallen ist auch da Schicht.
Deswegen wäre es anzudenken einen 6-Kanal Controller zu kaufen und 1-2 Platten als Hotspare mitlaufen zu lassen.
Dadurch sollte die Zeit bis ein Betreuer ne neue Platte nachgeschoben hat unkritischer sein.
Dem stimme ich zu.

Für das OS würde ich'n S-ATA Mirror vorschlagen und die DB auf den Raid-5...
4 S-ATA II Ports bringt das Mobo ja schon mit....

Mailwurm
30.11.2005, 16:16
Jop. System auf ein kleines RAID1, so ist sichergestellt, wenn das RAID5 Probleme macht, dass man noch nen lauffähiges System hat, wo man von booten kann.

Allfred
30.11.2005, 16:24
Raid5 ist zwar toll, aber wenn zwei Platten ausfallen ist auch da Schicht. Es wird doch nicht wegen des Raid5 auf ein Backup verzichtet.
Andere Baustelle: Sollten es nicht besser 160GB HDDs werden - ich meine wegen der Grundschnelligkeit. Im Raid waren die Hitachis immer hart im nehmen: die T7K250 ist auch SATAII fähig, es muß lediglich aktiviert werden. Aufpreis pro Stk: 20€ ;)

[MTB]JackTheRipper
30.11.2005, 16:38
Stimmt... Im Raidbetrieb hatte ich mit IBM/Hitachis noch nie Performanceprobleme, und schneller sind die großen Platter ja auch.

tomturbo
30.11.2005, 16:52
Hi,

als langjähriger DB Admin und Performance Consultant mit leidvoller Kundenerfahrung
kann ich Euch nur wärmstens von RAID 5 abraten. Ich weiß RAID 5 klingt verlockend
weil man nicht 50% der Kapazität verliert. Das ist jedoch in Tagen der 500GB Boliden
kein Argument mehr. Vielmehr zählt doch das warum Ihr Euch einen neuen Server anschafft:

PERFORMANCE

Und RAID 5 hat einen schwerstwiegenden Nachteil: Die Schreibperformance ist absolut mies.

Die Leseperformance ist auch nicht außerordentlich besser als bei RAID 0.

Wie ein werter Vorredner schon sagte darf bei Eurem RAID 5 nur eine Platte ausfallen ohne
dass Ihr die Daten komplett verliert.
Nachdem Ihr Euch auf 4 Festplatten festgelegt habt empfehle ich ein RAID 1+0 das gibt Performance
UND Sicherheit. Da können immerhin 2 Platten (wenn auch aus den verschiedenen RAID 1) aufallen.

gutes Gelingen
Thomas

Neo3d
30.11.2005, 16:53
mmmh. Also wenn ich in einen Server zusammenstelle greife ich inzwischen auch zu S-ATa. Aber bei einem Datenbankserver sollte man dann schon zu 10000er Platte Greifen, da die zugriffzeit da immer wichtiger wird.
Das OS auf 2 normale 80ger mit Raid 1 (eventuell noch ne Hotspare)
Für die Datenbank würde ich dann zu WD ins 10000er Regal greifen. Raid 5 mit 3 Platten und ne 4. als Hotspare. So können zwei gleichzeitig ausfallen.
Wie Groß ist denn die Datenbank ungefähr?

Manitou
30.11.2005, 16:57
Hi,
ich geb da auch mal meinen Senf dazu: Anstatt der Samsung-Platten würde ich besser von Western Digital welche aus der RAID-Edition nehmen. Soweit ich weiß, gibt ja Samsung "nur" 3 Jahre Garantie, WD bei der RAID-Edition aber 5 Jahre. Und wenn man dem Hersteller trauen kann, sind diese Platten doch ein wenig mehr auf Dauerbetrieb ausgelegt. Da kann man ja zum Beispiel auch vier Platten nehmen (á 160 GB oder 120 GB falls lieferbar), drei davon ins RAID 5, eine als Hotspare (somit auch mind. 240 GB Nettokapazität).
So hab ich das zumindest hier auf der Arbeit gelöst (zwar mit 'nem anderen Controller - LSI Logic MegaRAID SATA 300-8X) und es läuft bisher ohne Probleme.

Manitou

OBrian
30.11.2005, 17:08
...Sollten es nicht besser 160GB HDDs werden - ich meine wegen der Grundschnelligkeit. ... Die vorgeschlagenen 7200er Samsungs passen jedenfalls imho irgendwie überhaupt nicht zu einem stark geforderten DB-Server.
Ich könnte mir jedenfalls vorstellen, daß sich z.B. WD Raptors mit ihren 10k rpm deutlich bemerkbar machen. Nebenbei sind die Dinger haltbarer und haben noch 5 Jahre Garantie.

Würde natürlich das Raid-5 um ein paar hundert Euro teurer machen. Aber wenn genug Spenden, ähm "Sponsorengelder" *hüstel* eingehen und man woanders im Budget noch Einsparungen machen kann, wär das sicher noch der beste Einsatz für das Geld.

i_hasser
30.11.2005, 17:16
Also in Punkto Kosten-Nutzen ist Raid 10 definitiv überlegen, HDDs bekommt man heute billig hinterhergeworfen. Allerdings würd ich eher auf etwas billigere HDDs setzen und dafür die Anzahl nach oben nehmen.

Raid 5 macht im professionellen Einsatz Sinn, weil es einfach HDDs spart. Allerdings sind gute Raid 5 Controller nicht billig, um nicht zu sagen schweineteuer.

Ich würde sogar soweit gehen und überlegen, das Raid0 rauszuwerfen, also die Raid1 einfach aneinander zu hängen. Raid0 ist für Streaming ausgelegt, und eben das sind Datenbankzugriffe ganz und garnicht.
Raid1 dagegen bietet bei Lesezugriffen leicht bessere Zugriffszeiten als einzelne HDDs, und genau darauf kommt es bei Datenbanken an. Dazu noch einen ordentlichen Hardware Controller (nicht so'n Pseudo-Zeugs wie die Onboard Teile).

SirGalahad5
30.11.2005, 17:21
Wenn ihr wirklich die Samsung SATA HDDs verwenden wollt, kann ich euch nur empfehlen, gleich einen kompletten zweiten Satz HDDs zum Tausch vorzuhalten: Consumer HDDs fallen unter diesen Einsatzbedingungen garantiert aus... eher früher als später.

Wenn es wirklich SATA sein muss, dann Platten aus der Raptor Serie von WD.
Der Appell, gleich SCSI HDDs zu nutzen (nicht weil das Interface besser ist sondern weil es für SCSI vernünftige HDDs für diesen Einsatzbereich gibt.) ist vermutlich aufgrund der Preisgrenze sinnlos, aber bitte denkt dran: HDDs sind Verbrauchsmaterial. Ich vermute mal, ihr plant bei dem Lebenszyklus für den Server im üblichen Zeitraum vom 3-5 Jahren... für einen solchen Planungszeitraum kann ich euch wirklich nur von Consumer Platten abraten.

zum Thema RAID:

RAID 5 ist generell nicht so wahnsinnig schlecht für den Einsatzbereich Datenbanken... es ist zwar ein Kompromiss, aber meist ein tragbarer... ich selbst hatte nur ein einziges Mal ein richtiges Performanceproblem mit einem RAID 5 und das war die große Datenbank eines Geoinformationssystems mit Kartenmaterial.

Etwas unschön, aber nicht zwingend kritisch ist, das sich Betriebsystem/Webserver und Datenbank zusammen auf einem Array befinden. Wenn mehr Geld als momentan geplant zusammenkommen sollte, würde ich hier eine Trennung in OS (2xHDD RAID 1) und Daten (4x HDD RAID 5 + (wenn möglich global) Hotspare) empfehlen. Dazu braucht ihr natürlich einen größeren Controller und mehr Festplatten.

BUGGI1000
30.11.2005, 17:35
Für die Hauptanwendung Database würde ich ebenfalls mind. 10K Festplatten vorschlagen.
Entweder die 74G Raptor oder je nach Platzbedarf 36G verwenden.

Für mich wäre es sogar 'ne Überlegung wert, anstatt SATA oder ATA, gleich auf SCSI
samt 15K Platten zu gehen und dabei am Space zu sparen. Ich "fürchte", Ihr benötigt
den Platz eh nicht. Also 0+1 und dann 4 Platten mit 15K und 36GB.

Z.B. bietet sich doch dies an:

http://www.geizhals.at/deutschland/a130760.html
http://www.geizhals.at/deutschland/a134318.html

-> sehr gut noch bezahlbar

oder wenn es unbedingt mehr Platz sein muss, dann dies hier:

http://www.geizhals.at/deutschland/a134321.html
http://www.geizhals.at/deutschland/a63288.html

BUGGI

cruger
30.11.2005, 17:54
erstmal müßte man wissen, wieviel kapazität überhaupt benötigt wird.

bei geringen kapazitäten würde ich schon eher in richtung sas gehen, von "herkömmlichen" platten würde ich zumindest im falle von samsung oder maxtor abstand nehmen. deren zuverlässigkeit ist imho nicht sehr überzeugend.

im low-cost bereich sind sicher die raid edition/2 modelle von western digital interessant, sind im gegensatz zu den raptoren sowohl von der performance UND von der technischen seite (z.b. ncq bei der wd4000yr) auf dem stand der zeit, haben eine hohe mtbf-angabe und 5 jahre garantie. oder alternativ hitachis t7k250 oder t7k500.

aber wie gesagt, je nach platzbedarf und budget würde ich mir mal sas-lösungen anschauen.


Entweder die 74G Raptor oder je nach Platzbedarf 36G verwenden.

also die kleine raptor war schon bei markteinführung eine echte entäuschung. heute kannst du das ding auch gleich in die tonne kloppen ;)

Kane02
30.11.2005, 17:56
Gibts von WD nicht diese tollen Server-Platten die extrem lange halten sollen? Gut, Hitachi HDDs sind auch sehr beliebt im Serverbereich. Samsung is IMO eher für Homeuser gedacht.

SirGalahad5
30.11.2005, 18:05
aber wie gesagt, je nach platzbedarf und budget würde ich mir mal sas-lösungen anschauen.

Jo, das wäre auch eine Möglichkeit... aber vermutlich preislich nicht machbar. Major Brand SAS Platten sind preislich mindestens on par mit SCSI Platten.

halllo_fireball
30.11.2005, 18:05
Ich würde die WD Raptor empfehlen - die verrichten bei mir seit über einem Jahr klaglos ihren Dienst in nem Raid 0 (2x 36 GB). Eventuell würde ich aber zur 74er Version greifen, sind von der Performance nochmal ein Stückchen schneller. Aber es hängt natürlich primär vom Budget und dem benötigten Platz ab...

Jan :-)

cruger
30.11.2005, 18:06
@ Allfred

thx für den hinweis ;)

also für nen server würde ich definitiv keine samsung-platten nehmen.

bei 4x80gb würde mir spontan hitachis sata2 7k80 einfallen. die ist verteufelt schnell und hat im gegensatz zu samsung auch eine ordentliche ncq-implementierung. und auch wenn ich momentan gerne in richtung wd schiele, so hab ich im server-einsatz deutlich mehr zutrauen zu hitachi, wd oder seagate als zu maxtor oder samsung.

der 3ware controller sieht auf jeden fall für diese zwecke sehr interessant aus ;)

cruger
30.11.2005, 18:12
Und RAID 5 hat einen schwerstwiegenden Nachteil: Die Schreibperformance ist absolut mies.

das problem hast du aber vor allem aber bei budget-ide/sata-lösungen. vernünftige scsi/sas-controller bringen durchaus "normale" schreibraten. allerdings ist das auch nicht ganz umsonst.


Auszug c't Ausgabe 01/2003

Erst bei RAID 5 lassen die teureren Adapter mit eigenem Prozessor leichte Vorteile gegenüber einer reinen Software-Lösung erkennen. Doch unter dem Strich sind sie immer noch sehr langsam und erreichen gerade mal die Performance einer einzelnen Notebook-Festplatte. Dafür nutzt RAID 5 die Kapazität besser aus: Beispielsweise steht bei vier Platten die Kapazität dreier für Nutzdaten zur Verfügung. Dass RAID 5 nicht grundsätzlich langsam sein muss, zeigt schließlich unser Seitenblick auf eine professionelle SCSI-Lösung. Wenn man sowohl für den RAID-Controller als auch für die Festplatten das Dreifache ausgibt, erhält man auch tatsächlich die dreifache Leistung.

tomturbo
30.11.2005, 18:31
das problem hast du aber vor allem aber bei budget-ide/sata-lösungen. vernünftige scsi/sas-controller bringen durchaus "normale" schreibraten. allerdings ist das auch nicht ganz umsonst.

Naja, ich hatte mal mit Banken zu tun, wo über eine von mir projektierte und gewartete Datenbank mit online-banking mehere Mio. Transaktionen pro Tag liefen. In Spitzenzeiten ca. 1000 Transaktionen/sek!
Wir hatten damals dort 40 RAID1 Set's in Betrieb, damit die Performance erreichbar war.
MitRAID 5 war das absolut nicht machbar.

Glaube mir bitte: Finger weg von RAID 5, ausgenommen als Datenfriedhof im Nurlese-Betrieb oder als Backupdevice.

Bei Datenbanken mit vielen Transaktionen gilt immer: Spindeln sind durch nichts zu ersetzen.

Wie gesagt Festplattengröße ist ja nicht wirklich mehr ein Problem.
160GB SATA Platten sind billig aber nicht unbedingt megaperformant.
Die 10K Raptor Platten von WD sind preislich noch vertretbar und recht performant.
Die Krone hat immer noch SCSI, jedoch leider auch im Preis, ich weiss.

Deshalb mein Rat RAID 1+0 evt. mit Spare-Platten.

lg
tom

PS: Bei RAID0 und Datenbanken jedoch nicht vergessen die stripe-size klein genug zu definieren, da sonst immerwieder viele bytes 'umsonst' über den Bus rauschen, weil mindestens eine stripe size übertragen wird, auch wenn der Datensatz nur 3 bytes hat..... (Das mit dem Streaming hat schon ein Vorredner gesagt)

i_hasser
30.11.2005, 19:05
So schlecht ist Raid 5 net, es ist nur teuer.

Allfred
30.11.2005, 19:10
Ich bin kein Profi, aber gestattet mir einen Einwurf:

P3D ist mit 240GB gut versorgt. Aber muss bis aufs letzte Bit alles mit maximaler Geschwindigkeit erreichbar sein?... die ganzen 240GB? Ich glaube doch eher nein. Wer einen Thread von vor über einem Jahr sucht - dem ist es egal, ab die Suche 5 Sekunden länger braucht. Wie wäre es, wenn versucht würde das "frische" Ende des Forums und die Newseite in einer Ramdisk abzufangen. Speicherplatz bietet das Mobo mit seinen 8 Speicherslots doch genug (vier sogar noch frei). Dann braucht das Raid noch nicht einmal schnell zu werden - dann reicht u.U. eine einzige fette SCSI HDD, und die verpennt auch noch 23 Stunden des Tages. Wir müssen es doch nicht so wie die anderen machen ;) ist doch unser Planet!

Mailwurm
30.11.2005, 19:15
Wenn ich mich nicht irre wird ein gewisser Teil der DB doch eh im RAM gecacht.

Ramdisk ist da erstens nicht notwendig und zweitens unsicher. Stürzt der Rechner ab, ist die komplette DB weg.

gast0972
30.11.2005, 19:19
Ohne großes Trara:

http://www.seagate.com/cda/products/discsales/marketing/detail/1,1081,701,00.html

Sie ist für den PROFESSIONELLEN Einsatz prädestiniert. Außerdem sind die Seagate-Platten meiner Erfahrung nach die Besten @ Sicherheit.

Jetzt aber mit Werbe-Argumenten zu texten, schenke ich mir, dafür bekomme ich von Seagate leider keinen Cent... ;D

ghostadmin
30.11.2005, 19:21
kein IDE und kein S-ATA, vernünftige SCSI Platten. Sind leider nicht ganz billig aber nur die sind wirklich dauerlauf geeignet. Und grundsätzlich sehr gute Kühlung

z.B. sowas:
Fujitsu Allegro 9 73.5GB U320-LVD ab 170€ im Handel

aber am besten gleich mit SCA Schnittstelle und Hot Swap Einbaurahmen

RAID müsste man wissen was gefordert ist, was der limitierende Faktor bei dem System ist? So schlecht ist RAID5 nicht. Bei hoher Performance sollte man RAID10 nehmen, das stimmt schon. Wir haben bei uns aber auch ein SAN laufen mit 6 x RAID5 + 1 HotSpare für Userfreigaben.

Gerade bei S-ATA ist Hotspare anzuraten

Controller z.B.
Adaptec SCSI Card 29320A-R bulk ab 180€

Gewerblich bekommt man das ganze noch günstiger also ich würde mir das mit SCSI überlegen! Im Rackmounted Serverbereich gibts eigentlich nur SCSI wenn man was robustes will. Diese Platten sind alleine von den Lagern schon ganz anders dimensioniert.

Zidane
30.11.2005, 19:29
Hi..

Ich wurde ein Board nehmen, was schon einen Raid-Controller hat, würde hier schon mal generell ein Intel-Chipsatz bevorzugen z.b I-955, der bietet wenn ich micht nicht täusche 4 oder 6 SATA-II Ports, aber vielleicht reichen auch schon 4 Platten mit je 250GB und dann 2 Arrays anzulegen mit jeweils Raid-1 !

Als Festplatten die Hitachis z.b, sind ja zudem auch günstig zu haben. Ich denke damit hat man eine relativ hohe Datensicherheit.

Optional dazu ein Reserve Board bei Seite legen, falls eines abraucht.

Eine sep. Karte bringt meiner Meinung nach nichts, da es kaum kostengünstige sinnvolle Lösungen für PCI-E x4/1 gibt. Und den PCI-Bus kann man eh dafür vergessen.

Und richtige Controller mit Raid, Xor Chip,. Speicher sowohl SATA/SCSI dürften so an die 500-1000 Euro für den PCI-E liegen.

Und eine IDE-Platte ist mal schnell besorgt und getauscht bei einem Ausfall, bei den SCSI-Kram könnte es Probleme geben.

gast0972
30.11.2005, 19:31
SCSI ist ja wunderbar..., aber vergeßt nicht das Planet3Dnow.de letztendlich eher etwas "Privates" ist..., kein "gewerbliches" Unternehmen, bei dem es um zig Millionen täglich geht.

Kosten/Nutzen Faktor muß stimmen. Das greift, meiner Meinung nach, in diesem Fall nicht bei SCSI-Systemen, lieber ghostadmin.

BUGGI1000
30.11.2005, 19:35
@ShiningDragon - Kosten
Warum soll hier SCSI nicht greifen?

Sieh Dir doch mal die Preise an, die ich vorhin gepostet habe.

Für 36GB 15K SCSI Platten zahlt man ca. 170€. Bei 4 Stück sind das ca. 700€.
Wenn Du große SATA nimmst - dann liegst Du auch bei mind. 80x4 = 320€. Die 400€ mehr
sind imho sehr sehr gut angelegt.

BUGGI

ghostadmin
30.11.2005, 19:41
SCSI ist ja wunderbar..., aber vergeßt nicht das Planet3Dnow.de letztendlich eher etwas "Privates" ist..., kein "gewerbliches" Unternehmen, bei dem es um zig Millionen täglich geht.

Kosten/Nutzen Faktor muß stimmen. Das greift, meiner Meinung nach, in diesem Fall nicht bei SCSI-Systemen, lieber ghostadmin.

ich weiß nicht was du an Erfahrung hast aber ich habe selbst schon an die 100 Server installiert und zwar richtige Serverhardware und ich weiß genau was da hardwaremäßig anfällig ist. Das sind vor allem Festplatten und Netzteile. Und was bringt mir das bißchen Kosteneinsparung wenn jedes Jahr eine Platte ausfällt, rechne mal aus was das für Zeitaufwand ist und die Kosten die durch Nutzungsausfall entstehen. Schließlich wird hier von hochverfügbar gesprochen.

Wenn es "nur" eine 10K Scsi Platte ist, da bekommt man sogar doppelte Kapazität für den selben Preis wie eine 15K Platte. Ausserdem kann man gut die Hälfte beim SCSI Controller sparen gegenüber den 3ware S-ATA mit über 300€, daraus ergibt sich ein Mehrpreis von SCSI gegenüber SATA von ca. 300€, das ist auch nicht die Welt

i_hasser
30.11.2005, 19:44
Ich würd gleich eine AS/400 hinstellen, bei Datenbanken putzt die jeden PC weg :].

Allfred
30.11.2005, 19:48
Ich würd gleich eine AS/400 hinstellen, bei Datenbanken putzt die jeden PC weg :]. Was kostet sowas?

Zidane
30.11.2005, 19:49
Ich würd gleich eine AS/400 hinstellen, bei Datenbanken putzt die jeden PC weg :].

Fragt sich nur ob sich jemand damit auskennt, stabil mag es sein, bei unserer Firma wird das eingesetzt, aber ob das für dieses vorhaben das richtige ist, wer weiß.

@ghostadmin,

Alternativ würden es auch die WD-Raptor tun, die den SCSI-Drives sehr nahe kommt, aber mit 74GB wohl einfach zu klein ist *g*

i_hasser
30.11.2005, 19:53
Was kostet sowas?

Einen Kleinwagen kannst du schon rechnen.

ghostadmin
30.11.2005, 19:53
AS/400 ist nicht schlecht, unser gesamtes Warenwirtschaftssystem läuft darauf. Die Anlage steht mittlerweile direkt bei IBM. Allerdings ist das System mittlerweile überholt (nicht unseres sondern AS400 selbst) und IBM ist generell sehr teuer

und wie lässt man auf einem Mainframe ein Forum laufen? (jetzt nicht nur die Datenbank selbst)

i_hasser
30.11.2005, 20:01
Du setzt einfach einen Webserver drauf? OS/400 (nein, kein Unix) lässt sowas durchaus zu ;).

Das war aber alles andere als ernst gemeint, sondern sollte eigentlich nur ein Seitenhieb auf die teuren SCSI HDDs sein :].

ghostadmin
30.11.2005, 20:08
@ghostadmin,

Alternativ würden es auch die WD-Raptor tun, die den SCSI-Drives sehr nahe kommt, aber mit 74GB wohl einfach zu klein ist *g*

Die Raptor könnte in der Tat eine gute Alternative sein (kann aber mit SCSI 10K Platten geschwindigkeitsmäßig nicht mithalten und ist auch nicht gerade billig)

http://www.tecchannel.de/storage/server/402101/

Laut Hersteller ist die Mechanik der Raptor - wie Lager und Aktuator - speziell für den Dauerbetrieb konzipiert. Üblicherweise sind nur teure SCSI-Festplatten für den Nonstop-Einsatz ausgelegt, ATA-Laufwerke können die Dauerbelastung mit erhöhten Ausfallraten quittieren. Dieser Thematik haben wir auch den Report Gefahr: IDE-Festplatten im Dauereinsatz gewidmet. Die hohe Zuverlässigkeit der Raptor will Western Digital mit einer MTBF von 1,2 Millionen Stunden garantieren - dies entspricht dem Wert von SCSI-Festplatten. Die Garantie beträgt ebenfalls den SCSI-Drives angeglichene fünf Jahre.

auch interessant
http://www.tecchannel.de/storage/grundlagen/401914/

"IDE im Stress: Ein sehr hoher Anteil unserer Leser lässt IDE-Festplatten im 24-Stunden-Betrieb arbeiten. Zwölf Prozent erlitten dabei schon Ausfälle."

"Die Deskstar 120GXP ist also für einen Betrieb von 333 Stunden pro Monat spezifiziert. Umgerechnet sind das elf Stunden Laufzeit pro Tag."

"Der Hersteller legte mit der 333-Stunden-Angabe erstmals offen, was der Rest der Plattenindustrie gern verschweigt: IDE-Festplatten sind im Allgemeinen nicht für den Dauerbetrieb ausgelegt."

"Western Digital erklärte gegenüber tecCHANNEL, dass die Zuverlässigkeitsangaben ihrer IDE-Festplatten auf einer Laufzeit von 60 Stunden pro Woche basieren. Das entspricht im Monat nur 240 Stunden und liegt somit noch unter IBMs POH-Angabe von 333 Stunden. IDE-Festplatten von Seagate werden im typischen Betrieb noch weniger genutzt. Zumindest nimmt der Hersteller dies bei der Auslegung seiner Festplatten an: acht Stunden pro Tag und fünf Mal die Woche. Daraus resultiert eine durchschnittliche Laufzeit von 173 Stunden pro Monat."

Interessant was Maxtor sagt:

"Denn laut Thomas Astheimer, Manager Customer Engineering bei Maxtor, weisen deren IDE- und SCSI-Festplatten keine qualitativen Unterschiede auf. Beide Laufwerksgattungen seien für den Dauerbetrieb ausgelegt. Ein Blick in die Datenblätter von Maxtors IDE- und SCSI-Festplatten lässt allerdings doch ein paar Unterschiede erkennen. Während das aktuelle SCSI-Drive Atlas 10K IV eine Ausfallrate von kleiner 0,7 Prozent verspricht, müssen IDE-Drives mit kleiner 1,0 Prozent auskommen."

Screemer
30.11.2005, 20:11
Einen Kleinwagen kannst du schon rechnen.
endlich kann ich auch was post auch wenn ich mich net mit server hardware auskenne :D

Der Preis für ein i595 System mit 32GB Ram, 4 Prozessoren und 140GB Platte ist 2005 165000$ Listenpreis. also bischen mehr als ein kleinwagen. gibt natürlich kleinere modelle aber wer will denn bei sowas sparen ;)

Zidane
30.11.2005, 20:14
Hihi,

die heutigen Hitachis halten aber wesentlich mehr aus, und haben mit den alten IBM wenig zu tun, aber ist sage SCSI wird hier nicht gebraucht, bzw. sag ich mal sollte sich ein günstige Karte erwerben und mit einem DLT-Streamer Bandstreamer die wichtigsten Daten immer sichern, da eine Festplatte immer ausfallen kann. Als zusätzliche Sicherheit.

Und ob man eine 10K-15K SCSI-Platte braucht bzw. ich mal, ............ es sind immerhin nur 2700 Euro verfügbar, vernüftige SCSI-Karte und Platten dürfen locker über 1000 Euro kosten, .......



Die Raptor könnte in der Tat eine gute Alternative sein (kann aber mit SCSI 10K Platten geschwindigkeitsmäßig nicht mithalten und ist auch nicht gerade billig)

http://www.tecchannel.de/storage/server/402101/

Laut Hersteller ist die Mechanik der Raptor - wie Lager und Aktuator - speziell für den Dauerbetrieb konzipiert. Üblicherweise sind nur teure SCSI-Festplatten für den Nonstop-Einsatz ausgelegt, ATA-Laufwerke können die Dauerbelastung mit erhöhten Ausfallraten quittieren. Dieser Thematik haben wir auch den Report Gefahr: IDE-Festplatten im Dauereinsatz gewidmet. Die hohe Zuverlässigkeit der Raptor will Western Digital mit einer MTBF von 1,2 Millionen Stunden garantieren - dies entspricht dem Wert von SCSI-Festplatten. Die Garantie beträgt ebenfalls den SCSI-Drives angeglichene fünf Jahre.

auch interessant
http://www.tecchannel.de/storage/grundlagen/401914/

"IDE im Stress: Ein sehr hoher Anteil unserer Leser lässt IDE-Festplatten im 24-Stunden-Betrieb arbeiten. Zwölf Prozent erlitten dabei schon Ausfälle."

"Die Deskstar 120GXP ist also für einen Betrieb von 333 Stunden pro Monat spezifiziert. Umgerechnet sind das elf Stunden Laufzeit pro Tag."

"Der Hersteller legte mit der 333-Stunden-Angabe erstmals offen, was der Rest der Plattenindustrie gern verschweigt: IDE-Festplatten sind im Allgemeinen nicht für den Dauerbetrieb ausgelegt."

"Western Digital erklärte gegenüber tecCHANNEL, dass die Zuverlässigkeitsangaben ihrer IDE-Festplatten auf einer Laufzeit von 60 Stunden pro Woche basieren. Das entspricht im Monat nur 240 Stunden und liegt somit noch unter IBMs POH-Angabe von 333 Stunden. IDE-Festplatten von Seagate werden im typischen Betrieb noch weniger genutzt. Zumindest nimmt der Hersteller dies bei der Auslegung seiner Festplatten an: acht Stunden pro Tag und fünf Mal die Woche. Daraus resultiert eine durchschnittliche Laufzeit von 173 Stunden pro Monat."

Interessant was Maxtor sagt:

"Denn laut Thomas Astheimer, Manager Customer Engineering bei Maxtor, weisen deren IDE- und SCSI-Festplatten keine qualitativen Unterschiede auf. Beide Laufwerksgattungen seien für den Dauerbetrieb ausgelegt. Ein Blick in die Datenblätter von Maxtors IDE- und SCSI-Festplatten lässt allerdings doch ein paar Unterschiede erkennen. Während das aktuelle SCSI-Drive Atlas 10K IV eine Ausfallrate von kleiner 0,7 Prozent verspricht, müssen IDE-Drives mit kleiner 1,0 Prozent auskommen."

Allfred
30.11.2005, 20:16
Ich glaube, wir sind im Augenblick für Nero24 keine große Hilfe. Wir suchen ein Zuhause für das Forum: 240GB sind ausreichen. Wie können wir das kostengünstig langfristig zügig halten?

Zidane
30.11.2005, 20:19
Ich glaube, wir sind im Augenblick für Nero24 keine große Hilfe. Wir suchen ein Zuhause für das Forum: 240GB sind ausreichen. Wie können wir das kostengünstig langfristig zügig halten?

Dann wäre man doch mit SATA-II Platten mit 250GB z.b Hitachi doch richtig, davon 2 oder 4 Stück im Raid-1 und gut. Da kann SCSI nicht mithalten, *g* Eine Platte kostet etwas mehr als 100 Euro, sagen wir mal 450 Euro.

ghostadmin
30.11.2005, 20:23
vernüftige SCSI-Karte und Platten dürfen locker über 1000 Euro kosten, .......

nein
und Kosten != Aufpreis

4 x 80GB 7.2K S-ATA a 60€ ?
1 x 3Ware 9550 330€
--------------------------------
570€

4 x 73GB 10K a 170€
1 x Adaptec SCSI Card 29320A-R bulk, PCI-X 133MHz 180€
-------------------------------------
860€

= 290€ Aufpreis !!

Zugriffszeit, keine Chance

http://www.tecchannel.de/imgserver/bdb/337300/337348/5FD227D5927CEF3EE7737B13D0BFB3B0_1000x700.jpg

gast0972
30.11.2005, 20:23
Ich schrieb's doch oben, eine schöne Seagate Barracuda 9 S-ATA Platte der NL35 Generation und gut ist. Perfekter Kompromiss zwischen S-ATA und SCSI-Zuverlässigkeit. Das sind KEINE Desktop HDD's !!!

Zidane
30.11.2005, 20:30
Und 450 für Platten, ist aber immernoch billiger *g* - Controller verwendet man On-Board z.b einer Intel I-955er Platine, z.b Abit AW-8...... ob es hierfür unbedingt ein Server-Board sein muß, bzw. ich einmal.

Haben die besagten Controller, Xor Chip, und z.b 128M Cache drauf, meine mal gesehen zu haben das diese Karten mehr kosten, ist aber auch ne weile her das ich danach geguckt habe, den die verfügbare Bandbreite eines PCI-X mit 266MB/Sec kann von einem Intel I-955 per Chipsatz um glaub das 10 fache überschritten werden, meine das diese SB mit 2GB angebunden ist.

cruger
30.11.2005, 20:33
Wenn Du große SATA nimmst - dann liegst Du auch bei mind. 80x4 = 320€.

also 4x hitachi sata2 7k80 liegen eher so bei ~ 200 euro. ;)

bestes beispiel ist da übrigens google. dort setzt man seit jahren ausschließlich und erfolgreich auf "billig"-hardware. da gab es mal einen schönen bericht in der c't, wonach google z.b. nur auf günstige ide-platten statt teure scsi-hardware setzt. offenbar rechnet sich das ganz gut.


Laut Hersteller ist die Mechanik der Raptor - wie Lager und Aktuator - speziell für den Dauerbetrieb konzipiert. Üblicherweise sind nur teure SCSI-Festplatten für den Nonstop-Einsatz ausgelegt, ATA-Laufwerke können die Dauerbelastung mit erhöhten Ausfallraten quittieren. Dieser Thematik haben wir auch den Report Gefahr: IDE-Festplatten im Dauereinsatz gewidmet. Die hohe Zuverlässigkeit der Raptor will Western Digital mit einer MTBF von 1,2 Millionen Stunden garantieren - dies entspricht dem Wert von SCSI-Festplatten. Die Garantie beträgt ebenfalls den SCSI-Drives angeglichene fünf Jahre.
zuverlässig, sollte man eigentlich meinen.

aber mit 16 defekten von 282 gelisteten wd740gd und 22 defekten bei 356 gelisteten wd360gd modellen (dead on arrival nicht mitgezählt) ist die zuverlässigkeit der raptor in der storagereview datenbank auch nicht besser als gute desktop-festplatten.

klar ist das nur eine kleine stichprobe, da aber der absatz an desktop-festplatten um ein vielfaches höher ausfällt als bei der raptor, spricht das nicht gegen die zuverlässigkeit der raptor, wohl aber für die zuverlässigkeit besserer desktop-festplatten.


"Die Deskstar 120GXP ist also für einen Betrieb von 333 Stunden pro Monat spezifiziert. Umgerechnet sind das elf Stunden Laufzeit pro Tag."

"Der Hersteller legte mit der 333-Stunden-Angabe erstmals offen, was der Rest der Plattenindustrie gern verschweigt: IDE-Festplatten sind im Allgemeinen nicht für den Dauerbetrieb ausgelegt."

daß der schwachsinn immer noch umher geistert :]


Auszug c't Ausgabe 01/2003

IBMs Schuss ins Knie

Für die Firma IBM ging die Offenlegung ihrer Berechnungsgrundlagen Anfang 2002 ziemlich nach hinten los. In den Datenblättern zur Deskstar-120GXP-Familie stand im Abschnitt Zuverlässigkeit zu lesen: `Recommended power-on hours (monthly): 333'. Darüber erhitzten sich die Gemüter in den Diskussionsforen dieser Welt: IBM-Platten sind nicht für den Dauerbetrieb geeignet und gehen kaputt, wenn man sie mehr als elf Stunden am Tag laufen lässt, so die voreilige Schlussfolgerung. IBM beeilte sich daraufhin zu bekräftigen, dass man die Deskstar 120GXP sehr wohl rund um die Uhr laufen lassen könne und die (damals) dreijährige Garantie unabhängig von der Betriebsstundenzahl gelte. Die entsprechende Zeile wurde inzwischen aus den veröffentlichten Datenblättern gestrichen, da sie `zu Missverständnissen geführt hat'. Schade, denn nur so könnte man nachvollziehen, wie die (vorsichtshalber nicht veröffentlichte) MTBF-Angabe von über 800 000 Stunden zustande kommt. IBM rechnet dabei übrigens mit einer Umgebungstemperatur von 40 °C, was für das Innere eines PC-Gehäuses eher die Obergrenze ist. Seagate geht für die MTBF-Berechnung dagegen sehr optimistisch von 25 °C aus und spezifiziert für aktuelle Desktop-Platten 600 000 Stunden.

...

Dennoch: Nach Aussage der Hersteller sind auch Desktop-Platten prinzipiell geeignet für den Dauerbetrieb. Praktische Erfahrungen mit IDE-RAID-Arrays in Rechenzentren bestätigen dies. Nebenbei bemerkt schnurren am zentralen IMAP-Server des Heise-Verlags ausgerechnet sechs DTLA-Platten seit nunmehr drei Jahren im Dauerbetrieb störungsfrei vor sich hin. Die für den Desktop-Einsatz berechnete MTBF muss man bei Dauerbetrieb allerdings vermutlich nach unten korrigieren. Eines steht fest: SCSI-Platten leben auf keinen Fall um so viel länger wie sie teurer sind, und ob eine fünf Jahre alte Festplatte nun noch fünf weitere Jahre durchhält oder zehn, ist in der Praxis nicht sonderlich relevant.

...

Fallbeispiel Google - Klasse durch Masse

Die Internet-Suchmaschine Google speichert zurzeit einen Datenbestand in der Größenordnung von 10 TByte. Dafür kommen IDE-Platten mit 7200 U/min zum Einsatz. SCSI-Platten mit 15 000 U/min wären zwar für diese Anwendung schneller, doch sie rechnen sich nicht, so Google-Fellow Urs Hölzle. Wenn man für das gleiche Geld entsprechend mehr IDE-Platten kauft, kann man unter dem Strich mehr Suchanfragen pro Sekunde beantworten. Google besteht inzwischen aus mehr als 15 000 Rechnern, die auf jeweils einer bis vier Festplatten ein Datenvolumen von insgesamt über einem Petabyte speichern, das sind eine Million Gigabyte.

Wenn bei Google mal eine Festplatte ausfällt, wird der betreffende Rechner einfach abgeschaltet. Da die Daten vielfach auf verschiedenen Maschinen repliziert sind, geht dabei nichts verloren, und die Software kann die Anfragen einfach auf die übrigen Rechner verteilen. Dank der großen Anzahl an PCs ist Google auch nicht darauf angewiesen, defekte Maschinen sofort zu reparieren, sondern kann dies schubweise tun und so die Kosten senken. Die durchschnittlichen jährlichen Reparaturkosten pro Maschine wollte Hölzle nicht beziffern, sie seien jedoch `sehr gering'.

cruger
30.11.2005, 20:36
Ich schrieb's doch oben, eine schöne Seagate Barracuda 9 S-ATA Platte der NL35 Generation und gut ist. Perfekter Kompromiss zwischen S-ATA und SCSI-Zuverlässigkeit. Das sind KEINE Desktop HDD's !!!

nichts gegen seagate, aber deren mainstream sata-platten würde ich in einem server nicht unbedingt haben wollen, vergleichsweise mäßige zugriffszeiten, hohe leistungsaufnahme (wenn das überhaupt ne rolle spielt) und eine schlechte ncq-implementierung. da gibt es bei wd oder hitachi deutlich attraktivere alternativen.

Allfred
30.11.2005, 20:43
Bevor wir um das Fabrikat der HDD streiten - sollte das Konzept stehen: Schrittchen für Schrittchen und nicht das Pferd von hinten aufzäumen.
Ist Neros Plan 4xSATA an einem PCI-X Raid5 Controller okay - oder gibt es besseres im Preis/Leistungsverhältnis?

klassisch SCSI kostet keine 300€ mehr.
onboard wären so wie ich das sehe 4 x SATA
ob noch IDE sehe ich nicht so genau...

Zidane
30.11.2005, 20:45
nichts gegen seagate, aber deren mainstream sata-platten würde ich in einem server nicht unbedingt haben wollen, vergleichsweise mäßige zugriffszeiten, hohe leistungsaufnahme (wenn das überhaupt ne rolle spielt) und eine schlechte ncq-implementierung. da gibt es bei wd oder hitachi deutlich attraktivere alternativen.

Da stimme ich dir zu, und Samsung ebenfalls nicht, da ja hier wohl die Spindelmotoren nicht lang halten, nachdem Samsung von Nidec nach JVC gewechselt hat. Und Maxtor gabs ja hier so einen schönen Thread, weiß allerdings nicht ob es noch bestand hat. Aber die WD Std-Reihe kann ich nicht sagen, und was bleibt über Hitachi, habe selber ne menge hier im Einsatz und verbaut, und ich kann sagen das man diese mit alten Problemplatten von IBM nicht gleichsetzten kann, wer das tut hat k.a

Und bei 4 Platten im Kafig reicht eine einfache Kühlung von jeweils 80er Lüftern völlig aus, ich würde mal behaupten das das bei SCSI nicht möglich ist, und ohne Kühlung am Sonntag zu Mittag meine Spiegeleier drauf braten könnte. *g*

cruger
30.11.2005, 20:46
Bevor wir um das Fabrikat der HDD streiten - sollte das Konzept stehen: Schrittchen für Schrittchen und nicht das Pferd von hinten aufzäumen.
Ist Neros Plan 4xSATA an einem PCI-X Raid5 Controller okay - oder gibt es besseres im Preis/Leistungsverhältnis?

beim controller ist die frage, ob man da nicht besser gleich (auch beim mainboard) auf pci-express setzt.

und auf raid-5 würde ich aus performance-gründen bei herkömmlichen sata-platten, wie schon von tomturbo erwähnt, besser verzichten.

ghostadmin
30.11.2005, 20:46
diskutiert was ihr wollt, ich habe meinen Teil dazu beigetragen aber was man sich hier immer an den Kopf werfen lassen muss von Leuten ohne praxiserfahrung ist wirklich unglaublich *kopfschüttel*

Zidane
30.11.2005, 20:51
diskutiert was ihr wollt, ich habe meinen Teil dazu beigetragen aber was man sich hier immer an den Kopf werfen lassen muss von Leuten ohne praxiserfahrung ist wirklich unglaublich *kopfschüttel*

Wozu unnötig Geld in Hardware ausgeben die nicht notwenig ist, ........

@cruger, ist wohl vielmehr das Problem einen vernüftigen Controller (Hardware) zu finden, als SATA-II Platten die damit Probleme haben, die Hitachi war und ist nie ein Problem für Raid gewesen. Aber von einem Software On-Board Controller, darf man keine Leistung erwarten, wenn die CPU noch alles berechnen muß.

cruger
30.11.2005, 20:52
diskutiert was ihr wollt, ich habe meinen Teil dazu beigetragen aber was man sich hier immer an den Kopf werfen lassen muss von Leuten ohne praxiserfahrung ist wirklich unglaublich *kopfschüttel*

hab ich was verpasst ??? *noahnung*


@cruger, ist wohl vielmehr das Problem einen vernüftigen Controller (Hardware) zu finden

3ware hat eigentlich einen guten ruf, wäre sich in der preisklasse auch meine wahl gewesen, haben aber leider derzeit keine pci-e lösungen im produkt-portfolio. ich hab letztens den neuen highpoint gesehen, kann dazu allerdings nicht wirklich was sagen. :]

http://www.highpoint-tech.com/USA/rr2320.htm


aber vor der controller-wahl steht wohl dann zunächst die mainboard-auswahl.

Spontan
30.11.2005, 20:57
Alternativ würden es auch die WD-Raptor tun, die den SCSI-Drives sehr nahe kommt, aber mit 74GB wohl einfach zu klein ist *g*

Was wollt ihr alle mit solch riesigen Platten? Das ist KEIN Filesharing Server ;D

Hier mal meine Frage an Nero: Wie gross ist den z.B. die Datenbank(en) denn momentan?

deaken
30.11.2005, 20:59
3ware hat eigentlich einen guten ruf, wäre sich in der preisklasse auch meine wahl gewesen, haben aber leider derzeit keine pci-e lösungen im produkt-portfolio. ich hab letztens den neuen highpoint gesehen, kann dazu allerdings nicht wirklich was sagen.

PCI-E Raidcontroller gibt es von Acrea
hab einen von ihnen (allerdings PCI-X) erst gerade gekauft unnd bin bis jetzt sehr zufrieden.

mfg deaken

Allfred
30.11.2005, 21:00
http://www.planet3dnow.de/vbulletin/showthread.php?t=245842

@ Spontan: ganz unten: 240GB sollen locker reichen. ;)

cruger
30.11.2005, 21:00
Was wollt ihr alle mit solch riesigen Platten? Das ist KEIN Filesharing Server ;D

Hier mal meine Frage an Nero: Wie gross ist den z.B. die Datenbank(en) denn momentan?


Der 3ware SATA2 Raid-Controller wurde deshalb ausgewählt, da es sich dabei um einen der wenigen echten SATA2-Raid Controller handelt, die nicht einen billigen Chip a la Silicon Image oder Promise aufgelötet haben, wie sie auch bei Onboard-Lösungen zum Einsatz kommen, sondern um einen echten Controller-Prozessor mit eigenem RAM (DDR2). Warum SATA2? Deutlich billiger, als eine vergleichbare SCSI-Lösung. Die gewählten Samsung SATA2-Platten bieten ein gutes Preis-/Leistungsverhältnis und die aus dem Raid 5 resultierende nutzbare Größe von 240 GB genügt für unsere Zwecke locker.

mfg
cruger

BUGGI1000
30.11.2005, 21:00
@Spontan
Das habe ich Pipin auch schon gefragt.
Ich schätze die auf 2-3GB, wenn es sehr hoch kommt 5GB.
Ergo sind 36GB SCSI MEHR!!! als ausreichend, wenn nicht gar Platzverschwendung.

BUGGI

Shinzon
30.11.2005, 21:01
Zugriffszeit, keine Chance

http://www.tecchannel.de/imgserver/bdb/337300/337348/5FD227D5927CEF3EE7737B13D0BFB3B0_1000x700.jpg

In der Grafik sind nur Zugriffszeiten für SATA 150 angegeben. Da die Platten allerdings mit SATA 300 betrieben werden sollen, wären entsprechende Vergleichswerte interessant.

Meiner Meinung nach stellen SATA/SATA II Platten (z.B. Western Digital Raptor) für unseren Einsatzzweck eine sehr interessante Alternative dar. Man sollte allerdings immer die Linuxtauglichkeit der SATA II Kontroller im Auge behalten, damit z.B. SATA II im Betrieb auch wirklich funktioniert.

Tomshardware hat übrigens vor kurzem einen SATA-Raidkontrollertest durchgeführt:
http://www.de.tomshardware.com/storage/20051119/index.html

Vielleicht können die Servergurus unter uns aus dem Testbericht interessante Fakten herauslesen, die uns bei der Entscheidungshilfe unterstützen können.

MfG

Zidane
30.11.2005, 21:02
hab ich was verpasst ??? *noahnung*



3ware hat eigentlich einen guten ruf, wäre sich in der preisklasse auch meine wahl gewesen, haben aber leider derzeit keine pci-e lösungen im produkt-portfolio. ich hab letztens den neuen highpoint gesehen, kann dazu allerdings nicht wirklich was sagen. :]

http://www.highpoint-tech.com/USA/rr2320.htm


aber vor der controller-wahl steht wohl dann zunächst die mainboard-auswahl.

Sieht aber nach einem Soft-Controller ohne Cache aus, ich habe danach selber mal geguckt und wurde fündig, leider kostet der glaub 600-800 Euro da kann man ja gleich Intel I-955 mit ICH-7R nutzen, die kann ebenfalls Raid-5 ( aber dazu beklagten die einige das diese Lösungen einfach lahm sind z.b auf den N-force 4 Brettern, wobei ich zuletzt mal was gelesen hatte, das einer damit wohl recht zufrieden war, falls ich jemals so ein Board kaufe, werde ich es mal mit 3 gleichen Platte testen *g*

Ich wäre noch immer für Raid-1, sofern die Performance dafür reicht ! - wenn nicht muß man wohl 5 oder 10 verwenden.

Spontan
30.11.2005, 21:02
Da das OS wohl ein Linux werden wird sollte man mal ein Auge auf die Controller von "AMCC 3ware" werfen. Ich sag nur nativer Linux Support *buck*

Zidane
30.11.2005, 21:04
Da das OS wohl ein Linux werden wird sollte man mal ein Auge auf die Controller von "AMCC 3ware" werfen. Ich sag nur nativer Linux Support *buck*

Das ist die Kehrseite, da kann man mangels Unterstützung von gewisser Hardware, On-Boards Raids und gewissen Controllern vergessen.

Allfred
30.11.2005, 21:07
da kann man ja gleich Intel I-955 mit ICH-7R nutzen ich glaube die Zuwendung zu AMD HW ist eine politische Entscheidung, keine technische.

cruger
30.11.2005, 21:11
PCI-E Raidcontroller gibt es von Acrea
hab einen von ihnen (allerdings PCI-X) erst gerade gekauft unnd bin bis jetzt sehr zufrieden.

sind afaik oem-tekram-controller.

http://www.tekram.com/product2/product_detail.asp?pid=51

keine ahnung, wie es dort mit linux-support aussieht.

pipin
30.11.2005, 21:12
@Spontan
Das habe ich Pipin auch schon gefragt.
Ich schätze die auf 2-3GB, wenn es sehr hoch kommt 5GB.
Ergo sind 36GB SCSI MEHR!!! als ausreichend, wenn nicht gar Platzverschwendung.

BUGGI

ziemlich gut geraten, es sollten knapp 4 GB sein.

Allerdings sind in Zukunft Erweiterungen geplant, die das Ganze noch ein wenig aufblaehen werden.

cruger
30.11.2005, 21:15
ich glaube die Zuwendung zu AMD HW ist eine politische Entscheidung, keine technische.

tekram setzt bei seinen raid-controllern auf intel-prozessoren. das geht dann ja auch nicht ;)

Allfred
30.11.2005, 21:21
ziemlich gut geraten, es sollten knapp 4 GB sein. ...und das krigt man nicht in eine RAM Disk?

BLJ
30.11.2005, 21:21
Hi,

als langjähriger DB Admin und Performance Consultant mit leidvoller Kundenerfahrung
kann ich Euch nur wärmstens von RAID 5 abraten. Ich weiß RAID 5 klingt verlockend
weil man nicht 50% der Kapazität verliert. Das ist jedoch in Tagen der 500GB Boliden
kein Argument mehr. Vielmehr zählt doch das warum Ihr Euch einen neuen Server anschafft:

PERFORMANCE

Und RAID 5 hat einen schwerstwiegenden Nachteil: Die Schreibperformance ist absolut mies.


HiHo.

ich stimme FÜR:

-RAID 5
-Hitachi T7K250
- ARECA PCIe SATA Controller.

damit hat man nämlich KEINE Performance Probleme. Die Areca Controller sind absolute Sahne, das läuft wie geschmiert! Performance = Sehr gut... =)

Der Controller kann auch Raid 6 etc.

die kriegt man ab Werk ~25% Günstiger. n 8Fach sollte reichen, der kostet ~400 Euro!
ja: die haben Intel PUs, aber das wäre man wohl bereit in kauf zu nehmen ;-)


ansonsten natürlich SCSI. Aber das wird wohl auch nicht billig...
vermutlich aber performance-mässig um längen ne bessere Lösung?!
gibt es überhaupt schon PCIe SCSI Karten? Oder ne 'normale' Lösung? Board mit 64BIT PCI? Board mit PCI-X? Preis?

cya

EDIT:
ftp://60.248.88.208/RaidCards/Documents/

ich weiss, ist vom Hersteller.
Aber ich hab schon Bestätigungen der guten Leistung von Users gelesen.
auf storagereview.com hats im Board auch welche mit dem Controller.
Also wenn man nicht auf die SCSI SChiene setzt, dann würd ich n Areca nehmen...

EDIT: LInux Support = NP
ftp://60.248.88.208/RaidCards/Documents/OS_Support_Maxtrix.pdf
hat auch ne HW Support liste...

Zidane
30.11.2005, 21:23
tekram setzt bei seinen raid-controllern auf intel-prozessoren. das geht dann ja auch nicht ;)

Damit hat er nicht gerecht, das die Chips für Berechnungen meist ein fetter Intel-Chip ist, der sogar ganz gut sein soll und desweiteren,

@Allfred, betrifft dies ja nicht nur Intel sondern auch andere On-Board Lösungen, aber würdest du mir glauben das Intel und Linux sehr wohl zueinander stehen, Stichwort -> Xeon Systeme, sind glaube nicht mit Windows XP, 2K, NT kompatibel......... sofern ich mich da jetzt nicht täusche, irgendwas war da doch mal.......aber was ?

deaken
30.11.2005, 21:25
Zitat von cruger
keine ahnung, wie es dort mit linux-support aussieht.

gibt es für die gängien dist. und sources zum selber compilieren.
für debian: tienhuis.nl/areca/

bei tweakers.net/reviews/557 gib es ein review

habe auch zuerst an den 3ware gedacht doch nach dem ich das gelesen hab ich mich anders entschieden.

Zidane
30.11.2005, 21:29
http://www.gamepc.com/images/labs/rev-arecapcie-closeupSM.jpg

Hier ein Acera mit Speicher, und jetzt kommt, Intel-Chip und 4 oder 8x Ports 1210 oder wie das Teil heißt.......

Allfred
30.11.2005, 21:29
Damit hat er nicht gerecht, das die Chips für Berechnungen meist ein fetter Intel-Chip ist, der sogar ganz gut sein soll und desweiteren, ... Alles klar, Intel hat schon immer 1A Chipsätze gehabt, besonders die XOR Chips auf den Controllern sind uneinholbar.... aber ich glaube es ist dem Geist der Community geschuldet von den PIIIs weg zu kommen.

Zidane
30.11.2005, 21:34
Alles klar, Intel hat schon immer 1A Chipsätze gehabt, besonders die XOR Chips auf den Controllern sind uneinholbar.... aber ich glaube es ist dem Geist der Community geschuldet von den PIIIs weg zu kommen.

Habe ich behauptet das alle Chispätze von Intel gut waren, da waren auch Nieten dabei, wie bei AMD auch, .........

Aber scheinbar scheinst du ja ein Problem mit Intel zu haben, so wie das höre. Und so schlecht waren die Pentium III nichts, und mal die Tulatin P3-S zu erwähnen. Worauf auch z.t der Pentium M Dothan bassiert, der sogar dem A64 ebenbürtig ist, also erzähl mal net son Quark, da könnt ich brechen.

cruger
30.11.2005, 21:35
gibt es für die gängien dist. und sources zum selber compilieren.
für debian: tienhuis.nl/areca/

bei tweakers.net/reviews/557 gib es ein review

habe auch zuerst an den 3ware gedacht doch nach dem ich das gelesen hab ich mich anders entschieden.

für den fall, daß man sich für pci-express entscheiden sollte, ist der tekram/areca imho eine lohnenswerte alternative zu 3ware.


Habe ich behauptet das alle Chispätze von Intel gut waren, da waren auch Nieten dabei, wie bei AMD auch, .........

Aber scheinbar scheinst du ja ein Problem mit Intel zu haben, so wie das höre. Und so schlecht waren die Pentium III nichts, und mal die Tulatin P3-S zu erwähnen. Worauf auch z.t der Pentium M Dothan bassiert, der sogar dem A64 ebenbürtig ist, also erzähl mal net son Quark, da könnt ich brechen.

es wäre ganz nett, wenn wir hier beim thema bleiben und nicht in parallel-diskussionen abschweifen ... :[

Allfred
30.11.2005, 21:38
Habe ich behauptet das alle Chispätze von Intel gut waren, da waren auch Nieten dabei, wie bei AMD auch, ......... habe ich das Wort alle in den Mund genommen? So und nun komm mal wieder runter! )((

Nikesch
30.11.2005, 21:38
So mal zu Google.
Klingt zwar schön aber wie da auch steht ist Google egal ob mal ein oder auch mal 20 Rechner ausfallen, die haben ja einfach genug.

Wir haben hier aber nur einen der muss stabil laufen und vorallem lange.

Es wäre doch vielleicht am einfachsten die HDD Fragen einbischen ans Ende zu stellen und einfach zu schauen was an Geld noch übrig ist und dann immer einbischen Sicherer werden (IDE < Sata < SCSI).
Denn eins ist ja sicher SCSI ist "schneller" und "sicherer" also wenn genug Geld da ist dann kann man es ja machen.

Zidane
30.11.2005, 21:41
[@All,

dazu eben die Hitachi-Platten und fertig, hat man ja dann schon dieses Thema erledigt.

i_hasser
30.11.2005, 21:43
Also wenn es sich wirklich nur um 4GB handelt, würd ich folgendes vorschlagen:

Ein Raid1 aus 2 (oder mehr) 15krpm SCSI HDDs (40GB pro HDD reichen), nicht mehr. Das übrige Geld wird in 8GB Ram gesteckt, damit passt die gesamte Datenbank da rein und entlastet die HDDs gewaltig, was auch deren Lebenszeit zugute kommt.

Dürfte billiger sein als riesige Raid 10 mit tonnenweise HDDs. Ein AMD64 Linux/BSD ist dann natürlich Pflichtprogramm, aber ja auch kein Problem (und ich würd für BSD votieren).

gruenmuckel
30.11.2005, 22:02
Also, es muss ein richtiger Raidcontroller sein, eine Steckkarte.
Mit eigener CPU und eigenem RAM, 128MB oder mehr.
Dann werden die Platten nicht ganz so krass belastet und die Anfragen werden viel besser verteilt.
Ausserdem kann damit das Raid in einen anderen Rechner umziehen falls man erweitern will/muss oder mal das Board stirbt.

Onboardcontroller mit treiberbasierten Softwareraid sind für solche Anforderungen ein ganz schlechter Witz.

Ramdisk?
Wie oft wird die dann mit der Harddisk abgeglichen? Sagen wir mal alle 5 Minuten, dann müssten alle 5 Minuten 4GB geschrieben werden. Da freuen sich die Platten.
Gleicht man permanent ab, kann man sich das wohl auch aus Performancegründen sparen.
Und wenn doch mal die Kiste abschmiert, warum auch immer, sind alle Daten die in den Zeitraum entstanden sind weg und die Datenbank wahrscheinlich korrupt.
Neeee, das lassen wir mal besser.

Controller mit eigenem Cache, das ist die richtige Wahl.
Ob nun SCSI oder SATA, mit vernünftigem Controller und vernünftigem Cachemanagement macht das keinen großen Unterschied mehr.

Warum große Platten?
Weil man Platten nehmen muss deren Platter voll ausgereitzt sind. Künstlich kastrierte Modelle um kleinere anbieten zu können sind langsamer. Hater das Platter 120GB, muss man auch die 120er Version nehmen und nicht die 80er. Es gibt leider keine schnellen 20GB Modelle mehr.

Die 36GB Raptor ist auch langsamer als die 72GB Version (aber nicht wegen obigem Fall).

Blutschlumpf
30.11.2005, 22:04
4 GB Ram klingt mir was wenig.

Zu den Platten: Ob die dafür spezifiziert sind oder nicht, aktuelle Hitachis laufen astrein im Dauerbetrieb, kann seit ich von Maxtor weg bin in der Firma bei kanpp 100 Hitachis nur einen Ausfall melden.

Zum Controller:
Nur weils da ein paar Sources für Linux gibt heißt das noch lange nicht, dass ein Controller vernünftig unter Linux zu gebrauchen ist.
Nehmt auf jeden Fall 3Ware, bisher hab ich alles andere was billiger war unter Linux nur rumspacken sehen.
Ob 4 Platten benötigt werden weiß ich nicht, wie wärs mit 2 73er Raptor im Raid1 an nem Escalade 8006-2 in nem Low Profile Case.
Für Backups evtl. noch ne einzelne 7k250 dazu.

Mailwurm
30.11.2005, 22:07
ziemlich gut geraten, es sollten knapp 4 GB sein.

Allerdings sind in Zukunft Erweiterungen geplant, die das Ganze noch ein wenig aufblaehen werden.

Hatte mal ein Test gelesen, wo drin stand, dass eine DB maximale Performance liefert wenn der RAM mindest 1,6 mal so groß wie die DB ist. Allerdings muss das auch anders gehen, irgendwann wird der RAM unbezahlbar.

@ Die Leute die eine RAM-Disk fordern

Eine RAM-Disk ist sinnlos. Die Datenbanksoftware versucht trotzdem immer so viel wie möglich in den RAM zu laden, sie weiß ja nicht, dass die DB auf einer RAM-Disk liegt. Im Endeffekt hätte man dann die DB zu großen Teilen zweimal im RAM aber keine Performance gewonnen und nur sinnlos RAM verschwendet und teuer bezahlt.

Desti
30.11.2005, 22:13
Läuft das tägliche Backup über den Hoster oder muss das selber irgendwo abgelegt werden?

Zidane
30.11.2005, 22:18
Hi..

Und Datensicherheit kann bei einer Ramdisk nicht gewährleistet werden, da kann man gleich die Daten auf eine defekte sichern. *g*

Mailwurm
30.11.2005, 22:24
Läuft das tägliche Backup über den Hoster oder muss das selber irgendwo abgelegt werden?

Ich kann nur für HardTecs4U sprechen und da gibt es kein Backup vom Hoster. Bei einem eigenen Server ist er auch nicht wirklich möglich, da er ja dann an die Daten herankommen müsste, sprich Root-Zugang. Bei usn erledigt das ein selbstgeschriebenes Script, was zweimal pro Tag die DB sichert und einmal pro Tag die Seite an sich. Die 40GB Platte bei uns reicht vollkommen aus, um die letzten 10 Tage als Backup vorzuhalten.

BLJ
30.11.2005, 22:24
Zum Controller:
Nur weils da ein paar Sources für Linux gibt heißt das noch lange nicht, dass ein Controller vernünftig unter Linux zu gebrauchen ist.
Nehmt auf jeden Fall 3Ware, bisher hab ich alles andere was billiger war unter Linux nur rumspacken sehen.

aus reiner neugierde - hattest du schon mal n Areca controller?

cya

deaken
30.11.2005, 22:40
Zum Controller:
Nur weils da ein paar Sources für Linux gibt heißt das noch lange nicht, dass ein Controller vernünftig unter Linux zu gebrauchen ist.
Nehmt auf jeden Fall 3Ware, bisher hab ich alles andere was billiger war unter Linux nur rumspacken sehen.
Ob 4 Platten benötigt werden weiß ich nicht, wie wärs mit 2 73er Raptor im Raid1 an nem Escalade 8006-2 in nem Low Profile Case.
Für Backups evtl. noch ne einzelne 7k250 dazu.
hab in zwei verschieden server(beide opteron) ohne probleme zum laufen gebracht(debian). Arbeit von 20min. 11min hatte er zum compilieren gebracht. von der geschwindigkeit her ist er schneller als der 3ware!
mfg deaken

cruger
30.11.2005, 22:47
laut Nero24 laufen die alten server auch mit nem scsi-raid5.

http://www.planet3dnow.de/vbulletin/showthread.php?p=2498215#post2498215

wenn es ins budget passt, würde ich dann evtl. weiterhin auf scsi setzen setzen. vielleicht wie anfangs erwähnt sogar eine sas-lösung auf pci-e basis. *noahnung*

keine frage, man kann auch heute auch mit herkömmlichen sata-platten ne menge machen, aber insofern es bezahlbar bleibt, würde ich auch scsi/sas den vorzug geben.

Blutschlumpf
30.11.2005, 23:00
Ob du es zum Laufen bekommst ist fast schon unwichtig.
Im Zweifelsfall muss jemand, der das System nicht kennt das Ding mit Standardmitteln zum laufen bringen können.

Soll heißen wenn Nero in nem Jahr beim Kernel-Update den Bootloader killt und der Technicker im RZ das fixen muss, dann wird der vermutlich keine Rescue-CD mit irgendwelchen exotischen Treibern parat haben.

Was mit dem Linux Standard-Kernel ohne Extra-Module nicht funktioniert ist imo absolut nicht rechenzentrumstauglich, es sei denn man hat remote Kontrolle bis auf BIOS-Ebene, was hier nicht gegeben ist.
Es nützt nichts wenn man da 50 Euro beim Controller sparen kann, der Image-, Zeit- und Geldverlust im Falle eines Ausfalles lässt einen da doppelt und dreifach draufzahlen.

@BLJ: nein, hatte ich noch nicht.
Hast du schonmal in nem RZ gearbeitet und dich um Rechner gekümmert, die nicht mehr booten wollten ?

Nero24.
30.11.2005, 23:06
Ui, Ui, Ui, hier wird ja hitzig diskutiert :)

Also, ein paar Anmerkungen zur Konkretisierung einiger Punkte.

Wir werden auf keinen Fall auf einen Onboard-Raid-Controller vertrauen, gleich ob Onboard-SCSI oder Onboard-SATA. Zum einen belasten die die CPU unnötig, zum zweiten schränkt es die Flexibilität ein. Wenn wir irgendwann aus irgendeinem Grund das Board tauschen müssen (keine Ahnung warum; z.B. weil es Stabilitätsprobleme gibt), dann dürfen wir das ganze System neu aufsetzen. Mit einem separaten Raid-Controller nehmen wir das komplette Set samt Controller einfach mit und gut ist's.

Dass das Betriebssystem nicht auf einem Raid-5 liegen sollte, ist richtig. Habe ich vergessen und macht wenig Sinn.

Apropos Raid-5. Ich bestehe nicht unbedingt auf Raid-5. Es ist für mich nur die Form von Raid, die mich technisch am meisten begeistert. Möglicherweise haben unsere aktuellen Performance-Probleme sogar damit zu tun, dass wir auf Raid-5 liegen. Es stimmt, gerade die Schreibperformance ist bei Raid-1/10 deutlich besser. Ich werde das nochmal durchrechnen.

Zur Schnittstelle: natürlich wäre langfristig gedacht ein PCI-Express Controller die sinnvollste Lösung. Dummerweise gehts einem hier ähnlich wie mit Soundkarten: es gibt kaum welche und wenn dann nur deutlich teurer. Warum hier nicht auf bewährtes PCI-X Material zurückgreifen? Die haben die Kinderkrankheiten wenigstens schon hinter sich.

Die aktuelle Größe der Forumsdatenbank beträgt ungefähr 5 GB. Wenn in Zukunft das Newsssystem und die Artikel und die Bilder etc. noch dazu kommen, werden es ganz sicher über 8 GB, also zu viel, um alles im Cache oder gar in einer RAMDisk zu halten. Insofern sind schnelle und zuverlässige Festplatten durch massig RAM kaum zu ersetzen.

Aber weil gerade das Stichwort RAMDisk fällt. Hat schon jemand bei einem Server Erfahrungen gesammelt mit den externen RAMDisks, die es vereinzelt gibt? In Sachen Performance und gerade in Sachen Latenz wäre das doch das Nonplusultra. Einmal am Tag, Nachts um halb 5, wenn auf P3D am wenigsten los ist, ein Backup auf eine simple IDE-Platte (die sonst den ganzen Tag im Standby verweilen kann). Erfahrungen? Anregungen? Ich weiß, ist eher theoretischer Natur ;) würde mich aber reizen.

Desti
30.11.2005, 23:53
Ich kann nur für HardTecs4U sprechen und da gibt es kein Backup vom Hoster. Bei einem eigenen Server ist er auch nicht wirklich möglich, da er ja dann an die Daten herankommen müsste, sprich Root-Zugang. Bei usn erledigt das ein selbstgeschriebenes Script, was zweimal pro Tag die DB sichert und einmal pro Tag die Seite an sich. Die 40GB Platte bei uns reicht vollkommen aus, um die letzten 10 Tage als Backup vorzuhalten.

Ich meinte anders herum, der Hoster stellt Backupspace (wie es ja bei jedem Billighoster bereits üblich ist) und man lädt es selber (per script) hoch.

Mailwurm
01.12.2005, 02:23
Ich meinte anders herum, der Hoster stellt Backupspace (wie es ja bei jedem Billighoster bereits üblich ist) und man lädt es selber (per script) hoch.

Hmm, naja ich weiß nur, dass bei normalen Webspaceprodukten automatisch ein Backup gemacht wird, wenn denen die Kiste abraucht, dass dann die Webpräsenz einfach aus dem Backup auf eine andere Maschine geschoben wird, so dass der Kunde meist nichts vom Ausfall mitbekommt.

Bei dedicated Produkten ist das meist nicht möglich, da für ein vollständiges Update Root-Rechte erforderlich sind. Extra Platz auf einem anderen Server kostet dann meist extra. Am besten ist es sowieso neben den regelmäßigen Backups auf das RAID1-System des Servers auch mal Backups nach Hause zu transferieren. In Zeiten von DSL sollte das möglich sein. Gesetz dem Fall, dass denen dort doch mal ein Meteorit ins Rechenzentrum fällt, steht man dann nicht vollkommen dumm da. ;D

TCM
01.12.2005, 03:45
hi,

nur mal ein tip, bei raid5 sollte man 2^n+1 platten verwenden, damit das filesystem 1:1 draufmappt mit seinen 2^n writes. s. http://it.slashdot.org/comments.pl?sid=169274&cid=14144791

ob das auf hardware-controller auch zutrifft, weiss ich nicht genau. nehmt also lieber 3x120G als 4x80G.

edit: oder natuerlich, wo ich jetzt den anfang des threads sehe, lieber raid-1 fuer db-intensive sachen.

tomturbo
01.12.2005, 09:06
Ui, Ui, Ui, hier wird ja hitzig diskutiert :)

Aber weil gerade das Stichwort RAMDisk fällt. Hat schon jemand bei einem Server Erfahrungen gesammelt mit den externen RAMDisks, die es vereinzelt gibt? In Sachen Performance und gerade in Sachen Latenz wäre das doch das Nonplusultra.

Hi, wir hatten sowas bei meinem Bankkunden mit Online-Banking im Einsatz
.
Wir hatten da eine RAMDISK-Platte mit SCSI Anschluss. Diese war komplett mit Battery-Backup plus interner Festplatte abgesichtert.
Dh. bei einem Stromausfall hat diese alles auf die interne Festplatte geschrieben.
Von der Latenz und Perfomance war das Ding der Wahnsinn.

Wir brauchten die Ramdisk für spezielle kritische DB Files. Sie hat sich dort absolut bewährt.
Die Performance war ohne nicht erreichbar.

Aber auf dem PC Sektor kenne ich sowas ausgefeiltes nicht.

lg
tom

i_hasser
01.12.2005, 10:05
8GB Ram heist net Ramdisk, das ist ein gewisser Unterschied. Der große RAM soll als Cache herhalten, und da müssen eben nicht alle 5 Minuten 4GB geschrieben werden, desswegen wurden unter Anderem auch Schreibcaches erfunden...

Eine wirkliche Ramdisk find ich auch net so toll, aber bei 8GB Ram bleiben locker 5GB für Dateisystemcaches übrig.

Der teure Raid-Controller erübrigt sich dann auch, für Raid 1 braucht man weder einen mit übermäßig viel Ram (wenn das System 8GB hat ist es wurscht ob auf dem Controller 128MB sitzen), noch einen mit teurer CPU. Und von der Leistungsfähigkeit stellen 5GB Dateisystemcache jedes Raid in den Schatten.

Tom@work
01.12.2005, 11:13
Ui, Ui, Ui, hier wird ja hitzig diskutiert :)

Zur Schnittstelle: natürlich wäre langfristig gedacht ein PCI-Express Controller die sinnvollste Lösung. Dummerweise gehts einem hier ähnlich wie mit Soundkarten: es gibt kaum welche und wenn dann nur deutlich teurer. Warum hier nicht auf bewährtes PCI-X Material zurückgreifen? Die haben die Kinderkrankheiten wenigstens schon hinter sich.



Aber hallo, wie kommst du denn darauf, dass die PCI-E Lösung teurer ist??
Habe letztens einen 3Ware auf Kundenwunsch in eine VideoEd-Station verbaut (DualX**n) und muss sage: Performance trotz PCI-X unter aller, Preis (EK) mit über 345 netto rund ein drittel teurer als der vglb. Areca PCI-E und dann kommt noch etwas dazu - die RAID Console, die für's Managen, Fehlererkennung und Mail verantwortlich ist, ist bei 3Ware ein Grauss. Allerdings kann ich diese Aussage nur für WIN machen, aber ich glaub für Linux gibts da garnix. Überlegt euch gut, ob ihr nicht doch lieber auf eine erprobte SCSI Lösung setzen wollt.

Tom

jhvaso
01.12.2005, 11:48
Hallo

Hat sich schon jemand den SATA RAID-Controller(PCIe) ARC1220 mit Unterstützung für RAID 6 angeschaut ?

Bei Tom's Hardware hat er sehr gut abgeschnitten...
Ich kann leider keinen Link setzen - muß erst 5 Beiträge haben *traurig*

Grüße

jhvaso

cruger
01.12.2005, 12:22
Hat sich schon jemand den SATA RAID-Controller(PCIe) ARC1220 mit Unterstützung für RAID 6 angeschaut ?

vom areca war doch nun schon auf den letzten seiten die rede :]

aber wo ich gerade den test bei tomshardware sehe, wenn man sich für pci-x entscheiden sollte, kann man sich auch mal bei lsi logic oder adaptec umschauen.

Zidane
01.12.2005, 13:31
Hi..

@Nero,

wie ich sehe wurden ja teils die Serverkomponenten im Hardwarethread schon rausgesucht, aber warum Samsung ! - die Hitachi wäre für das Raid-5 besser geeignet, und dürfte wohl dank ihren 8MB-Cache, einen hohen AI durchaus besser sein, und bietet 3Jahre Garantie, und bei Samsung weiß man eben nicht was man hat...... mit den Hitachi sollte man weitaus weniger Probleme bekommen, und sind mit alten IBM in nichts mehr zuvergleichen.

http://www.geizhals.at/a139270.html , sind die Samsung billiger ?

Würde 4 davon verwenden,...........

Und was den Controller angeht, falls das Board mit NV-Chipsatz in die Wahl kommt, da es ja PCI-E x und PCI-X hat den Arcera Controller ebenfalls mit einbeziehen, und den jeweils besseren dann verwenden.

cruger
01.12.2005, 14:17
einen hohen AI durchaus besser sein,

was meinst du mit ai ?

gruenmuckel
01.12.2005, 14:44
Hey, cruger, das solltest du wissen.
Anwendungsindex, h2benchw... ist doch dein Steckenpferd.
;)

[Uzntuk]McGizmo
01.12.2005, 14:46
Ich mische mich einfach mal so ein, ohne das Topic zu lesen - Wenn es ein Raid 5 sein darf (sollte ...) - 3ware oder auch broadcom - nichts anderes.

;)

cruger
01.12.2005, 14:53
Hey, cruger, das solltest du wissen.
Anwendungsindex, h2benchw... ist doch dein Steckenpferd.
;)

wenn er darauf abgezielt hat ?

der anwendungsindex bildet typische alltagsanwendungen unter windows xp ab.

dabei sagt der ai genauso viel über die server-tauglichkeit von festplatten aus wie hd tach über die performance einer platte generell. (sprich gar nichts) :]

es gibt da ja dieses schöne phänomen, daß manche aktuelle highend-scsi-platten beim ai selbst hinter betagten 2,5" platten zurückbleiben, da die platten offensichtlich stark auf zugriffsmuster von servern optimiert wurden.

Zidane
01.12.2005, 14:59
Hi..

Den Anwenderindex meinte ich schon, aber wenn es heißt der ist unbrauchbar, wie kann ich dann z.b meine Platten messen, ob die für den Serverbereich ebenfalls was taugen, was ich mal nicht bzw. ....... gibts ein Programm dafür, wenn ja welches.

deaken
01.12.2005, 16:06
Ob du es zum Laufen bekommst ist fast schon unwichtig.
Im Zweifelsfall muss jemand, der das System nicht kennt das Ding mit Standardmitteln zum laufen bringen können.
Soll heißen wenn Nero in nem Jahr beim Kernel-Update den Bootloader killt und der Technicker im RZ das fixen muss, dann wird der vermutlich keine Rescue-CD mit irgendwelchen exotischen Treibern parat haben.

er ist bereits im mm kernel drinnen.
sollte also nicht mehr alzulange ein problem sein.
ist der 3ware 955X überhaupt im kernel drinnen oder funktioniert dieser auch mit dem 950X treiber?

i_hasser
01.12.2005, 16:10
Ein guter Serverbenchmark ist intels IOMeter. Der simuliert auch halbwegs das, was bei Datenbanken oft auftritt.

ando
01.12.2005, 19:12
@Spontan
Das habe ich Pipin auch schon gefragt.
Ich schätze die auf 2-3GB, wenn es sehr hoch kommt 5GB.
Ergo sind 36GB SCSI MEHR!!! als ausreichend, wenn nicht gar Platzverschwendung.

BUGGI

Also wenn das Zeug sowieso so klein ist, dann ist ja fast das eine Überlegung wert:
Das I-RAM von Gigabyte

Through GIGABYTE's custom intelligent controller, i-RAM acts like a regular SATA hard drive at theoretically 1.5Gb/s data transfer rate. By utilizing conventional DDR memory modules, i-RAM is outfitted with four 184-pin DIMM slots that will accept any DDR DIMM and support up to 4GB unbuffered / non-ECC memory. Most of all, the major issue of data lost after powering down is solved by i-RAM's backup battery which is charged by your system on the fly. Without mechanical elements of traditional hard disks, i-RAM's stunning performance coming from the nature of DRAM as storage medium benefits in massive storage access application such as video / audio capture & editing and 3D graphics design applications. i-RAM is the fastest storage device you have ever imagined !

Review:
auf Anandtech

(nachdem ich noch keine liks schicken darf.....)

Grüße
Ando

Nero24.
01.12.2005, 19:30
Hallo allerseits,

so, wir haben nach den vielen durchaus begründeten Einwänden gegen die gestrige Konfiguration mit SATA-2 Raid-5 die Konfiguration überarbeitet. Neben einem anderen Board gibt's nun auch klassisches SCSI-Material in Form eines Adaptec SCSI-Raid Controllers, der zwei IBM 10000rpm Laufwerke im Raid 1 betreiben darf. Das ist zwar im Endeffekt sogar teurer, als das SATA2 Raid 5, aber in Punkto Dauerhaltbarkeit habe ich bei den SCSI-Festplatten deutlich weniger Bauchschmerzen. Ferner wird die Anzahl der einsetzbaren 2 HE Gehäuse größer, da wir nicht mehr so viele Laufwerke unterbringen müssen. Last but not least fällt auch der Schwachpunkt von Raid 5, die langsame Schreibgeschwindigkeit weg.

Zidane
01.12.2005, 20:39
Hallo allerseits,

so, wir haben nach den vielen durchaus begründeten Einwänden gegen die gestrige Konfiguration mit SATA-2 Raid-5 die Konfiguration überarbeitet. Neben einem anderen Board gibt's nun auch klassisches SCSI-Material in Form eines Adaptec SCSI-Raid Controllers, der zwei IBM 10000rpm Laufwerke im Raid 1 betreiben darf. Das ist zwar im Endeffekt sogar teurer, als das SATA2 Raid 5, aber in Punkto Dauerhaltbarkeit habe ich bei den SCSI-Festplatten deutlich weniger Bauchschmerzen. Ferner wird die Anzahl der einsetzbaren 2 HE Gehäuse größer, da wir nicht mehr so viele Laufwerke unterbringen müssen. Last but not least fällt auch der Schwachpunkt von Raid 5, die langsame Schreibgeschwindigkeit weg.

@Nero, vorrausgesetzt diese SCSI-Platten sind, top die IC35er Serie im Bereich war seitens Hitzeprobleme und fehlerhafte Firmware nicht so sonderlich gut. Da sind mir von den 60er IDE-Platte dieser Baureihe 4 Stück abgeraucht.

Mag sein, das es bei den SCSI-Platten nicht der Fall ist, aber man weiß ja nie.

Ist das ein Hardware oder Softcontroller ?

Big Lou
01.12.2005, 20:51
Zunächst mal möchte ich meine Zustimmung ausdrücken, auf SCSI umzusteigen. Allerdings bin ich mit der Wahl der Platten nicht glücklich. Diese speziellen IBM Platten kenne ich zwar nicht persönlich, aber generell sind IBM/Hitachi SCSI Platten von der Anwendungsperformance her relativ schwach ( s. ct 19/2005 ). Ich setze deshalb Fujitsu Platten (allerdings mit 15000 u/min) ein, für den Server käme die MAT3147NP / NC infrage, die hat von allen 10000 u/min Platten die beste Performance.

cruger
01.12.2005, 21:00
Diese speziellen IBM Platten kenne ich zwar nicht persönlich, aber generell sind IBM/Hitachi SCSI Platten von der Anwendungsperformance her relativ schwach ( s. ct 19/2005 ).

lesen hier einige auch gelegentlich mal im thread mit ??? :]


wenn er darauf abgezielt hat ?

der anwendungsindex bildet typische alltagsanwendungen unter windows xp ab.

dabei sagt der ai genauso viel über die server-tauglichkeit von festplatten aus wie hd tach über die performance einer platte generell. (sprich gar nichts) :]

es gibt da ja dieses schöne phänomen, daß manche aktuelle highend-scsi-platten beim ai selbst hinter betagten 2,5" platten zurückbleiben, da die platten offensichtlich stark auf zugriffsmuster von servern optimiert wurden.


@Nero, vorrausgesetzt diese SCSI-Platten sind, top die IC35er Serie im Bereich war seitens Hitzeprobleme und fehlerhafte Firmware nicht so sonderlich gut. Da sind mir von den 60er IDE-Platte dieser Baureihe 4 Stück abgeraucht.

herrschaften, ich kann doch mainstream billig-produkte nicht server-hardware vergleichen *nein*

irgendwie scheint das in manche köpfe nicht wirklich rein zu gehen, das sind zwei völlig unterschiedliche welten. bei scsi finden sehr lange und aufwendige validierungsphasen statt, bevor diese produkte auf die menschheit losgelassen werden. entsprechend länger sind auch die produktzyklen im scsi-bereich. das kann man vorne und hinten nicht mit mainstream-produkten vergleichen, auch wenn ich damit ide-platten im server-einsatz nicht schlechter reden will als sie tatsächlich sind. :]

i_hasser
01.12.2005, 21:01
Seagate hat bei SCSI HDDs einen Namen, http://www.geizhals.at/eu/a36964.html die ist recht günstig aber leider nur 10krpm, http://www.geizhals.at/eu/a36962.html die würden ansich schon reichen, kosten als SCSI aber mehr http://www.geizhals.at/eu/a36959.html

Big Lou
01.12.2005, 21:06
Danke, ich lese sehr wohl mit - allerdings sind die Ergebnisse wider Erwarten doch auf Server übertragbar - ich hab mal nen umfangreichen Server Festplatten Test gelesen, und da kamen die Fujitsu mit Abstand am besten weg - ansonsten hab ich selbst diverse Benchmarks getestet - und enttäuscht z,b, meine Seagate Cheetah mit 15000 u/min gewaltig, während meine Fujitsu MAU 3036np bestens wegkommt. Allerdings ist die Raptor auch super.

cruger
01.12.2005, 21:07
Seagate hat bei SCSI HDDs einen Namen, http://www.geizhals.at/eu/a36964.html die ist recht günstig aber leider nur 10krpm, http://www.geizhals.at/eu/a36962.html die würden ansich schon reichen, kosten als SCSI aber mehr http://www.geizhals.at/eu/a36959.html

ich würde auch primär seagate oder hitachi ins auge fassen, die cheatas waren eigentlich schon immer richtige arbeitstiere. ebenso wie hitachis ultrastar. leider sind die sas-platten teilweise doch deutlich teurer, so daß man wahrscheinlich beim "alten" scsi immer noch besser aufgehoben sein dürfte.

i_hasser
01.12.2005, 21:33
Also so einfach lässt sich der Anwendungsindex nicht übertragen, bei HDD Zugriffen spielen noch viele andere Sachen eine Rolle. Für Datenbank-Tests ist wie gesagt IOMeter ein ziemlich guter Benchmark, weil der eben Datenbankzugriffe in definierbarer Art und Weise simuliert.

Bei größeren HDDs hast du vorteile wenn die Zugriffe in einem sehr großen Rahmen stattfinden, also wenn du zB. die gesamte HDD bis oben hin mit Daten vollpackst. Da gehen 40GB bei einer großen HDD eben nur über einen kleinen Teil der Platterbreite, bei den kleinen Seagates dagegen schon über den gesamten Platter. Bei 5GB spielt das aber keine Rolle.

Ich würd aber nach wie vor vorziehen den Server viiieeel Ram zu spendieren. Man könnte ja mal gucken wie viel von der Datenbank im Moment stark frequentiert wird. Wenn das nur 1GB ist, dann sollten 4GB eigentlich auch ausreichen (btw. wie viel Ram hat der aktuelle DB Server eigentlich?).

PS Ich hab gerade einen Hänger, was war nochmal SCA? Die Cheetahs dafür sind etwas billiger als für SCSI.
Hab vorhin aber auch leicht ältere Modelle rausgesucht (ist mir nur gerade aufgefallen), so sieht's bei den aktuellen aus:

http://www.geizhals.at/eu/a135875.html
http://www.geizhals.at/eu/a135573.html

Zidane
01.12.2005, 21:58
lesen hier einige auch gelegentlich mal im thread mit ??? :]





herrschaften, ich kann doch mainstream billig-produkte nicht server-hardware vergleichen *nein*

irgendwie scheint das in manche köpfe nicht wirklich rein zu gehen, das sind zwei völlig unterschiedliche welten. bei scsi finden sehr lange und aufwendige validierungsphasen statt, bevor diese produkte auf die menschheit losgelassen werden. entsprechend länger sind auch die produktzyklen im scsi-bereich. das kann man vorne und hinten nicht mit mainstream-produkten vergleichen, auch wenn ich damit ide-platten im server-einsatz nicht schlechter reden will als sie tatsächlich sind. :]


Hi..

Ich drücks mal so aus, wenn ein Hersteller XXX im Mainstream Bereich nur Müll produziert, dann kannst du nicht ernsthaft erwarten, das ich mir dann eine Serverplatte von des Hersteller XXX kaufe in der Hoffnung das es dann besser wird. Das ist nunmal mein Standpunkt. Entweder ist ein Hersteller in der Lage vernüftige Platten für alle Bereiche zu bauen oder nicht, auf die man sich verlassen kann, und bei IBM damals und gewissen Serien war es defintiv nicht der Fall. Mag sein das du anders denkst, aber auf mich trifft dies nicht zu.

Bokill
01.12.2005, 22:15
...Ich drücks mal so aus, wenn ein Hersteller XXX im Mainstream Bereich nur Müll produziert, dann kannst du nicht ernsthaft erwarten, das ich mir dann eine Serverplatte von des Hersteller XXX kaufe in der Hoffnung das es dann besser wird. ... Fujitsu hatte sich vor geraumer Zeit vollständig aus dem HDD-Desktopmarkt zurückgezogen, die waren es leid mit spitzer Feder zu rechnen.

Für den HDD-Servermarkt hingegen ist Fujitsu nach wie vor eine relevante Grösse. Was ich sagen will ist folgendes: Der Servermarkt/Workstationmarkt gehorcht nach eigenen Gesetzen und die Firmenabteilungen der Festplattenhersteller sehen das ebenso.

Schon alleine, dass eigenständige SCSI-Karten für SCSI-Festplatten gewünscht werden, zeigt doch deutlich andere Prioritäten ... In so fern hätte ich sogar Verständnis für PC 2700 CL3 und ECC/Registered, um ein Hauch mehr Ausfallsicherhait zu haben.

MFG Bobo(2005)

cruger
01.12.2005, 22:28
PS Ich hab gerade einen Hänger, was war nochmal SCA?

http://www.seagate.com/support/kb/disc/sca.html

http://www.pcguide.com/ref/hdd/if/scsi/cablesSCA-c.html

Zidane
01.12.2005, 22:31
Fujitsu hatte sich vor geraumer Zeit vollständig aus dem Desktopmarkt zurückgezogen, die waren es leid mit spitzer Feder zu rechnen.

Für den Servermarkt hingegen ist Fujitsu nach wie vor eine relevante Grösse. Was ich sagen will ist folgendes: Der Servermarkt/Workstationmarkt gehorcht nach eigenen Gesetzen und die Firmenabteilungen der Festplattenhersteller sehen das ebenso.

Schon alleine, dass eigenständige SCSI-Karten für SCSI-Festplatten gewünscht werden, zeigt doch deutlich andere Prioritäten ... In so fern hätte ich sogar Verständnis für PC 2700 CL3 und ECC/Registered, um ein Hauch mehr Ausfallsicherhait zu haben.

MFG Bobo(2005)

Trifft das nicht auch bei uns auch zu im Meinstream Bereich, mit einer vernüftigen Anbindung wäre es mir sogar lieber einen ext. vollständen SATA-II Controller einzusetzen, und z.b Raid-5 zu nutzen, das war meine volle Absicht, aber mit einem PCI-Bus kommt man eben nicht weit, und so eben auf On-Board Lösungen nutzt, und wenn hier das Board abraucht, hat mein ein Problem. Aber das könnte sich evt. in 1-2 Jahren mit einer PCIe Platine ändern, mehr als Bsp. Nur hat man eben in Meinstream weniger die Möglichkeiten es vernüftig umzusetzen, und Serverzubehör wieder den Preisrahmen sprengen würde.

i_hasser
01.12.2005, 22:42
@Zidane

So kannst du das nicht betrachten, und das IBM Gebashe ist nebenbei unter aller Sau.
Wenn du danach gehst darfst du bei keinem Hersteller eine HDD kaufen, weil irgendwann irgendwo schonmal irgendeine HDD von eben diesem Hersteller kaputt gegangen ist.

IBM/Hitachi baut gute HDDs, Punkt. Im SCSI Geschäft ist das alles etwas anders gemischt (viel Facettenreicher als bei Desktop HDDs), aber gute HDDs sind es trotzdem. Genauso ist Seagate ein sehr etablierter Hersteller, die haben SCSI HDDs gebaut... ich glaube seit es SCSI gibt (und das ist verdammt lange).

Von Samsung hörst du dagegen in dem Bereich nix, weil Samsung bis vor kurzem nur billig-Platten gebaut hat und schlicht keine Reputation hat.

Evil E-Lex
01.12.2005, 23:09
@Zidane

So kannst du das nicht betrachten, und das IBM Gebashe ist nebenbei unter aller Sau.
Wenn du danach gehst darfst du bei keinem Hersteller eine HDD kaufen, weil irgendwann irgendwo schonmal irgendeine HDD von eben diesem Hersteller kaputt gegangen ist.

IBM/Hitachi baut gute HDDs, Punkt. Im SCSI Geschäft ist das alles etwas anders gemischt (viel Facettenreicher als bei Desktop HDDs), aber gute HDDs sind es trotzdem. Genauso ist Seagate ein sehr etablierter Hersteller, die haben SCSI HDDs gebaut... ich glaube seit es SCSI gibt (und das ist verdammt lange).

Von Samsung hörst du dagegen in dem Bereich nix, weil Samsung bis vor kurzem nur billig-Platten gebaut hat und schlicht keine Reputation hat.

Amen! Nur von Fujitsu würde ich zur Zeit Abstand nehmen. Bei mir in der Firma sind uns in relativ kurzer Zeit (unter zwei Monate im Betrieb) bei mehreren Kunden einige Allegros verstorben. Beim ersten Kunden dachten wir noch, dass wir ienfach nur eine schlechte Charge Platten erwischt hatten. Als die Probleme dann aber auch bei einen anderen Kunden auftraten, dessen Platten mehrere Monate jünger waren, machten wir uns schon Gedanken über die Zuverlässigkeit dieser HDDs. Wir werden n nächster Zeit wieder verstärkt auf Seagate oder Maxtor setzen. Viellect sind die Fujitsus ja nächtes Jahr wieder besser.

Gruß,
Evil

Zidane
01.12.2005, 23:12
@Zidane

So kannst du das nicht betrachten, und das IBM Gebashe ist nebenbei unter aller Sau.
Wenn du danach gehst darfst du bei keinem Hersteller eine HDD kaufen, weil irgendwann irgendwo schonmal irgendeine HDD von eben diesem Hersteller kaputt gegangen ist.

IBM/Hitachi baut gute HDDs, Punkt. Im SCSI Geschäft ist das alles etwas anders gemischt (viel Facettenreicher als bei Desktop HDDs), aber gute HDDs sind es trotzdem. Genauso ist Seagate ein sehr etablierter Hersteller, die haben SCSI HDDs gebaut... ich glaube seit es SCSI gibt (und das ist verdammt lange).

Von Samsung hörst du dagegen in dem Bereich nix, weil Samsung bis vor kurzem nur billig-Platten gebaut hat und schlicht keine Reputation hat.

Ich hatte ja geschrieben damals, mom. nutze ich selber 4 Hitachi Platten, da man die Probleme von damals mit heute nicht mehr vgl. kann......... und würde weiterhin nur diese Platten kaufen. Nebenei die älteste SCSI-Platte die ich gesehen hatte war von 1991 mit 3GB incl. doppelter 5 1/2" Bauhöhe, weiß aber nicht mehr von welchem Hersteller die stammt, an SCSI Platten selber hatte ich nur 2x 512MB von Fujitsu ( würden wohl heute noch laufen, wenn ich nicht entsorgt hätte), dann 1 defekte Seagate der Medialist Reihe, und eine 9,4 glaub von IBM die ich aber nicht zu laufen bekommen habe, mit fehlte eine Terminator *g* ( da alles anderen HDDs eine terminierung erlaubten) aber nun wieder zum Thema.

PuckPoltergeist
02.12.2005, 07:29
Neben einem anderen Board gibt's nun auch klassisches SCSI-Material in Form eines Adaptec SCSI-Raid Controllers,

Ich weiß nun nicht, welches OS letztendlich eingesetzt wird, aber insbesonder bei Linux kann ich nur sagen: Finger weg von Adaptec!
Die Teile sind einfach reudig. Ich habs hier durchgehabt, mit nem Zweikanal-Controller, der ein RAID1 als Sys und nen RAID5 für die Daten bedient. Insbesondere beim RAID5 ist die Reude absolut eingebrochen, da wäre ein Software-RAID schneller gewesen. Im Moment setzen wir hier LSI ein, welche nicht schlecht sind.
Ansonst könnte man noch zu was richtig edlem greifen, wie ICP Vortex. Allerdings kosten die dann wirklich Schotter, sind ihr Geld aber auch wert. Ich hoffe dabei nur, dass Adaptec die noch nicht verhunzt hat.

i_hasser
02.12.2005, 08:34
Also SCSI gibts schon etwas länger ;). Ich hab noch 2 2GB IBM DFHS rumfliegen, laufen übrigens super (sind sogar 7200rpm HDDs).

PS SCSI gibts als Interface für HDDs seit 1986. Die ersten SCSI HDDs dürften demnach so bei maximal 100MB gelegen haben.

Big Lou
02.12.2005, 10:47
Also SCSI gibts schon etwas länger ;). Ich hab noch 2 2GB IBM DFHS rumfliegen, laufen übrigens super (sind sogar 7200rpm HDDs).

PS SCSI gibts als Interface für HDDs seit 1986. Die ersten SCSI HDDs dürften demnach so bei maximal 100MB gelegen haben.

Meine erste SCSI-Patte hab ich ca. 1987 gekauft für über 1000 DM und in nen Amiga 2000 eingebaut, ne 80 MB Seagate ST 296N, 5 1/4 Zoll, höllenlaut, total langsam, aber läuft immernoch. Es gab aus der Serie aber auch deutlich kleinere Platten ab 21 MB.

Anarchy
02.12.2005, 11:40
Ich bein eindeutig gegen den gebrauch vonHitachi Disks, im Desktop bereich ist Hitachi vorne mit dabei aber bei SCSI schauts nemmer so doll aus ... Maxtor, Fujitsu und Seagate leigen da eindeutig besser im rennen.

Empfehlung -

15.000er Disks - Maxtor 15kII, kosten in der 74er variante 360€/Stück

i_hasser
02.12.2005, 11:50
15.000er Disks - Maxtor 15kII, kosten in der 74er variante 360€/Stück

Soll ich wieder die AS/400 rauskramen? ;)

Die Cheetah kosten mit 15krpm und 40GB immerhin 140€ weniger pro Stück.

cruger
02.12.2005, 12:31
ich würde mich nachwievor für seagate aussprechen.

zu maxtor habe ich wenig vertrauen. maxtor schreibt nun schon seit geraumer zeit verluste. und das geht immer ein wenig einher mit der befürchtung, daß ein hersteller dann auf die kostenbremse tritt und darunter die qualität leiden könnte.

bei seagate hat man den marktführer mit leistungsfähigen platten und nach meiner erfahrung gutem service. abgesehen davon geht es seagate wirtschaftlich derzeit absolut blendend, was man von maxtor oder auch hitachi nicht gerade behaupten kann.

Patmaniac
02.12.2005, 12:42
Haben die Seagates eigentlich immernoch 5 Jahre Garantie?

gast0972
02.12.2005, 12:45
ich würde mich nachwievor für seagate aussprechen.

zu maxtor habe ich wenig vertrauen. maxtor schreibt nun schon seit geraumer zeit verluste. und das geht immer ein wenig einher mit der befürchtung, daß ein hersteller dann auf die kostenbremse tritt und darunter die qualität leiden könnte.

bei seagate hat man den marktführer mit leistungsfähigen platten und nach meiner erfahrung gutem service. abgesehen davon geht es seagate wirtschaftlich derzeit absolut blendend, was man von maxtor oder auch hitachi nicht gerade behaupten kann.

Sage ich doch die ganze Zeit, liest mir denn Keiner zu? ;D Ok, ich bin nur 'ne Einzelperson, habe jetzt aber schon knapp 'ne dreistellige Zahl an Seagate-HDD's verbaut. Ausfälle? Null. Performance? Geil. Nur im RAID-verbund gab's wohl Leistungseinbußen, die mit den neuen HDD's vorbei sind.

Und die Cheetah's sind ja wohl eine Legende!

gast0972
02.12.2005, 12:47
Haben die Seagates eigentlich immernoch 5 Jahre Garantie?

Kommt, afaik auf die Festplattenserie drauf an.

Mehr Infos hier: http://5yrwarranty.seagatestorage.com/?elqPURLPage=540

cruger
02.12.2005, 13:14
Nur im RAID-verbund gab's wohl Leistungseinbußen, die mit den neuen HDD's vorbei sind.

a) reden wir afaik von scsi- und nicht von ide-platten und b) hat sich seagates raid-0 tauglichkeit bei den aktuellen barracuda-serien kaum verbessert, ist zwar nicht mehr so dramatisch schlecht wie bei der barracuda 4 (raid-0 teilweise langsamer als einzelne platten), aber die barracuda wäre im raid-0 immer noch die letzte platte, die mich für diesen speziellen zweck zulegen würde.

abgesehen davon sind im desktop-bereich andere kriterien wie leistungsaufnahme oder geräuschentwicklung wichtig. und da hat man bei seagate die geniale auswahl zwischen pata=schnarchig langsam, aber halbwegs leise und sata=schnell, aber ziemlich geräuschvoll. an der hohen leistungsaufnahme hat sich bei seagate auch sei jahr und tag nichts geändert. in sachen performance reichen für den normalen alltag wohl alle platten der aktuellen generation. will man etwas mehr, wird man bei seagate ähnlich wie bei samsung durch eine schwache ncq-implementierung entäuscht.

und seagate zuverlässigkeit ? ich hab da meine ganz eigenen erfahrungen gemacht, will ich nicht weiter ausbreiten.

aber zurück zum thema. die cheetahs sind schon wirklich saubere platten, da kann man nicht viel falsch machen.

Zidane
02.12.2005, 13:21
a) reden wir afaik von scsi- und nicht von ide-platten und b) hat sich seagates raid-0 tauglichkeit bei den aktuellen barracuda-serien kaum verbessert, ist zwar nicht mehr so dramatisch schlecht wie bei der barracuda 4 (raid-0 teilweise langsamer als einzelne platten), aber die barracuda wäre im raid-0 immer noch die letzte platte, die mich für diesen speziellen zweck zulegen würde.

abgesehen davon sind im desktop-bereich andere kriterien wie leistungsaufnahme oder geräuschentwicklung wichtig. und da hat man bei seagate die geniale auswahl zwischen pata=schnarchig langsam, aber halbwegs leise und sata=schnell, aber ziemlich geräuschvoll. an der hohen leistungsaufnahme hat sich bei seagate auch sei jahr und tag nichts geändert. in sachen performance reichen für den normalen alltag wohl alle platten der aktuellen generation. will man etwas mehr, wird man bei seagate ähnlich wie bei samsung durch eine schwache ncq-implementierung entäuscht.

und seagate zuverlässigkeit ? ich hab da meine ganz eigenen erfahrungen gemacht, will ich nicht weiter ausbreiten.

aber zurück zum thema. die cheetahs sind schon wirklich saubere platten, da kann man nicht viel falsch machen.

Ohne Hitachi oder WD-Raptor geht das wohl im Raid nichts, aber gut sind ja IDE/SATA Platten, (was anderes würde ich mir da nicht zulegen. Seagate wäre davon das allerletzte. Aber bei SCSI, worum es ja jetzt hier geht mag das wieder anders ausschauen.

stupid_boy
02.12.2005, 21:59
Hmm

also bei SCSI Raidcontrollern geht atm nichts über ICP-Vortex,
der GDT8114RZ ohne Raid5 unterstützung oder
der GDT8514RZ mit Raid5 unterstützung.
Vorteil von ICP ist die OS unabhängigkeit + eigene Risc CPU +
128MB Cache auf dem Controller + Ultra stabil + schnell +
er überwacht die Platten und meldet frühzeitg das sich was anbahnt!


Als Platten würde ich 2x 73GB mit 10k nehmen oder
wenn 36GB reichen 15k platten kosten ja etwa das selbe.
atm verwende ich bei Kunden lieber Seagate habe aber auch
schon gute Erfahrung mit Hitachi gemacht. Wobei deren 15k platten
aber der zweiten generation erst wirklich langlebig sind wie ich bei mir
in der Workstation erleben musste (Raid 5 ein nach der anderen TOT)


Von Adaptec würde ich abstand nehmen.
kein Richtiges Raid nur Treiber zeugsl!


so nun hab ich meinen Senf dazu gegeben. ich hoffe jetzt kommt nicht wieder
so ein "Dich ICH-7R onboard SATA-Raid"-Hoschi daher und weiss alles besser :P


cu
s_b

Zidane
02.12.2005, 22:20
so nun hab ich meinen Senf dazu gegeben. ich hoffe jetzt kommt nicht wieder
so ein "Dich ICH-7R onboard SATA-Raid"-Hoschi daher und weiss alles besser :P


cu
s_b

Ich glaube kaum das man auf dem Tyan Board mit AMD-Chipsatz jemals einen Intel-Soft-SATA-I-5-10 Raidcontroller finden wird, wie ebenso unwahrscheinlich ist diesen Controller in einen I-955er bassierenden Platine zu stecken, und vermutlich von den verfügbaren Steckplätzen nicht passen wird, außer mit Hammer und Meißel / Seitenschneider *lol*

ghostadmin
02.12.2005, 23:53
Controller mit Prozessor sind nicht ganz billig vor allem mit Cache und Batterie, unter 350€ geht nicht viel
LSI Logic MegaRAID SCSI 320-1
http://www.geizhals.at/deutschland/a102083.html

LSI Logic MegaRAID SCSI 320-2
http://www.geizhals.at/deutschland/a107849.html

oder man nimmt das Tyan Board mit Onboard SCSI +90€ und macht Software RAID

oder sowas um flexibler zu bleiben
Adaptec SCSI Card 29320A-R bulk, PCI-X 133MHz
http://www.geizhals.at/deutschland/a83916.html

@
>Von Adaptec würde ich abstand nehmen.
>kein Richtiges Raid nur Treiber zeugsl!

guckst du
http://www.adaptec.com/worldwide/product/proddetail.html?sess=no&language=English+US&prodkey=ASR-2200S&cat=%2fTechnology%2fSCSI+(Premium)%2fUltra320+SCSI+PCI+RAID

Duni
02.12.2005, 23:55
Ich sage nur schaut euch alle Grossen Hoster an alle haben Raid 1 Schlussfolgerung ;)

ghostadmin
03.12.2005, 00:21
ein RAID5 Controller mit RISC CPU wäre bei RAID1 Nutzung auch ein bißchen wie Perlen vor die Säue ;)

cruger
03.12.2005, 00:27
ein RAID5 Controller mit RISC CPU wäre bei RAID1 Nutzung auch ein bißchen wie Perlen vor die Säue ;)

vor allem könnte man für die preisdifferenz vermutlich schon wieder zu größeren oder leistungsfähigeren 15k platten greifen ;)

ghostadmin
03.12.2005, 00:58
so wie ich gelesen habe sollen eh 150GB 10K verwendet werden, 15K kosten richtig Asche, doppelt soviel wie 10K

was auch nicht schlecht wäre ist ne SCA Hotplug Schnittstelle, da kosten die Hitachi aber wieder soviel
http://www.geizhals.at/deutschland/a123859.html

als 73GB
http://www.geizhals.at/deutschland/a123861.html

oder günstiger Fujitsu 73GB
http://www.geizhals.at/deutschland/a134317.html

Unterschied zwischen Hitachi IC35 (4.7ns, 146GB) und HUS10 (4.3, 300GB) ist die Zugriffszeit und die mögliche Gesamtgröße

für Hotplug wäre es auch sinnvoll wenn der Controller einen Rebuild on the fly beherrscht, so braucht man nicht booten wenn man eine Platte tauscht und der kann schonmal ein paar Stunden dauern

ghostadmin
03.12.2005, 01:43
habe mal das Datenblatt vom AHA29320 gelesen, ich glaube der unterstützt kein automatisches Rebuild wenn man die Platte wechselt, man muss dann ins Bios gehen und solange dort warten bis der Rebuild beendet ist

aber dieser hier würde das unterstützen
Adaptec ASR-2130SLP/128 bulk, Single Channel U320 SCSI RAID 128MB
http://www.geizhals.at/deutschland/a122016.html

hat dann auch Cache, auch Akku möglich

# Optimized Disk Utilization
# RAID Level Migration
# Online capacity expansion
# Background initialization (for immediate RAID availability)
# S.M.A.R.T. and SAF-TE support
# Hot-swap disk drive support for easy replacement
# Hot-spare disk support with automatic rebuild
# Supports bootable arrays
# SNMP support
# Integrated RAID on Chip - maximizing Ultra 320 performance on each channel

stupid_boy
03.12.2005, 11:31
Jo Adaptec hat auch Raidcontroller aber da hab ich erfahrungen gemacht wie:
- Array einfach verschwunden
- Rebuild von Raid5 ging nich!

und der 29320 hat auch nur ein software Raid wie Promise mit den
ide controllern

LSI hab ich auch schon schlechte erfahrungen gemacht wie:
- Bios stürtzt beim konfigurieren ab
- Controller im direkten vergleich mit ICP langsamer

Problem bei ICP is nur das die von Adaptec übernommen wurden
und die neuesten controller umgelabelte Adaptec sind!



SCA ist Pflicht in so nem Server damit man schnell ne Platte tauschen kann!
Die Backplane is bei den meisten gehäusen schon dabei, kommt halt drauf an
welches gehäuse man verwendet.
Ich verwende meistens Intel chassis für xeons oder supermicro für amd server.
bei billigen gehäusen würde ich aufpassen da die sich teilweise verwinden
oder und wärme verformen (da freut sich der Kunde wenn der Server immer
sporadisch aussetzt:( )

bis denne
s_b

ghostadmin
03.12.2005, 15:13
wir haben über 120 Server mit LSI und Adaptec (Dell PERC 2,3,4) und noch nie ein Problem damit gehabt wenn man weiß mit den Eigenheiten um zu gehen

jedoch kann ich von Mylex Controllern (vor LSI Zeiten) in Fujitsu Servern nichts gutes berichten (gingen recht häufig kaputt), genauso wenig über ICP Vortex (Controller spinnte und auf allen Platten war Müll), das waren aber nur einzelfälle kann schon sein das ICP gut ist aber die sind nicht billig, der günstigste kostet immer noch 500€

Allfred
04.12.2005, 20:10
Ramdisk?
Wie oft wird die dann mit der Harddisk abgeglichen? Sagen wir mal alle 5 Minuten, dann müssten alle 5 Minuten 4GB geschrieben werden. Da freuen sich die Platten.
Gleicht man permanent ab, kann man sich das wohl auch aus Performancegründen sparen.
Und wenn doch mal die Kiste abschmiert, warum auch immer, sind alle Daten die in den Zeitraum entstanden sind weg und die Datenbank wahrscheinlich korrupt.
Neeee, das lassen wir mal besser. Mmmm noch mal ich kleines Licht...

Die Einwände gegen eine RAMDISK sind alle sehr richtig. Folgende Frage/Idee/Einschränkung dennoch: Wenn es sich bei 5GB um eine Datenbank seit Anbeginn von P3D handelt - so ist doch nur ein Bruchteil jünger als 1 Jahr - sagen wir mal ab 31.12.2004. Von diesem Teil würde ich eine Kopie im RAM (RAMDISK) halten. Alle Lesezugriffe (ich schätze mal es sind 75% der Seitenaufrufe + Newsseite) werden von hier aus bedient. Erst wenn ein Post geschrieben wird, wird dieser zunächst schreibend auf dem Raid-Array und anschließend schreibend auf der RAMDISK nötig. Also schreibend ein RAID 1 zwischen HDDs (wie diese auch immer in sich organisiert sein sollten) und der RAMDISK. So kann keine Inkonsistenz aufkommen und selbst bei Stromausfall ist ja alles auf den HDDs. Gibts sowas nicht?

Mailwurm
04.12.2005, 20:17
Mmmm noch mal ich kleines Licht...

Die Einwände gegen eine RAMDISK sind alle sehr richtig. Folgende Frage/Idee/Einschränkung dennoch: Wenn es sich bei 5GB um eine Datenbank seit Anbeginn von P3D handelt - so ist doch nur ein Bruchteil jünger als 1 Jahr - sagen wir mal ab 31.12.2004. Von diesem Teil würde ich eine Kopie im RAM (RAMDISK) halten. Alle Lesezugriffe (ich schätze mal es sind 75% der Seitenaufrufe + Newsseite) werden von hier aus bedient. Erst wenn ein Post geschrieben wird, wird dieser zunächst schreibend auf dem Raid-Array und anschließend schreibend auf der RAMDISK nötig. Also schreibend ein RAID 1 zwischen HDDs (wie diese auch immer in sich organisiert sein sollten) und der RAMDISK. So kann keine Inkonsistenz aufkommen und selbst bei Stromausfall ist ja alles auf den HDDs. Gibts sowas nicht?

Das macht die Datenbanksoftware alles automatisch. Dazu benötigt man keine RAMDISK. Wir bei HT4U haben eine DB in der Größenordnung von einigen Hundert MB und im RAM befinden sich mehrere Abschnitte a 20 MByte. Die älteren Abschnitte werden nur bei Bedarf für Suchfunktionen durchsucht und dafür reicht dann auch der Zugriff von Festplatte.

Tom24
04.12.2005, 23:54
Das macht die Datenbanksoftware alles automatisch. Dazu benötigt man keine RAMDISK. Wir bei HT4U haben eine DB in der Größenordnung von einigen Hundert MB und im RAM befinden sich mehrere Abschnitte a 20 MByte. Die älteren Abschnitte werden nur bei Bedarf für Suchfunktionen durchsucht und dafür reicht dann auch der Zugriff von Festplatte.
Nein ein Commit einer Transaktion in einen Festplattencache reicht einem DBMS nicht aus, um einen Schreibvorgang zu verifizieren. Aus diesem Grund kann man eine batteriegesicherte Ramdisk einsetzen um viele Transaktionen abzufangen und zu bestaetigen, um sie danach nochmal abgesichert in einem Burst eit- und- anfrage-sparend auf Festplatte zu schreiben. Jedoch halte ich sowas bei P3d fuer Quark, da reicht sogar ein DBMS, was eigentlich nichtmal ein richtiges ist, wie MySQL ;D *Streit anzettel*, da macht der Cache alles Noetige.

Mailwurm
05.12.2005, 00:26
Nein ein Commit einer Transaktion in einen Festplattencache reicht einem DBMS nicht aus, um einen Schreibvorgang zu verifizieren. Aus diesem Grund kann man eine batteriegesicherte Ramdisk einsetzen um viele Transaktionen abzufangen und zu bestaetigen, um sie danach nochmal abgesichert in einem Burst eit- und- anfrage-sparend auf Festplatte zu schreiben. Jedoch halte ich sowas bei P3d fuer Quark, da reicht sogar ein DBMS, was eigentlich nichtmal ein richtiges ist, wie MySQL ;D *Streit anzettel*, da macht der Cache alles Noetige.

Da hast Du was falsch verstanden. Unter einer RAMDISK verstehe ich ein virtuelles Laufwerk im Arbeitsspeicher. So hab ich auch die ganzen Vorredner verstanden. Und das ist nicht sinnvoll, da man nur sinnlos Inhalte doppelt im Speicher hat.

Was Du meinst, kenne ich nur unter der Bezeichnung Solid-State-Disk. Allerdings glaube ich nicht, dass der Etat für so etwas reicht und hab auch kein plan wie einfach sich die Integration in ein Linux-System gestaltet.

Nero24.
27.12.2005, 11:39
Hallo allerseits,

so, nachdem die Server-Hardware in den letzten Tagen unter Windows XP x64 seine Stabilität beweisen durfte, ging es heute nun ans Installieren von Linux.

Dabei stieß ich natürlich sofort auf die von einigen hier prophezeiten Probleme mit der Treiberunterstützung für den Adaptec 29320ALP-R als HostRAID. Debian AMD64 erkannte den Controller überhaupt nicht. Mit Ubuntu AMD64 hab ich's dann probiert, das erkannte zumindest den Controller, aber nur die Platten einzeln, nicht das Raid-1. Bei Adaptec wird auch offiziell nur RedHat, SuSe und United Linux *buck* unterstützt - und das auch nur mit "minimally tested" und closed source Treibern.

Ok, hättest Du auf die Community gehört dachte ich mir, rüber zu ICP Vortex. Nachlesen in den Specs für den bei uns in Frage kommenden ICP90x4RO: ebenfalls nur Treibersupport für RedHat, SuSe und United Linux. Dann gleich abgebogen zu IBM. Ebenfalls nur Support für RedHat und SuSe. Daher mal eine Frage am Rande: gibt's überhaupt einen SCSI Controller unter 300 EUR, der unter Linux AMD64 (außer SuSe Enterprise und RedHat "minimally tested") definitiv funktioniert und auch offiziell unterstützt wird?! Ich les immer nur RedHat und SuSe Enterprise... :P

gruenmuckel
27.12.2005, 12:08
Versuch doch den umgekehrten Weg.
Frag auf irgendwelchen Debian und Ubuntu Mailinglists (oder was ähnlichem) nach, was denn überhaupt so unterstützt wird.

Ansonsten, google mal nach "Compaq SMART Array Controller" laut diversen Foren sollen die ganz brauchbar laufen, aber ich kann es mangels Erfahrung schlecht einschätzen.

[MTB]JackTheRipper
27.12.2005, 12:12
Aber es kann doch nicht sein, dass die ganzen Server mit SCSI-Raids nur auf so Enduser Linux Distris richtig laufen... Irgendwie komisch. Gibt's da keine andere Lösung?

Bokill
27.12.2005, 17:28
JackTheRipper;2529747']Aber es kann doch nicht sein, dass die ganzen Server mit SCSI-Raids nur auf so Enduser Linux Distris richtig laufen... Irgendwie komisch. Gibt's da keine andere Lösung? Warum soll das "komisch" sein?

Die ganz grossen Tiere schreiben ja, um welche Distribution es sich handelt, wenn sie schreiben "Linux" auf Wunsch. Sogar AMD schreibt nicht schlicht "Linux", sondern listet die bestimmte Distributoren auf, bei bestimmten Features.

Man mag zwar lästern über die OEM-Kisten, aber genau darin liegt ja der Vorteil. Wenn da was von Anfang an nicht läuft, dann wird Sun, HP, IBM, Fujitsu die Nase langezogen.

MFG Bobo(2005)

NeuerBenutzer
27.12.2005, 19:04
Controller => www.lsilogic.com/products/megaraid_scsi/index.html

Treiber => Enthalten in Kernel ab 2.6.9

PS: Die Controller werden auch von Dell eingesetzt.

PuckPoltergeist
27.12.2005, 20:52
Controller => www.lsilogic.com/products/megaraid_scsi/index.html

Treiber => Enthalten in Kernel ab 2.6.9

PS: Die Controller werden auch von Dell eingesetzt.

Die anständigen Controller dort kosten aber auch gleich wieder ordentlich Schotter. Ich denke mal, 500,- EUR kann man da schon für was Ordentliches einplanen.
Eine Alternative zu einem "dicken" Controller wäre ein Software-RAID (evtl. sogar auf dem Adaptec).

Die Vortex-Controller könnten vom AACRAID-Treiber in den Kernel-Sourcen unterstützt werden. Das gibt mir dann aber auch wiederum zu denken, weil dann von ICP nicht mehr viel auf den Karten enthalten sein dürfte (AACRAID sind die größeren Adaptec-Karten).

Persönlich recht gute Erfahrung habe ich mit dem MegaRAID SCSI 320-2X von LSI. Aber wie schon geschrieben, die kosten dann auch gleich wieder ordentlich Schotter. (~650,-)
Intel baut zwar auch noch Controller, die ziemlich gut sein sollen, und auch von Linux unterstützt werden, aber die dürften noch mehr als die LSI-Teile kosten.

NeuerBenutzer
27.12.2005, 21:08
Persönlich recht gute Erfahrung habe ich mit dem MegaRAID SCSI 320-2X von LSI. Aber wie schon geschrieben, die kosten dann auch gleich wieder ordentlich Schotter. (~650,-)

Laut Geizhals ab ca. 400 € für die 1-Kanal Lösung.


Intel baut zwar auch noch Controller, die ziemlich gut sein sollen, und auch von Linux unterstützt werden, aber die dürften noch mehr als die LSI-Teile kosten.

Die RAID-Controller von Intel sind z. T. baugleich mit ICP-Vortex aus Zeiten wo ICP-Vortex noch zu Intel gehörte.

Nero24.
28.12.2005, 00:22
Hab jetzt einen ICP Vortex GDT8514RZ bestellt, der übermorgen da sein sollte. Diese Serie ist die einzige, wo als Treibersupport auch wirklich allgemein "Linux" angegeben wird, nicht SuSe 9.1 Enterprise oder sowas:
http://www.icp-vortex.com/english/product/pci/rzu320/8514rz_e.htm
Der Adaptec geht zurück. Ein Software-Raid auf OS-Basis kommt einfach nicht in Frage. Schade, unter Windows x64 wäre der 29320ALP-R so gut gelaufen :P

Blutschlumpf
28.12.2005, 01:47
Dann lass Windows64 drauf und pack das Linux in ne VM-Ware ;)

gruenmuckel
28.12.2005, 01:51
Hab jetzt einen ICP Vortex GDT8514RZ bestellt, der übermorgen da sein sollte. Diese Serie ist die einzige, wo als Treibersupport auch wirklich allgemein "Linux" angegeben wird, nicht SuSe 9.1 Enterprise oder sowas:
http://www.icp-vortex.com/english/product/pci/rzu320/8514rz_e.htm
Der Adaptec geht zurück. Ein Software-Raid auf OS-Basis kommt einfach nicht in Frage. Schade, unter Windows x64 wäre der 29320ALP-R so gut gelaufen :P
Wäre nicht die (+) Version mit der BBU sinnvoll?
Oder vertraut ihr darauf das die USVs des Hosters funktionieren?

NeuerBenutzer
28.12.2005, 01:59
Wäre nicht die (+) Version mit der BBU sinnvoll?
Oder vertraut ihr darauf das die USVs des Hosters funktionieren?

Wenn der Cache als Nur-Lese-Cache konfiguriert ist braucht man keine Batterie.

Nero24.
28.12.2005, 12:17
Dann lass Windows64 drauf und pack das Linux in ne VM-Ware ;) Wenn, dann hätte ich gleich Windows x64 draufgelassen und damit gearbeitet. Apache, PHP, MySQL etc. gibt's ja alles auch für Windows. Wenn ich die Vollversion von x64 hier gehabt hätte, nicht nur die 180-Tage-Trial, dann würde der Server nach dem ganzen Ärger mit dem Raid bereits als Windows-Server in Frankfurt stehen )(( Da ich aber x64 auch erst kaufen müsste, geh ich dann doch lieber den Weg, einen "echten" Raid-Controller zu nehmen und Linux zu verwenden. Mir persönlich wäre zwar Windows bedeutend lieber gewesen, da ich das kenne wie meine Westentasche, aber aus verschiedenen Gründen setze ich lieber kein Windows als OS für unseren Webserver ein ;) Nicht weil ich Windows nicht vertrauen würde, vielmehr scheue ich mich vor der "Publikumsreaktion" falls es tatsächlich irgendjemandem mal gelingen sollte, den Server zu hacken. "Wie kann man nur Windows als OS einsetzen! Das musste ja so kommen. Volld*pp!" *suspect* Wird dagegen ein Linux-Server gehackt, fallen die Reaktionen in der Regel gemäßigter aus. "Da muss wohl irgendwo eine relativ unbekannte Sicherheitslücke gewesen sein, die jemand arglistig ausgenutzt hat. Wer konnte das ahnen..." ;)

Alternativ dazu hätte es natürlich auch noch die Möglichkeit gegeben, mit dem Adaptec ein Software-Raid zu machen. Ubuntu, FreeBSD, Knoppix und Fedora (hab ich alle in den letzten 2 Tagen heruntergeladen und probiert *buck*) hätten den Adaptec ja erkannt, aber halt eben nur den SCSI-Controller, nicht das HostRAID. Aber ein Soft-Raid auf OS-Basis ist einfach nicht das, was ich mir bei einem solchen Server unter "Sicher" vorstelle.

Morgen soll der ICP Vortex kommen. Dann haben wir zwar wieder einen Intel-Prozessor im Planet 3DNow! Server (auf dem Raid-Controller werkelt ein Intel-Chip :P), aber die AMD-CPUs sind zumindest noch in der Überzahl ;D

PuckPoltergeist
28.12.2005, 12:59
Hab jetzt einen ICP Vortex GDT8514RZ bestellt, der übermorgen da sein sollte.

Hab mal nachgesehen, der Treiber, welcher für diese Karten angeboten wird, ist der selbe, welcher sich auch in den kernel-sourcen befindet. Der Treiber auf der ICP-Website scheint dabei auch etwas älter zu sein. Die GDT8x14RZ wird zwar in den sourcen nicht explizit aufgeführt, aber ich gehe mal davon aus, dass der trotzdem funktioniert, wenn der Treiber dafür angeboten wird.
Als "Problem" sehe ich jetzt höchstens erstmal, dass Debian zu alt ist, und deshalb noch keinen Kernel hat, der den Controller unterstützt. Dann müsstet ihr temporär erstmal eine IDE-Platte reinhängen, ein Basis-System darauf installieren, um den Kernel zu updaten. Wenn dann das RAID erkannt wird, könnt ihr die Installation darauf umziehen lassen. Kostet zwar etwas Zeit, ist aber nicht wirklich kompliziert. ;D

PS: Die RAIDYNE-Karten scheinen noch aus der Zeit zu sein, in der ICP noch zu Intel gehörte. Von damals haben die eigentlich ihren guten Ruf (den Adaptec jetzt wahrscheinlich kaputt macht :()

PuckPoltergeist
28.12.2005, 13:09
Nicht weil ich Windows nicht vertrauen würde, vielmehr scheue ich mich vor der "Publikumsreaktion" falls es tatsächlich irgendjemandem mal gelingen sollte, den Server zu hacken. "Wie kann man nur Windows als OS einsetzen! Das musste ja so kommen. Volld*pp!" *suspect* Wird dagegen ein Linux-Server gehackt, fallen die Reaktionen in der Regel gemäßigter aus. "Da muss wohl irgendwo eine relativ unbekannte Sicherheitslücke gewesen sein, die jemand arglistig ausgenutzt hat. Wer konnte das ahnen..." ;)


Also das ist Blödsinn. Wenn man sich mit einem System nicht auskennt, ist die Gefahr niemals zu unterschätzen, dass es kompromittiert wird. Das hat nix mit Linux oder Windows zu tun, die wollen beide ordentlich administriert werden.
Ich habe allerdings die Erfahrung gemacht, dass die Lücken in Windows meist gravierender sind und schneller ausgenutzt werden (zumeist automatisch mit Würmern etc.). Wenn du eine Linuxinstallation aber nicht anständig administrierst, kannst du davon ausgehen, dass die dir genauso gehackt wird.



Alternativ dazu hätte es natürlich auch noch die Möglichkeit gegeben, mit dem Adaptec ein Software-Raid zu machen. Ubuntu, FreeBSD, Knoppix und Fedora (hab ich alle in den letzten 2 Tagen heruntergeladen und probiert *buck*) hätten den Adaptec ja erkannt, aber halt eben nur den SCSI-Controller, nicht das HostRAID. Aber ein Soft-Raid auf OS-Basis ist einfach nicht das, was ich mir bei einem solchen Server unter "Sicher" vorstelle.


Das hat nix mit Sicher zu tun. Die Sicherheit ist bei Hard- wie SoftwareRAID praktisch gleich. Bei SoftwareRAID hast du sogar den Vorteil, dass du an die Daten sehr leicht wieder ran kommst, auch wenn die Hardware (der Controller) kaputt ist. Dann kannst du die Platten einfach in einen anderen Rechner stöpseln. Wenn dir ein HardwareRAID die Füße hebt, brauchst du einen exakt gleichen Controller, um die Daten wieder zu bekommen. Die Hardware-Lösung hat aber den Vorteil, dass sie meist performanter ist, und die CPU deutlich entlastet (ok, beim RAID1 nicht so sehr).



Morgen soll der ICP Vortex kommen. Dann haben wir zwar wieder einen Intel-Prozessor im Planet 3DNow! Server (auf dem Raid-Controller werkelt ein Intel-Chip :P), aber die AMD-CPUs sind zumindest noch in der Überzahl ;D

Also wenn der Adaptec keine Intel-CPU hat, ist es auch kein richtiger RAID-Controller, sondern genauso eine Software-Lösung wie z.B. HighPoint oder Promise. Ich kenne keinen Hardware-Controller, der ne andere CPU als die Intel-Mips oder XScale drauf hat.

Nero24.
28.12.2005, 14:13
Also das ist Blödsinn. Wenn man sich mit einem System nicht auskennt, ist die Gefahr niemals zu unterschätzen, dass es kompromittiert wird. Das hat nix mit Linux oder Windows zu tun, die wollen beide ordentlich administriert werden. [..] Wenn du eine Linuxinstallation aber nicht anständig administrierst, kannst du davon ausgehen, dass die dir genauso gehackt wird.Logisch ist das so. Ich hab auch nicht davon gesprochen, dass Windows leichter zu hacken ist als Linux, sondern davon, was die Allgemeinheit für ein Bild davon hat WENN es passiert und was sich derjenige, der die Entscheidung getroffen hat, dann anzuhören hat.

Also wenn der Adaptec keine Intel-CPU hat, ist es auch kein richtiger RAID-Controller, sondern genauso eine Software-Lösung wie z.B. HighPoint oder Promise. Ich kenne keinen Hardware-Controller, der ne andere CPU als die Intel-Mips oder XScale drauf hat. Natürlich ist der Adaptec 29320ALP-R kein Hardware-Raid Controller. Für 250 EUR bekommst Du keinen Hardware-SCSI-Raid Controller. ;) Da wir uns irgendwo vor 20 Seiten gegen ein Raid-5 und für ein Raid-1 entschieden hatten, war ein Hardware-Controller nicht mehr nötig. Die CPU-Last unter Windows bei Raid-1 mit HD Tach lag bei exakt 0% - noch weniger geht wohl kaum 8) Aber was hilft's wenn kein Linux das HostRAID, welches das Adaptec-BIOS zusammengeschustert hat, als solches erkennt? Und Linux auf einem Software-Raid zu installieren, ist soweit ich weiß nicht möglich. Also hätten wir noch eine dritte Platte im System gebraucht, die dann wiederum keinerlei Fehlertoleranz gehabt hätte. Wenn die Platte kaputt geht, muss das OS neu aufgesetzt werden (oder von einer vierten Platte als Image zurückgespielt werden). Liegen sowohl OS, als auch Daten auf dem Raid, kommt man mit zwei Platten aus und es muss nur die defekte Platte getauscht werden und weiter geht's (egal ob mit Hardware-Raid oder HostRaid).

PuckPoltergeist
28.12.2005, 14:21
Und Linux auf einem Software-Raid zu installieren, ist soweit ich weiß nicht möglich.

Doch, das geht. Ist aber mit recht viel Aufwand verbunden, wenn man es selber machen will oder muss, weil z.B. die gewünschte Distri es nicht von Haus aus unterstützt.

ghostadmin
28.12.2005, 14:31
ach kann man das bei / nicht nachträglich machen? Das wäre ja doof, bei RAID1 muss man ja nur die eine Platte auf die andere spiegeln

PuckPoltergeist
28.12.2005, 14:42
ach kann man das bei / nicht nachträglich machen? Das wäre ja doof, bei RAID1 muss man ja nur die eine Platte auf die andere spiegeln

Da sich dadurch der Partitionstyp ändert, nein, das geht nicht so ohne weiteres.

tomturbo
29.12.2005, 09:18
Da sich dadurch der Partitionstyp ändert, nein, das geht nicht so ohne weiteres.

Falsch! Das geht ganz leicht, weil Du nur mit fdisk oder cfdisk Änderungen machst die entweder nach umount/mount oder reboot wirken. Solange Du die Größen der Partitionen nicht änderst, ist es absolut kein Problem den Partitionstyp zu ändern.

Nochwas zu software raid. Es ist überhaupt kein Problem Linux bereits mit dem richtigen Partitionstyp (raid autodetect) zunächst auf einer Platte zu installieren. Danach kann man nach dem reboot die zweite Platte dazunehmen und voila schon funkts.

Ich hasse mich zu wiederholen aber leider habt Ihr Euch für debian entschieden und da geht das alles mühsam was nicht null-acht-fünfzehn Standard ist. Mit z.B. Gentoo oder Suse ists überhaupt kein Problem, weil die bootdisken software raid voll unterstützen.

lg
tom

ghostadmin
29.12.2005, 12:14
Falsch! Das geht ganz leicht, weil Du nur mit fdisk oder cfdisk Änderungen machst die entweder nach umount/mount oder reboot wirken. Solange Du die Größen der Partitionen nicht änderst, ist es absolut kein Problem den Partitionstyp zu ändern.

Nochwas zu software raid. Es ist überhaupt kein Problem Linux bereits mit dem richtigen Partitionstyp (raid autodetect) zunächst auf einer Platte zu installieren. Danach kann man nach dem reboot die zweite Platte dazunehmen und voila schon funkts.

Ich hasse mich zu wiederholen aber leider habt Ihr Euch für debian entschieden und da geht das alles mühsam was nicht null-acht-fünfzehn Standard ist. Mit z.B. Gentoo oder Suse ists überhaupt kein Problem, weil die bootdisken software raid voll unterstützen.

lg
tom

ich habe Suse 10.0, kannst du mir beschreiben wie das mit / funktioniert? Ich habe im "Alternativ" Forum einen Thread offen (RAID)

über Yast kann man nur Reiser erstellen, selbst wenn man was anderes auswählt wird immer Reiser verwendet

ich habe mit parted den Partitionstyp auf 0xFD eingestellt und ich vermute das man damit bereits die Daten verliert

raidtab und fstab habe ich eben noch geändert

ich glaube was fehlt ist, ein Kommando um das Raid anzulegen

PuckPoltergeist
29.12.2005, 15:48
Falsch! Das geht ganz leicht, weil Du nur mit fdisk oder cfdisk Änderungen machst die entweder nach umount/mount oder reboot wirken. Solange Du die Größen der Partitionen nicht änderst, ist es absolut kein Problem den Partitionstyp zu ändern.

Nochwas zu software raid. Es ist überhaupt kein Problem Linux bereits mit dem richtigen Partitionstyp (raid autodetect) zunächst auf einer Platte zu installieren. Danach kann man nach dem reboot die zweite Platte dazunehmen und voila schon funkts.

Ich hasse mich zu wiederholen aber leider habt Ihr Euch für debian entschieden und da geht das alles mühsam was nicht null-acht-fünfzehn Standard ist. Mit z.B. Gentoo oder Suse ists überhaupt kein Problem, weil die bootdisken software raid voll unterstützen.

lg
tom

Ich meinte zwar nicht die Umstellung des Partitionstyps, sondern der Umbau beim Reboot, aber du hast trotzdem Recht. Das eigentliche Problem dabei ist der Umgang mit der root-Partition auf dem RAID. Man muss da halt ein paar Kleinigkeiten beachten. An sich ist es aber kein wirkliches Problem.

PuckPoltergeist
29.12.2005, 16:14
Ich habe gerade mal etwas gestöbert. Theoretisch wäre es wohl sogar möglich gewesen, mit dem Adaptec das RAID aufzuziehen. Da wäre dann dmraid für zuständig gewesen, welches wohl vor kurzem einen patch erhalten hat, um auch mit den Adaptec-Teilen umgehen zu können. Wäre allerdings eine böse "Frickelei" geworden, erst recht mit Debian.

tomturbo
29.12.2005, 17:23
ich habe Suse 10.0, kannst du mir beschreiben wie das mit / funktioniert? Ich habe im "Alternativ" Forum einen Thread offen (RAID)


Done!

lg
tom

Nero24.
29.12.2005, 17:24
Der ICP Vortex ist heute gekommen, buildet gerade das Raid 1 (3:40 Stunden veranschlagt :P)

tomturbo
29.12.2005, 17:25
Ich habe gerade mal etwas gestöbert. Theoretisch wäre es wohl sogar möglich gewesen, mit dem Adaptec das RAID aufzuziehen. Da wäre dann dmraid für zuständig gewesen, welches wohl vor kurzem einen patch erhalten hat, um auch mit den Adaptec-Teilen umgehen zu können. Wäre allerdings eine böse "Frickelei" geworden, erst recht mit Debian.

dmraid IST "Frickelei" und was ich so gelesen habe, soll dieses Modul aus dem Kernel verschwinden. Ich glaube das stand im Linuxmagazin.

lg
tom

PuckPoltergeist
29.12.2005, 17:31
dmraid IST "Frickelei" und was ich so gelesen habe, soll dieses Modul aus dem Kernel verschwinden. Ich glaube das stand im Linuxmagazin.

lg
tom

Ich glaube, du verwechselst das gerade mit dem ataraid-Treiber im Kernel. Der ist in der Tat rausgeflogen, und wurde durch device-mapper + dmraid ersetzt.
dmraid arbeitet selber komplett im userspace und ermöglicht die Zugriffe auf Soft-RAIDs, die mit solchen Controllern wie Promise oder HighPoint erstellt wurden. Ist halt für Leute, die Linux und Windows parallel betreiben, und der Meinung sind, sich ein Software-RAID halten zu müssen.

http://people.redhat.com/~heinzm/sw/dmraid/readme (http://people.redhat.com/~heinzm/sw/dmraid/readme)
Da kannst du genau nachlesen, was das für Zeuchs ist. ;)

tomturbo
29.12.2005, 17:41
Ich glaube, du verwechselst das gerade mit dem ataraid-Treiber im Kernel. Der ist in der Tat rausgeflogen, und wurde durch device-mapper + dmraid ersetzt.


Ja, genau, das wars. Danke für die Berichtigung.

tom

Lord_Melchor
29.12.2005, 19:18
Hi

vieleicht kann mir hier jemand erklären was der Unterschied zwischen Soft- und Hardware Raid ist. Vorteile und Nachteile. Würde mich interessieren um das alles besser verstehen zu können.

MfG

tomturbo
29.12.2005, 20:20
Hi

vieleicht kann mir hier jemand erklären was der Unterschied zwischen Soft- und Hardware Raid ist. Vorteile und Nachteile. Würde mich interessieren um das alles besser verstehen zu können.

MfG

Bei software raid übernimmt das Betriebsystem die Raidfunktionalität.

Bei HW Raid macht das der Controller bzw. dessen Firmware. Vom Betriebsystem ist das raidset als ganz normales device zu sehen.

Vorteil software raid: Kontrollerunabhängig, "billiger" (bei der Anschaffung)
Nachteil software raid: komplizierter auf zu setzen

Vorteil Hardware-raid: leicht auf zu setzen
Nachteil Hardware-raid: abhängig vom Kontroller (wenn der eingeht ist das raid set auf einem anderen Kontroller unter Umständen gar nicht mehr zu lesen), "teurer" (zumindest die Anschaffung)

Den Nachteil der CPU-Belastung von Software Raid ist heutzutage bei den GHz der CPU's nicht mehr relevant, meiner Meinung nach (Performance Tests bestätigen das auch tlw.)

lg
tom

PuckPoltergeist
29.12.2005, 20:34
Den Nachteil der CPU-Belastung von Software Raid ist heutzutage bei den GHz der CPU's nicht mehr relevant, meiner Meinung nach (Performance Tests bestätigen das auch tlw.)


Das kommt darauf an. Wenn der Rechner stark belastet ist, kann sich ein Hardware-RAID deutlich positiv bemerkbar machen. Die Daten landen dann vielleicht auch nicht schneller auf den Platten als bei einer Software-Lösung, aber der Rechner hat dann mehr Ressourcen für andere Aufgaben frei.

tomturbo
29.12.2005, 22:43
Das kommt darauf an. Wenn der Rechner stark belastet ist, kann sich ein Hardware-RAID deutlich positiv bemerkbar machen. Die Daten landen dann vielleicht auch nicht schneller auf den Platten als bei einer Software-Lösung, aber der Rechner hat dann mehr Ressourcen für andere Aufgaben frei.

Naja, aber ehrlich. Wenn der Server CPU-mässig so stark ausgelastet ist, dann stimmt was mit der Dimensionierung der CPU's nicht, oder es muss ein neuer Server her ;)

lg
tom

gruenmuckel
29.12.2005, 23:17
Ein Hardware-Raid kannst du problemlos auf ein anderes Board portieren.
Bei einem Softwareraid geht das nicht so einfach.
Da startet das OS auf dem neuen Board u.U. erst gar nicht...

Die richtig paranoiden legen sich nen zweiten identischen Controller auf Halde falls der in 5 Jahren abraucht und nicht mehr zu bekommen ist.

Nunja, "unseren" Controller können wir ja in 3 Jahren günstig bei ebay schießen und auf Halde legen, für den Fall der Fälle.

PuckPoltergeist
29.12.2005, 23:24
Ein Hardware-Raid kannst du problemlos auf ein anderes Board portieren.
Bei einem Softwareraid geht das nicht so einfach.
Da startet das OS auf dem neuen Board u.U. erst gar nicht...


Also das Problem sehe ich bei Linux zu allerletzt. Das Board, auf dem eine LiveCD nicht bootet, musst du mir erstmal zeigen. Und wenn du irgendwann mal eins gefunden hast, weise ich dich lediglich dezent darauf hin, dass es noch Unmengen anderer Boards gibt, die garantiert laufen. ;D

gruenmuckel
29.12.2005, 23:28
Was hat denn das mit einer LiveCD zu tun?
Bei uns liegen OS und Datenbank auf einem Raid.

Muss das irgendwann mal auf ein anderes Board umziehen (was dann wohl nen anderen Chipsatz hat) will ich kein Treibergesteuertes Softwareraid haben.

Ne, wirklich nicht.

PuckPoltergeist
29.12.2005, 23:34
Du komms immer wieder an die Daten ran, wenns sein muss, halt mit ner LiveCD. Ich habe Linux-Installationen schon über mehr als ein Board hinweg umziehen lassen, ist nicht wirklich ein Problem. Auch ein Software-RAID stört da nicht wirklich. Mag ja sein, dass andere Betriebssysteme bei sowas rumzicken. Mit Linux tut sowas nicht weh. ;D
Da ist ein Hardware-RAID mit speziellem Controller viel schlimmer, falls der mal kaputt gehen sollte. Dann kommst du nämlich erstmal nicht mehr an deine Daten ran.

gruenmuckel
29.12.2005, 23:40
Falls nicht ein Treiberupdate das Raid killt, oder falls der Controller plötzlich nicht mehr mit dem neuen Kernel/Treiber läuft...
Oder irgendwas greift auf einen vom Controllertreiber belegten Speicherbereich zu. -> Bumm.

Kommt ja bei Linux schon mal vor das mit neuem Kernel Sachen nicht mehr gehen die vorher gingen...
Da gabs doch mal vor 2-3 Jahren was mit AudioCDs, DMA und Brennern wenn ich mich nicht irre...
;)

Ausserdem:
Im Falle dass das Board stirbt, sollte es schnell gehen. Anderes Board rein, Controller reinstecken wäre das beste. Erst noch mit ner LiveCD die Daten irgendwie vom Raid kratzen nachdem man erst nen funktionierenden Treiber auftreiben muss usw, ist ein viel höherer Aufwand.

Es hat schon seine Gründe warum professionelle Controller ne eigene CPU und RAM haben und warum die SoHo-Teile das nicht haben (müssen).

ghostadmin
29.12.2005, 23:45
meint ihr jetzt Raid0 und 5 oder?

bei Raid1 wird doch eigentlich 1:1 gespiegelt auch bei Software, was ist da so gefährlich?

gruenmuckel
29.12.2005, 23:48
meint ihr jetzt Raid0 und 5 oder?

bei Raid1 wird doch eigentlich 1:1 gespiegelt auch bei Software, was ist da so gefährlich?
Es geht nicht um verschiedene Raidlevel.

Raids haben allerdings generell das Sicherheitsproblem das sie nicht sicher sind wie viele Denken.
Ein Fehler der sich einschleicht (wegen defektem Ram, Virus usw.) schlägt direkt auf alle Platten durch, also auf das gesamte Raid.

Backup gehört also immer dazu.

PuckPoltergeist
29.12.2005, 23:52
Falls nicht ein Treiberupdate das Raid killt, oder falls der Controller plötzlich nicht mehr mit dem neuen Kernel/Treiber läuft...
Oder irgendwas greift auf einen vom Controllertreiber belegten Speicherbereich zu. -> Bumm.

Kommt ja bei Linux schon mal vor das mit neuem Kernel Sachen nicht mehr gehen die vorher gingen...
Da gabs doch mal vor 2-3 Jahren was mit AudioCDs, DMA und Brennern wenn ich mich nicht irre...
;)


Also die Argumente sind an den Haaren herbei gezogen. Ein Software-RAID ist unter Linux in Sachen Ausfallsicherheit (Controller, Board) deutlich sicherer als eine Hardware-Lösung, weil man bei einem Software-RAID mit größerer Wahrscheinlichkeit wieder an die Daten kommt.

Was du da mit DMA und CDDA anführst war das Problem von Linux, früher nur bei bestimmten Blockgrößen DMA zu unterstützen. Bei Daten-CDs hat das hingehauen, bei Audio-CDs nicht. Hat nix mit "plötzlich geht nix mehr" zu tun.



Ausserdem:
Im Falle dass das Board stirbt, sollte es schnell gehen. Anderes Board rein, Controller reinstecken wäre das beste. Erst noch mit ner LiveCD die Daten irgendwie vom Raid kratzen nachdem man erst nen funktionierenden Treiber auftreiben muss usw, ist ein viel höherer Aufwand.


Das funktioniert doch aber auch nur, wenn man einen Ersatz-Controller schon liegen hat. Muss man erstmal einen besorgen, steht die Kiste auch erstmal ne Weile. In der Zeit, in der du einen neuen Controller besorgst, bring ich die Installation auf dem Ersatzboard dreimal wieder zum laufen.
(Ja ich weiß, auch das Board will erstmal besorgt sein.)



Es hat schon seine Gründe warum professionelle Controller ne eigene CPU und RAM haben und warum die SoHo-Teile das nicht haben (müssen).

Das hat eher was mit Kostengründen zu tun, und teilweise mit dem Administrationsaufwand. Ausserdem stammt der zusätzliche Prozessor auf der Controller-Karte noch aus der Zeit, in der das zwingend notwendig war, weil die CPU für sowas zu schwach auf der Brust war.

PuckPoltergeist
29.12.2005, 23:57
Es geht nicht um verschiedene Raidlevel.

Raids haben allerdings generell das Sicherheitsproblem das sie nicht sicher sind wie viele Denken.
Ein Fehler der sich einschleicht (wegen defektem Ram, Virus usw.) schlägt direkt auf alle Platten durch, also auf das gesamte Raid.

Backup gehört also immer dazu.

Das ist doch schon wieder eine ganz andere Baustelle. RAID ist einerseits für einen Geschwindigkeitszuwachs zuständig, und schützt andererseites bedingt vor Datenverlust und Rechnerausfall bei Festplattenausfällen. Alles andere ist nicht Aufgabe eines RAIDs.

gruenmuckel
30.12.2005, 00:08
Das ist doch schon wieder eine ganz andere Baustelle. RAID ist einerseits für einen Geschwindigkeitszuwachs zuständig, und schützt andererseites bedingt vor Datenverlust und Rechnerausfall bei Festplattenausfällen. Alles andere ist nicht Aufgabe eines RAIDs.

Natürlich ist das eine andere Baustelle ich habe Ghostadmin geantwortet.


Also die Argumente sind an den Haaren herbei gezogen. Ein Software-RAID ist unter Linux in Sachen Ausfallsicherheit (Controller, Board) deutlich sicherer als eine Hardware-Lösung, weil man bei einem Software-RAID mit größerer Wahrscheinlichkeit wieder an die Daten kommt.

Was du da mit DMA und CDDA anführst war das Problem von Linux, früher nur bei bestimmten Blockgrößen DMA zu unterstützen. Bei Daten-CDs hat das hingehauen, bei Audio-CDs nicht. Hat nix mit "plötzlich geht nix mehr" zu tun.



Das funktioniert doch aber auch nur, wenn man einen Ersatz-Controller schon liegen hat. Muss man erstmal einen besorgen, steht die Kiste auch erstmal ne Weile. In der Zeit, in der du einen neuen Controller besorgst, bring ich die Installation auf dem Ersatzboard dreimal wieder zum laufen.
(Ja ich weiß, auch das Board will erstmal besorgt sein.)



Das hat eher was mit Kostengründen zu tun, und teilweise mit dem Administrationsaufwand. Ausserdem stammt der zusätzliche Prozessor auf der Controller-Karte noch aus der Zeit, in der das zwingend notwendig war, weil die CPU für sowas zu schwach auf der Brust war.

An den Haaren herbeigezogen ist es mitnichten.
Was ist wahrscheinlicher? Ein Ausfall von Board oder von Controller?
Ich schrieb oben schon das es optimal wäre einen identischen Controller vorzuhalten. Sollten wir vielleicht auch überlegen, aber da kann man schon das kalkulierte Risiko eingehen den vielleicht in 2-3 Jahren günstig irgendwo abzustauben.

Im Dauerbetrieb sind Controller nun mal haltbarer als Boards.


War es nicht so, dass das Brennen von AudioCDs erst eine Zeit lang funktioniert hat und dann mit einer neuen Kernelversion nicht mehr mit DMA, was dann längere Zeit so blieb bis es einige Versionen später endlich gefixt wurde?
Habe mich da nicht so drum gekümmert, nur ein wenig über die Komanndozeilenjunkies gegrinst die mir immer cdrecord als das Nonplusultra anpriesen, aber bei Audiocds immer lecker Bufferunderruns bekamen...
War schon lustig, damals..s
;)
Wird aber langsam OT, glaube ich. ;)

PuckPoltergeist
30.12.2005, 00:14
An den Haaren herbeigezogen ist es mitnichten.
Was ist wahrscheinlicher? Ein Ausfall von Board oder von Controller?
Ich schrieb oben schon das es optimal wäre einen identischen Controller vorzuhalten. Sollten wir vielleicht auch überlegen, aber da kann man schon das kalkulierte Risiko eingehen den vielleicht in 2-3 Jahren günstig irgendwo abzustauben.

Im Dauerbetrieb sind Controller nun mal haltbarer als Boards.


Ich will mich jetzt nicht mit dir darüber streiten, was länger hält, Board oder Controller. Ich habe keine Daten diesbezüglich, und ohne macht es wenig Sinn zu spekulieren.
Ist aber auch ganz egal, denn es ging ja eigentlich ursprünglich auch darum, dass du einem Software-RAID deine Daten nicht anvertrauen würdest, wegen Datensicherheit, sprich hinterher wieder ran zu kommen. Und da ist halt eine Softwarelösung deutlich besser als ein Hardware-RAID.



War es nicht so, dass das Brennen von AudioCDs erst eine Zeit lang funktioniert hat und dann mit einer neuen Kernelversion nicht mehr mit DMA, was dann längere Zeit so blieb bis es einige Versionen später endlich gefixt wurde?
Habe mich da nicht so drum gekümmert, nur ein wenig über die Komanndozeilenjunkies gegrinst die mir immer cdrecord als das Nonplusultra anpriesen, aber bei Audiocds immer lecker Bufferunderruns bekamen...
War schon lustig, damals..s
;)
Wird aber langsam OT, glaube ich. ;)

Nope, was du meinst ist die leidige Geschichte mit dem ide-scsi Treiber. Damals ging brennen mit ATAPI-Geräten nicht, die wurden über den ide-scsi Treiber angesprochen. Und genau dieses ide-scsi Teil war ein riesiger Würg-Around im Kernel, der eben auch DMA nur mit bestimmten Blockgrößen konnte. Das wurde dann recht großflächig umgekrempelt, und jetzt werden ATAPI Geräte direkt angesprochen, auch beim Brennen.

Nero24.
30.12.2005, 12:47
Hm, also ich hab gestern den ICP Vortex Controller installiert und über Nacht erst einmal nochmal mit meinen Windows-Stabilitätstests laufen lassen, um sicher zu gehen, dass der Controller in Ordnung ist.

Allerdings muss ich ganz ehrlich sagen, dass ich von der Performance des Controllers doch ziemlich enttäuscht bin. Hier mal ein Vergleich (beide im Raid-1 unter Windows x64):

Adaptec 29320ALP-R (kein eigener Prozessor, kein eigenes RAM)
HD Tach Burst: 240 MB/s
HD Tach Average: 59 MB/s
HD Tach CPU-Last: 0%
Sandra HDD Index: 65 MB/s

ICP Vortex GDT8514RZ (eigener Prozessor, 128 MB ECC SDRAM)
HD Tach Burst: 125 MB/s
HD Tach Average: 51 MB/s
HD Tach CPU-Last: 3%
Sandra HDD Index: 51 MB/s

Von einem Controller mit eigenem Prozessor und eigenem RAM (und dreifachem Preis) hätte ich doch erwartet, dass er dem Low-Cost Adaptec zumindest ebenbürtig ist :( Ok, sind synthetische Tests, aber trotzdem...

Naja, egal. Zumindest erkennt Linux den ICP Vortex auf Anhieb ;D Jetzt geht's anschließend ans Eingemachte :)

mtb][sledgehammer
30.12.2005, 13:50
Man könnte ja jetzt böse schreiben: "Was erwartest du auch von einem Intel Chip?" ;D

Aber das will ich mal lassen. So wie ich das sehe wirken sich bei den sythetischen Tests einfach zusätzliche Caches eher negativ auf die Performance aus, weil sie entweder a) langsamer als die ohnehin in den Platten integrierte Caches sind oder b) für die Datenmengen der Tests noch zu klein sind. Das lässt mich nur hoffen, dass die P3D Datenbank etwas besser vom zusätzlichen Speicher profitiert.

Ganz und gar nicht erklärlich ist für mich die zusätzliche CPU Last *noahnung*

i_hasser
30.12.2005, 13:55
Miss das mal mit IOMeter, der sollte auch realistisch simulieren was auf den Server zukommt.

PuckPoltergeist
02.01.2006, 20:47
Hm, also ich hab gestern den ICP Vortex Controller installiert und über Nacht erst einmal nochmal mit meinen Windows-Stabilitätstests laufen lassen, um sicher zu gehen, dass der Controller in Ordnung ist.

Allerdings muss ich ganz ehrlich sagen, dass ich von der Performance des Controllers doch ziemlich enttäuscht bin. Hier mal ein Vergleich (beide im Raid-1 unter Windows x64):

Adaptec 29320ALP-R (kein eigener Prozessor, kein eigenes RAM)
HD Tach Burst: 240 MB/s
HD Tach Average: 59 MB/s
HD Tach CPU-Last: 0%
Sandra HDD Index: 65 MB/s

ICP Vortex GDT8514RZ (eigener Prozessor, 128 MB ECC SDRAM)
HD Tach Burst: 125 MB/s
HD Tach Average: 51 MB/s
HD Tach CPU-Last: 3%
Sandra HDD Index: 51 MB/s

Von einem Controller mit eigenem Prozessor und eigenem RAM (und dreifachem Preis) hätte ich doch erwartet, dass er dem Low-Cost Adaptec zumindest ebenbürtig ist :( Ok, sind synthetische Tests, aber trotzdem...

Naja, egal. Zumindest erkennt Linux den ICP Vortex auf Anhieb ;D Jetzt geht's anschließend ans Eingemachte :)

Wie hast du den ICP denn konfiguriert (Cluster-Größe, Cache etc.)? Da kannst du sehr viel verhunzen bzw. rausholen.

Nero24.
03.01.2006, 12:05
Hi,

der Write-Cache ist auf Enabled, die Clustergröße ist genau wie beim Adaptec auf 64K

PuckPoltergeist
03.01.2006, 14:06
Dann sind die Daten in der Tat merkwürdig. Habt ihr auch mal unter Linux gemessen (hdparm, dd, bonnie++, iozone...)?

Nero24.
03.01.2006, 21:07
hdparm zeigt 63 MB/s an. Alles andere hab ich unter Linux noch nicht probiert, da mir hier auch die Vergleichswerte fehlen.

Aber momentan ist es auch noch ziemlich egal, da die 4 GB groß genug sind, um die ständig benutzten Files im Cache halten zu können. :) Wenn das irgendwann nicht mehr reicht, kann man immer noch überlegen, ob man aus dem Raid-1 ein Raid-10 macht oder ob es nicht besser wäre, auf 8 GB RAM aufzurüsten.

Tom24
03.01.2006, 23:22
Aber momentan ist es auch noch ziemlich egal, da die 4 GB groß genug sind, um die ständig benutzten Files im Cache halten zu können. :) Wenn das irgendwann nicht mehr reicht, kann man immer noch überlegen, ob man aus dem Raid-1 ein Raid-10 macht oder ob es nicht besser wäre, auf 8 GB RAM aufzurüsten.
MySQL behaelt kaum Daten im Cache und verlaesst sich da auf die FS Puffer. Welche wiederum besorgt sind das alles auf die Platten zu bekommen. Anschliessend werden bei jedem Commit die Buffer geflushed, Ergebnis: Festplattenzugriffe und die relevanten Daten sind nicht im Ram. Nachgeladen wird vor der naechsten Anfrage nichts.

So oder so wirst du um die I/O nicht herumkommen, egal wieviel Ram zur Verfuegung steht.

Nero24.
04.01.2006, 00:46
Bist Du Dir da sicher? Nach einem kompletten DB-Search ist der Plattencache satte 3,3 GB groß und wird auch nicht mehr kleiner.

Tom24
04.01.2006, 01:01
Bist Du Dir da sicher? Nach einem kompletten DB-Search ist der Plattencache satte 3,3 GB groß und wird auch nicht mehr kleiner.
...weil keine Commits stattfinden, kann er den ganzen Kram im Ram behalten. Aendert sich etwas, werden die ganzen Daten im Cache nutzlos und fliegen anschliessend raus.

Allfred
04.01.2006, 09:57
Genau das sind auch meine laienhaften Bedenken gegenüber viel Datenmüll im Cach....
Mailwurm meinte hier (http://www.planet3dnow.de/vbulletin/showthread.php?t=245852&page=6#post2503063) zwar, daß macht die Datenbanksoftware alles automatisch - aber ich glaube das auch nicht, ich sehe das wie Tom24.


Ramdisk?
Wie oft wird die dann mit der Harddisk abgeglichen? Sagen wir mal alle 5 Minuten, dann müssten alle 5 Minuten 4GB geschrieben werden. Da freuen sich die Platten.
Gleicht man permanent ab, kann man sich das wohl auch aus Performancegründen sparen.
Und wenn doch mal die Kiste abschmiert, warum auch immer, sind alle Daten die in den Zeitraum entstanden sind weg und die Datenbank wahrscheinlich korrupt.
Neeee, das lassen wir mal besser. Mmmm noch mal ich kleines Licht...

Die Einwände gegen eine RAMDISK sind alle sehr richtig. Folgende Frage/Idee/Einschränkung dennoch: Wenn es sich bei 5GB um eine Datenbank seit Anbeginn von P3D handelt - so ist doch nur ein Bruchteil jünger als 1 Jahr - sagen wir mal ab 31.12.2004. Von diesem Teil würde ich eine Kopie im RAM (RAMDISK) halten. Alle Lesezugriffe (ich schätze mal es sind 75% der Seitenaufrufe + Newsseite) werden von hier aus bedient. Erst wenn ein Post geschrieben wird, wird dieser zunächst schreibend auf dem Raid-Array und anschließend schreibend auf der RAMDISK nötig. Also schreibend ein RAID 1 zwischen HDDs (wie diese auch immer in sich organisiert sein sollten) und der RAMDISK. So kann keine Inkonsistenz aufkommen und selbst bei Stromausfall ist ja alles auf den HDDs. Gibts sowas nicht?

Wenn ich Müll schreibe - einfach ignorieren ;D

PuckPoltergeist
04.01.2006, 10:19
MySQL behaelt kaum Daten im Cache und verlaesst sich da auf die FS Puffer. Welche wiederum besorgt sind das alles auf die Platten zu bekommen. Anschliessend werden bei jedem Commit die Buffer geflushed, Ergebnis: Festplattenzugriffe und die relevanten Daten sind nicht im Ram. Nachgeladen wird vor der naechsten Anfrage nichts.

So oder so wirst du um die I/O nicht herumkommen, egal wieviel Ram zur Verfuegung steht.

Das ist so nicht ganz korrekt. Erstmal ist es vollkommen ok, wenn sich das DBMS auf den Buffer-/PageCache verlässt, sofern es nicht gerade RawDevices verwendet, was MySQL meines Wissens nach eh nicht kann.
Als nächstes ist der PageCache auch nicht besorgt, alle Daten auf die Platte zu bekommen, um sie dann aus dem RAM zu löschen. Die Daten werden zwar möglichst zeitnah auf die Platte geschrieben, aber deswegen nicht unbedingt aus dem RAM gelöscht. Im Gegenteil der Cache versucht so viele Daten wie möglich im RAM zu behalten, um eben bei Bedarf einen schnellen Zugriff zu ermöglichen.
Schlussendlich hat auch das verwendete Dateisystem ein gewichtiges Wörtchen mitzureden. XFS zum Beispiel cached selber nochmal sehr aggressiv, um kurzlebige Daten erst garnicht auf Platte zu speichern.
Grundsätzlich befinden sich also die Daten, die am häufigsten verwendet werden auch konsequent die meiste Zeit im RAM. In wie weit das nun bei einem DBMS von Vorteil ist, steht auf einem anderen Blatt. Will man da das letzte Ende an Leistung noch rausquetschen, muss man eh zu einem DBMS greifen, welches die Datenverwaltung auf der Platte selber übernimmt, via RawDevices. Das können aber nur die ganz großen Systeme wie Oracle oder DB2, und ist für so was kleines wie so ein WebForum eh nicht notwendig.

PuckPoltergeist
04.01.2006, 10:22
Genau das sind auch meine laienhaften Bedenken gegenüber viel Datenmüll im Cach....
Mailwurm meinte hier (http://www.planet3dnow.de/vbulletin/showthread.php?t=245852&page=6#post2503063) zwar, daß macht die Datenbanksoftware alles automatisch - aber ich glaube das auch nicht, ich sehe das wie Tom24.

Mmmm noch mal ich kleines Licht...

Die Einwände gegen eine RAMDISK sind alle sehr richtig. Folgende Frage/Idee/Einschränkung dennoch: Wenn es sich bei 5GB um eine Datenbank seit Anbeginn von P3D handelt - so ist doch nur ein Bruchteil jünger als 1 Jahr - sagen wir mal ab 31.12.2004. Von diesem Teil würde ich eine Kopie im RAM (RAMDISK) halten. Alle Lesezugriffe (ich schätze mal es sind 75% der Seitenaufrufe + Newsseite) werden von hier aus bedient. Erst wenn ein Post geschrieben wird, wird dieser zunächst schreibend auf dem Raid-Array und anschließend schreibend auf der RAMDISK nötig. Also schreibend ein RAID 1 zwischen HDDs (wie diese auch immer in sich organisiert sein sollten) und der RAMDISK. So kann keine Inkonsistenz aufkommen und selbst bei Stromausfall ist ja alles auf den HDDs. Gibts sowas nicht?

Wenn ich Müll schreibe - einfach ignorieren ;D

Vergiss es. Das ist viel zu aufwändig, weil es erstmal alles per Hand implementiert werden müsste. Ausserdem ist es unnötig, weil siehe mein vorheriger Beitrag. ;D

thermoman
09.04.2006, 19:35
Naja, ich hatte mal mit Banken zu tun, wo über eine von mir projektierte und gewartete Datenbank mit online-banking mehere Mio. Transaktionen pro Tag liefen. In Spitzenzeiten ca. 1000 Transaktionen/sek!
Wir hatten damals dort 40 RAID1 Set's in Betrieb, damit die Performance erreichbar war.
MitRAID 5 war das absolut nicht machbar.

Naja, das kann ich nicht ganz nachvollziehen. Bei uns sind 3 Datenbankserver (HP Proliant DL380) mit je einem RAID5 bestehend aus 3 15000 rpm SCSI-U320 72GB Platten im Einsatz und wir schaffen locker 2000 Queries/Sekunde. Wenn Du natürlich nen billigen RAID-Controller oder was anderes als SCSI nimmst bist Du natürlich selbst schuld.


Glaube mir bitte: Finger weg von RAID 5, ausgenommen als Datenfriedhof im Nurlese-Betrieb oder als Backupdevice.

Unsinn.

thermoman

hpmaster
12.12.2011, 13:19
Ich habe schon so viele Seagate HD's getauscht dass ich da vorsichtiger sein würde mit Behauptungen.
Ich setzte nur noch WD und Hitachi ein. Damit habe ich die wenigsten Problemen.

Snoopy69
12.12.2011, 18:20
Habe hier min. 20 Samsungs seit Jahren am Laufen. Keine einzige mit einem Ausfall.
Andere klagen widerum von Ausfällen ihrer WDs

Riddler82
18.12.2011, 15:46
Ich habe schon so viele Seagate HD's getauscht dass ich da vorsichtiger sein würde mit Behauptungen.
Ich setzte nur noch WD und Hitachi ein. Damit habe ich die wenigsten Problemen.

Blöde Frage, warum holst du einen Thread wieder hoch in dem seit über 5 Jahren nichts mehr geschrieben wurde, weil das Thema schon längst erledigt wurde? Und dann noch mit so einem absolut belanglosen und allgemeinen Beitrag? *noahnung*

Da eins der letzten Themen zufällig "HP" war, riecht das mal wieder nach "Viral Marketing". Und zwar nach strunzdämlichem.