[Server] Upgrade von Ubuntu 8.04 wohin?

Dalai

Grand Admiral Special
Mitglied seit
14.06.2004
Beiträge
7.420
Renomée
262
Standort
Meiningen, Thüringen
Hallo Linuxer :),

da der Support für Ubuntu 8.04 kommenden April ausläuft, haben wir uns schon eine Weile Gedanken darüber gemacht, wohin die Reise gehen soll, können uns aber nicht so recht festlegen, auch wenn eine Tendenz vorhanden ist.

  • Ubuntu 12.04 LTS
    Vorteil: 5 Jahre Support
    Nachteil: uns gefällt nicht so richtig, wohin sich Ubuntu/Canonical bewegt
  • Debian 7 (sofern es vor April fertig wird)
    Vorteil: keine Abhängigkeit von einem Unternehmen
    Nachteil: wenn man den Releasezyklus der letzten paar Versionen zugrunde legt (alle 2 Jahre), so kann man mit nur 3 Jahren Support rechnen, bevor man aktualisieren muss (Repository wird sehr schnell vom Netz genommen, wie wir bei Debian Lenny in anderem Zusammenhang feststellen "durften")
Da die 5 Jahre Support vor allem für eine Firma schon schön sind, innerhalb derer man sich keine Sorgen um Updates machen muss, geht die Tendenz natürlich in Richtung Ubuntu. Ich weiß, dass es noch andere Linuxsysteme wie z.B. CentOS gibt, aber damit haben wir keinerlei Erfahrung und so richtig Bock haben wir auf die RPM-Schiene nicht (die Aktualisierung selbst dürfte schon aufwendig genug werden)...

Was meinen die Experten dazu?

MfG Dalai
 
Was verstehst Du denn unter "Support"? Einfache Patcherei oder mehr? Zudem? Wer ist "wir"? Firma? Bezahlmodell kommt dann wohl nicht in Frage? 5 Jahre Ubuntu für Lau mag nett sein, aber evtl nicht zur Anwendung passen. RedHat oder Suse gibts ja auch noch zu erschwinglichen Preisen.
 
Was verstehst Du denn unter "Support"? Einfache Patcherei oder mehr?
Updates für installierte Pakete. Dazu zählt natürlich auch ein noch erreichbares Repository.

Wer ist "wir"? Firma?
Jep. Ein kleines Unternehmen.

Bezahlmodell kommt dann wohl nicht in Frage?
Bisher ging's auch kostenlos, also ziehen wir das natürlich vor, keine Frage. Wobei man sich genau anschauen müsste, wie die Konditionen sind, wenn man eine Bezahllösung in Betracht zieht.

MfG Dalai
 
Liste doch mal die Anwendungen auf, die auf dem Server laufen sollen!
 
Och, wo soll ich da anfangen ;D.

Derzeitiger Stand:
  • Samba mit OpenLDAP und Bind9 als primärer Domaincontroller (der BDC hat natürlich dieselben Dienste)
  • MySQL
  • Apache
  • Postfix und Dovecot seit einigen Monaten
  • Munin
  • "Kleinigkeiten" wie Webmin, apcupsd, quota, rsync und noch weiterer Kleinkram
Geplant:
SSH und Cron setze ich mal als gegeben voraus ;). Ich denke, die gelisteten Dienste sollte jedes Linux anbieten.

MfG Dalai
 
Also wenns nichts kosten soll, dann würde ich CentOS nehmen.

Wenn es was kosten darf, dann Suse Linux Enterprise Server 11 (haben wir bei uns in der Firma) oder du schaust dir mal den Univention Corporate Server (Debian Basis) an.
 
Zuletzt bearbeitet:
Ich kann zu Ubuntu als Server nichts sagen.

Ein Debian stable zu aktualisieren ist aber meist gar kein großes Problem. Nur wenn sich erhebliche Inkompatiblitäten aus größeren Versionssprüngen ergeben kann das Aufwand werden. Alle drei Jahre kann man sich das schon geben.

Dazu gehört, daß deine Dienste sicher nicht alle "nach draußen" offen sind. Notfalls kannst du auch später nur einen Teil auf das dann aktuelle Debian upgraden (z.B. Apache, Perl, PHP) und den weniger sicherheitskritischen Rest noch auf dem alten Stand lassen, bis zu für das Upgrade Zeit hast.
 
Och, wo soll ich da anfangen ;D.
Derzeitiger Stand:

  • *Standardkram
Was ist das Problem momentan? Hat euer Linux- Dödel nur alle paar Monate Zeit? Sind die/ der Server zeitkritisch bezogen auf Downtime?
Updates sollten so wieso alle paar Wochen/ Monate installiert werden, auch wenn die Kiste nur intern verwendet wird.
Praktisch könnt ihr intern eure Kiste auch 10 Jahre lang laufen lassen, hauptsache die Hardware wird erkannt. Wenn die Kisten von extern erreichbar sind, sollten sie möglichst aktuell sein.
 
Was ist das Problem momentan?
Öhm, auslaufenden Support für ein dann nicht mehr gepflegtes OS hältst du nicht für ein Problem? Ich schon. Davon abgesehen sollte schon bekannt sein, dass Ubuntu 8.04 fast 5 Jahre alt ist, und ein dementsprechend alter Samba erlaubt keine Domänenanmeldung für Windows 7 Clients (die Arbeit, einen aktuellen Samba selbst zu kompilieren, lasse ich mal gepflegt unter den Tisch fallen).

Hat euer Linux- Dödel nur alle paar Monate Zeit?
Der "Linux-Dödel" sind wir selbst. Und: nein, die haben nicht nur alle paar Monate Zeit, aber ich denke, du weißt selber, dass ein Upgrade sorgsam geplant sein will, völlig egal, wohin das Upgrade geht. Genau deswegen fragte ich ja hier.

Sind die/ der Server zeitkritisch bezogen auf Downtime?
Äh, ja sicher. Ne Windows-Domäne bezeichne ich als produktiv wichtig. Da ein Upgrade ein paar Tage in Anspruch nehmen wird (bis alles sauber läuft), währenddessen aber natürlich weitergearbeitet werden muss, will auch das ordentlich geplant sein.

Praktisch könnt ihr intern eure Kiste auch 10 Jahre lang laufen lassen, hauptsache die Hardware wird erkannt.
Theoretisch schon, praktisch auf keinen Fall. Schon allein, weil sich der Rest des Netzwerkes mit der Zeit ändert, müssen Anpassungen an aktuelle Gegebenheiten möglich sein, und das wird bei alter Software immer schwieriger.

Wenn die Kisten von extern erreichbar sind, sollten sie möglichst aktuell sein.
Nun, der Postfix ist von außen erreichbar, insofern gibst du dir die Antwort selbst ;).

MfG Dalai
 
Ich würd einmal ganz platt sagen: Nur nicht ins Höschen machen

Gerade bei Ubuntu ist ein upgrade kinderleicht:

1. Datensicherung
2. Upgraden von 8.04 auf 10.04 und dann evt. gleich auf 12.04
3. Applikationen testen
4. Produktionsfreigabe

Dass das NICHT im laufenden Betrieb geht versteht sich ja von selbst.
Da wird entweder ein Freitag Abend daran glauben müssen, oder besser Donnerstag, damit man am Freitag noch Erfahrung mit den Benutzern sammeln kann. Oder ein Wochenende.

Das Szenario ist weder kompliziert, noch einzigartig auf der Welt, sodaß man darum sicher nicht Monate herumeiern muss.
Ein Admin der sich nicht über Upgrades traut ist hier fehl am Platz oder soll sich das von Externen machen lassen falls der eine klick das Herz zu sehr belastet *buck*
Außerdem gibt es da ja noch sowas wie Testmaschinen, ob virtuell oder nicht ist egal, auf denen man den Upgrade durchspielen kann.

Eine eidesstattliche Versicherung, dass alles vollkommen ohne Probleme laufen wird, werden wir hier als Außenstehende sicher nicht unterzeichnen.

Und nein, ich hatte noch nie Probleme Kundenserver von 8.04 auf 10.04 und auf 12.04 zu bekommen.

lg
__tom
 
2. Upgraden von 8.04 auf 10.04 und dann evt. gleich auf 12.04
Sofern man bei Ubuntu bleibt, ist das einer der Knackpunkte, ob ein solches "doppeltes Upgrade" sinnvoll ist, oder ob man besser eine Neuinstallation macht, um von vornherein Probleme zu vermeiden, die durch ein Upgrade entstehen können.

Dazu kommt, dass momentan auf einem der Server ein 32 Bit Ubuntu läuft, das aber in ein 64 Bit geändert werden soll, so dass wohl eine Neuinstallation auf diesem Server unumgänglich sein dürfte. Also kann man auch gleich "Großreinemachen" und - sofern es sich anbietet - ein anderes OS nehmen. Darum fragte ich hier.

Das Szenario ist weder kompliziert, noch einzigartig auf der Welt, sodaß man darum sicher nicht Monate herumeiern muss.
Wir überlegen lediglich, ob es eine gute Idee ist, bei Ubuntu zu bleiben.

Außerdem gibt es da ja noch sowas wie Testmaschinen, ob virtuell oder nicht ist egal, auf denen man den Upgrade durchspielen kann.
Das ist klar, und natürlich habe ich eine Testmaschine, an der das vorher durchgezogen wird.

Und nein, ich hatte noch nie Probleme Kundenserver von 8.04 auf 10.04 und auf 12.04 zu bekommen.
Gut zu wissen.

MfG Dalai
 
Was spricht gegen Ubuntu, wenn es bisher problemlos funktioniert hat?

Bei einem Umstieg von 32 auf 64 bit kannst Du natürlich nur neu installieren.

In diesem Falle setz einfach parallel eine Maschine auf und ziehe nach und nach die Konfigurationen und die Funktionen rüber auf die neue Maschine.
So bleiben die alten Funktionen so lange auf dem alten Server erhalten bis sie von den neuen auf der neuen Maschine abgelöst wurden.

"ungefährliche" Dienste zuerst damit Du Übung bekommst.

lg
__tom
 
Was spricht gegen Ubuntu, wenn es bisher problemlos funktioniert hat?
Auf dem Server von der Software her nicht so richtig viel, aber die Richtung, die Canonical eingeschlagen hat, sagt nicht wirklich zu. Es ist zwar noch unbekannt, ob und wenn ja, wann wir auch die Clients in Richtung Linux bewegen werden, aber eine einheitliche Umgebung wäre schon hilfreich. Und neuere Ubuntus auf den Clients sind einfach ... ähm, ja, formulieren wir es so: ich stelle mir etwas anderes unter einer professionellen Arbeitsumgebung vor *suspect*.

Bei einem Umstieg von 32 auf 64 bit kannst Du natürlich nur neu installieren.
Das dachte ich mir.

-----

Ich hab mir mal den Univention Server angeschaut: Nett, sicher geeignet, wenn man noch keinen Server stehen hat. Da würde sicher außerdem eine ziemlich aufwendige Migration anstehen. Bisher hab ich außerdem nicht rausfinden können, wie die Server untereinander die Daten abgleichen würden. Mit "Daten" meine ich Dienste wie OpenLDAP, Bind, MySQL, aber auch normale Daten (wobei man letzteres mit Cron hinbekommt).

MfG Dalai
 
Ubuntu Server ungleich Ubuntu Client.
Klar unity sagt nicht jedem zu, aber man kann ja schließlich die anderen Clientoberflächen installieren.
Der große Vorteil den ich bei Ubuntu sehe sind dessen repositories und die Verbreitung.
Wenn es vorgefertigte Pakete gibt, dann für Ubuntu oder Redhat/Suse.
Wobei mit persönlich Redhat Enterprise gar nicht zusagt, da hier ebenso wie bei debian schon zum Erscheinen der Software die Versionen veraltet sind.
Bei Ubuntu habe ich wenigstens die Wahl einfach auf etwas neueres, falls ich die features benötige, umzusteigen.
Alle bin-distries gemeinsam haben natürlich den Nachteil, dass wenn man vom Standard abweichen will/muss es mächtig kompliziert wird.

Zum Datenabgleich meine Meinung:
Wenn man gemeinsame Daten in größerem Umfang hat funktioniert das zwischen mehreren Servern eigentlich nur vernünftig mit einem Clusterdateisystem und gemeinsamer Storage (wenn Performance nicht an erster Stelle steht dann tut es auch drbd). Sämtliche Synchronisationsmechanismen sind, naja was soll ich sagen, scheisse. Irgendwann und das genau dann wann man es braucht, im Notfall, sind die Daten inkonsistent. Das funktioniert eigentlich nur, wenn die jeweilige Software ein vernünftiges Protokoll selbst mit bringt und die Datenmengen überschaubar sind. Man muss sich sehr genau ansehen was man wirklich redundant braucht und ob es nicht reicht wenn die Verfügbarkeit über andere Mechanismen wie ESX Cluster auf einfachere Weise gewährleistet werden kann.

lg
__tom
 
Ubuntu Server ungleich Ubuntu Client.
Das ist zwar richtig, aber das Repository ist dasselbe. Und da das Repos intern mit apt-mirror gespiegelt wird, damit auch bei Internetausfall aktualisiert werden kann, will man sich ja nicht unbedingt die Arbeit machen, mehrere Repos zu spiegeln, wenn man für die Clients ein anderes System nimmt. Es ist aber ebenso richtig, dass das momentan noch keine Rolle spielt, weil (leider) noch keine Linux-Clients existieren, die man berücksichtigen müsste; scheiß MS Access Geraffel, was nicht unter Linux läuft :[.

MfG Dalai
 
Das ist zwar richtig, aber das Repository ist dasselbe. Und da das Repos intern mit apt-mirror gespiegelt wird, damit auch bei Internetausfall aktualisiert werden kann, will man sich ja nicht unbedingt die Arbeit machen, mehrere Repos zu spiegeln, wenn man für die Clients ein anderes System nimmt.
Äh was wird gespiegelt wenn das Internet ausgefallen ist? *buck*
Richtig nichts. Wenn das Internet ausgefallen ist, dann kommen eh keine Bedrohungen rein, vor denen man upgrades machen muss.

Wieviele Daten hat so ein kompletter Repo-Spiegel?
Zahlt sich das überhaupt aus?
Das müssen ja Unmengen an Daten sein und vorallem lauter Daten die man zu 99% nicht braucht.

Ich habe immer noch das Gefühl, dass Du lockerer im Umgang mit Linux werden musst :D

lg
__tom
 
Äh was wird gespiegelt wenn das Internet ausgefallen ist? *buck*
Richtig nichts. Wenn das Internet ausgefallen ist, dann kommen eh keine Bedrohungen rein, vor denen man upgrades machen muss.
Keine Bedrohungen, richtig, aber der Sinn dahinter ist, dass ein System eingerichtet können soll, auch wenn kein Internet vorhanden ist. Denn gerade dann, wenn man irgendwas installieren will, um z.B. die Zeit zu nutzen, fällt das Internet aus - Murphy und so ;).

Wieviele Daten hat so ein kompletter Repo-Spiegel?
Kein vollständiger Spiegel, nur alles ohne Sourcen (denn die braucht in einer solchen Umgebung eh keiner), das sind so um die 35 GB.

Zahlt sich das überhaupt aus?
Da die Aktualisierungen auch durchgeführt werden können, ohne die Mitarbeiter beim Nutzen des Internets zu behindern: ja. Damals zum Zeitpunkt der Einrichtung des Spiegels hatte die Firma noch eine 1 MBit-Verbindung und der Mailserver stand noch extern und dementsprechend sollte verhindert werden, dass die Updaterei die normale Arbeit noch mehr behindert als sowieso schon.

Das müssen ja Unmengen an Daten sein und vorallem lauter Daten die man zu 99% nicht braucht.
Ja sicher, aber das stört nicht wirklich. Es liegt eben rum.

Ich habe immer noch das Gefühl, dass Du lockerer im Umgang mit Linux werden musst :D
Mit Sicherheit. Da aber die Server überlebenswichtig sind für die Firma, ist es schwierig, denn (grobe) Fehler können schnell Geld kosten.

MfG Dalai
 
Zuletzt bearbeitet:
Ist jetzt kein Vorwurf an Euch. Aber ich finde es immer wieder witzig das Daten ach so überlebenswichtig sind und Firmen bei Verlust pleite gehen können - aber kein Pfennig für Support und Herstellung übrig ist (es sei denn Ihr spendet an Ubuntu). Ich erninnere mich bei nem Kunden an div. Linuxmaschinen die urplötzlich, wegen einem kleinen Hardwarefehler, alle Filesysteme read only hatten. Waren zwar nur 40 Leute, aber die Firma konnte 2,5 Tage im Grunde nichts machen.
 
Sorry, da muss ich Dir aber heftig wiedersprechen Mogul.

Was nutzt ein Support der erstens extern ist und zweitens es auch nicht besser kann. Bis ein externer Support in die Details eingeweiht ist dauert es ewig und auf die daraufhin ausgesprochenen hanebüchenen Standardtipps kann man eigentlich verzichten.
Der ach so gut extere Support übernimmt nämlich auch keine Verantwortung für Stillstände durch rumraten...

Die eigene, eingeweihte Mannschaft kann sowas eigentlich immer besser.

Mir ist in meiner gesamten Laufbahn noch nie etwas begegnet, außer Bugs, die ein externer Support in angemessener Zeit hat lösen können. Die interne Mannschaft war immer schneller und besser.

Externe Dienstleister ja, aber dann mit Mannschaft im Betrieb immer vor Ort und ins Tagesgeschäft eingebunden. Alles andere führt nicht angemessen zum Ziel.
Ob man sich das leisten kann ist eine andere Frage.

lg
__tom
 
Ist ja auch OK. Allerdings ist auch nicht jeder admin in der Lage alles zu erfassen. Mein Hauptkritikpunkt ist auch eher das viel der Firmen Gewinnmaximierung betreiben und im Backend kein support oder Pfennig für die Entwickler gezahlt wird.
 
Ist ja auch OK. Allerdings ist auch nicht jeder admin in der Lage alles zu erfassen. Mein Hauptkritikpunkt ist auch eher das viel der Firmen Gewinnmaximierung betreiben und im Backend kein support oder Pfennig für die Entwickler gezahlt wird.
Da haste natürlich voll recht.

Mitarbeiter auspressen und der Rest muss auch noch umsonst sein.
Ist ja opensource also nicht frei sondern ausschließlich gratis. *buck*

lg
__tom
 
OT: Aus meiner Erfahrung heraus kommt es immer drauf an wie wichtig etwas ist. Über die Preise des Supports brauchen wir nicht zu reden und ich beziehe mich auch nicht nur auf SUN/Oracle - ich bin mittlerweile eher bei Storage unterwegs. Ich hab ein SAN Problem? Was soll ich mich auf Solaris oder Linuxseite damit rumschlagen? Dazu habe ich weder die Zeit noch die Lust. Die Analyzer oder Logsammler von div. Firmen sind stellenweise extrem gut und arbeiten Daten richtig gut auf. Notfallpatches sind jetzt auch nicht soooooo selten, da liegt das Probleme eher auf Produktionsseite denn es wird in der Regel nur 1x pro Jahr gepatched udn diese Patchcluster müssen gegen jede Software getestet sein um den Support aufrecht zu erhalten. Nichts wäre schlimmer als ein Patch der beispielweise eine Datenbank ausbremst - gerade erst gehabt. So mussten Kunden 40 Minuten auf PDFs warten was vorher in 2 Minuten ging. Die Queue wurde einfach zu groß und auch mit 92 Prozessoren und etlichen GB an Ram wurde nichts abgearbeitet. Analyse und Abhilfe dauerte etwa 2 Stunden - Nachts um 22:00Uhr wohlgemerkt.
Passend dazu wurde auch mit freien Distris getestet. Mal abgesehen davon welches Wissen man sich anarbeiten muss bekam man, vergleichsweise, keinerlei Hilfen. Hat man sich da an die Community gewendet wurde man mit irgendeiner 6 oder 12 Prozessormaschine eher bestaunt und bewundert als das einem Hilfe zuteil wurde. Üblich war da wohl eher "Naja, mit derartiger Hardware ist das kaum getestet. Installier doch mal neu und nimm dieses und jenes und kompiliere das extra und dann das".

Ich bin und bleibe Fan freier Distros (mal abgesehen von weg den Ubuntu nimmt) tue mich aber schwer wenn Unternehmenssicherheit wichtig ist und wenn dann nichtmal ein paar Euros für die Entwickler gespendet wird. Man selber will ja auch leben und wäre sicherlich wenig glücklich wenn man nichts bekommt, aber alles von einem erwartet wird. Wird jetzt aber wohl zu pathetisch :D ;)
 
Ich hab mir mal den Univention Server angeschaut: Nett, sicher geeignet, wenn man noch keinen Server stehen hat. Da würde sicher außerdem eine ziemlich aufwendige Migration anstehen. Bisher hab ich außerdem nicht rausfinden können, wie die Server untereinander die Daten abgleichen würden. Mit "Daten" meine ich Dienste wie OpenLDAP, Bind, MySQL, aber auch normale Daten (wobei man letzteres mit Cron hinbekommt).

MfG Dalai


Ja die Umstellung könnte bei Univention ein wenig aufwendig sein.
Ich hatte mit vor ein paar Wochen die C'T gekauft, da wa eine eigene Edition des UCS dabei.
Ich geb zu, dass ich es auch noch nicht getestet habe.

Aber: der UCS unterstützt wohl auch Ubuntu als Client Rechner:
http://forum.univention.de/viewtopic.php?f=26&t=1904

Außderdem ist auch das OPSI Paketmanagement für Windows Rechner mit an Board.
Das scheint auch recht vielversprechend zu sein, wenn man keine Windows Server hat.
Ich werde den UCS Anfang 2013 testen, wenn ich meine neue Server Hardware habe.
 
Zurück
Oben Unten