Schlagwort-Archiv: Linux

25 Euro PC oder Thinclient für Nerds

Igel 4210 LX Winestra

Nachdem ich schon länger damit geliebäugelt habe mit einen Thinclient anzuschaffen (ehr aus der Hinsicht das die Thinclients bei der Bucht günstig zu bekommen sind und man damit rumbasteln kann) habe ich mir ein Igel 4210 LX Winestra gekauft. Das System selber ist ausgestattet mit einem 1Ghz VIA Prozessor, 256MB DDR2 RAM und einer 128 MB Compact Flash Karte als Datenspeicher. Da das System also etwas schwachbrüstig ist muss man hier schon einiges bei der Distributionswahl beachten. Es sei denn man bootet von Netwerk oder bastelt sich etwas zurecht.

Man hat nun die Wahl das Gerät aufzurüsten was ohne weiteres geht. So lässt sich das RAM auf bis zu 1 GB erweitern und die Compact Flash Karte austauschen. Hier ist allerdings auf Kompatibilität zu achten. Auch ein normaler IDE Anschluss ist am Mainboard verbaut. Allerdings muss man dann schauen wie man das Laufwerk mit Strom versorgt. Dies ist nur von einer externen Stromversorgung möglich. Praktischerweise sind Pins für USB intern vorhanden sowie ein aufgelöteter Temperaturmesser. Dazu ist eine PCI Schnittstelle verbaut, so das sich eine Erweiterungskarte einbauen lässt. Die CPU ist passiv gekühlt und somit ist das gesammte Gerät geräuschlos. An der Frontblende sind Anschlüsse für eine LED vorhanden die die Netzwerkaktivität anzeigt. Diese muss allerdings aufgelötet werden.

Hardware

Igel Mainboard

Folgend ein paar Informationen über die verbaute Hardware. Eingebaut ist wie erwähnt ein  VIA C7 Prozessor mit 1 GHz (128KB Cache, MMX, SSE, SSE2). Die Grafikkarte Der TMDS Chip ist ein Silicon Image SIL 164CTG64. Der Ethernetcontroller, sowie Audio sind im Southbridge untergebracht. Dabei handelt es sich um ein VIA VT8235. Der Verbrauch des Systems soll bei Auslastung um die 20 Watt liegen.

Grün = IDE Stiftleiste, Rot = USB Stiftleiste, Blau = Temperatursensor, Orange = PCI Slot

Linuxdistributionen

SliTaz Linux

Als Linuxdistribution fallen die großen Majordistributionen wie openSUSE, ubuntu oder fedora etc. leider aus, da sich diese nur mit sehr viel Aufwand auf 128 MB Speicher mit grafischer Oberfläche installieren lassen. Aus diesem Grunde habe ich mich für SliTaz Linux entschieden, welches bei der Standardinstallation knapp 110 MB benötigt so das noch etwas Luft vorhanden ist. Durch entfernen von ein paar Pakete kann man sogar noch etwas herausholen.

Hacken

Da ich das Gerät erst seit ein paar Tagen besitze werde ich wohl noch etwas damit rumbasteln. Da das Gerät einen internen USB Anschluss hat werde ich eine alte USB Blende benutzen um diese an die USB Steckleiste anzuschließen und daran einen USB-Stick. Das Kernel wird dann auf die Compact Flash Karte geschrieben (wegen Treiber) und die restlichen Daten auf den USB Stick. Dies ist eine wesentlich kostengünstigere Methode, als eine neue große Compact Flash Karte zu kaufen. Das RAM werde ich noch auf 1 GB mit einem alten Arbeitsspeicherriegel erweitern. So sollte sich auch eine normale Distribution aufspielen lassen. Falls noch Platz bleibt könnte man noch eine TV Karte oder zusätzliche Netzwerkkarte einbauen. Mehr dazu werde ich hier später noch schreiben.

Interessante Links zum Thema

YouTube Video über das System > http://www.youtube.com/watch?v=v1LlTvM2r_E

Scientific Linux – oder die Suche nach der Serverdistribution

Nachdem es ja wie bekanntlich Richtung Jahresende geht, habe ich mir zu Weihnachten eine Hardware-RAID-Karte von 3ware gegönnt, um genauer zu sein eine 3ware 9650SE-2LP. Auf dieser läuft nun die Systemplatte(n) im RAID1 Verbund. Die Platten mit den Daten lasse ich weiter einzeln laufen. Diese werden jede Woche einem mit rsync abgeglichen. Zeitkritische Daten liegen auf der Systempartition.

Da ich nun eh schon am Server dran war habe ich mir Gedanken gemacht inwieweit es sinnvoll ist openSUSE weiterhin auf dem Server zu betreiben. Nicht aus Gründen des Systems sondern aus der Sicht des Supportzeitraums. Spätestens Ende 2012 müsste ich mir Gedanken über in Upgrade auf die nächst höhere Version machen. Das dies meistens nicht klappt ist wohl bekannt (siehe Versionsprung auf 11.4 mit dem AppArmor Bug und SMB). Da ich allerdings auch kein Debian(derivat) verwenden wollte blieb im Endeffekt nur noch CentOS und Scientific Linux übrig. Ich habe mich dann letztendlich für Scientific entschieden, da dort die Updates schneller gepackt werden.

CentOS oder Scientific

Scientific Linux

CentOS und Scientific sind beides Nachbauten von RHEL. Da Red Hat die Quellpakete offen legen (muss), kann daraus eine Distribution gepackt werden die binärkompatibel mit RHEL ist. Und da RedHat seine Distribution 5 bzw. 7 Jahre mit Updates versorgt, können CentOS und Scientific die Updates einfach verpacken und ausliefern. Zwar habe ich kein Support durch RedHat, diesen werde ich aber bei mir Zuhause wohl kaum benötigen.

Scientific Linux

Wie schon erwähnt ich Scientific Linux ein Klon von RHEL. Gebaut wird die Distribution zum großen Teilen von CERN, Fermilab, ETH Zürich, und dem DESY. Diese haben sich zusammenschlossen um auf einer Basis eine eigene Distribution zu schaffen, damit nicht jede Institution ihre eigene Distribution pflegen muss. Mehr dazu findet sich auf der Wikiseite von Scientific Linux.

Servereinsatz

Auf dem Server macht sich Scientific gut, auch wenn ich manch praktische Dinge von openSUSE vermisse. Das Einrichten von rsync ist etwas aufwendiger. Das voreingestellte SELinux ist bisweilen (für mich) unbrauchbar. Weder rsync noch SMB ließen sich mit den voreingestellten SELinux Regeln benutzen. Auch nachdem ich die Regeln so geändert  habe das es laufen sollte, lies sich rsync immernoch nicht verwenden. Ich habe SELinux dann einfach vom System genommen. An der Stelle finde ich AppArmor bei weitem einfacher zu konfigurieren und warten.

Desktopeinsatz

Scientific Linux Screenshot

Auf dem Desktop kann ich Scientifc Linux zum Teil empfehlen. Es kommt darauf an was machen möchte. Das KDE liegt in Version 4.3 vor. Neuere Versionen müsste man sich selber kompilieren und aktualisieren. Das Gnome liegt in Version 2.28 vor und macht einen stabilen Eindruck. Für Arbeitsplatzrechner oder für einfache Arbeiten ist der Desktop völlig in Ordnung. Wer allerdings “bleeding edge”-Software haben möchte sollte dann doch lieber zu einer schneller veröffentlichenden Distribution wie openSUSE oder Fedora wechseln. Ansonsten bekommt man ein stabiles System, das für die normalen Office und Internetanwendungen völlig ausreichend ist. Sollte man Scientific für den Desktop verwenden und hat nicht mehr als 4 GB RAM empfehle ich die 32bit Version, da es dort mehr Pakete für gibt die man sich sonst extra raussuchen muss. CentOS und RHEL Paketquellen können eigentlich ganz normal benutzt werden da alle Distributionen zueinander kompatibel sind.

Interessante Links zum Thema:

Distributionsupdate auf openSUSE 11.4 – Erste Erfahrungen

Da ich gesehen habe, dass die Pakete für Version 11.4 schon auf den Servern liegen und gepackt wurden, habe ich es gewagt mittelts zypper dup ein Update auf meinen Netbook und meinen Arbeits-PC zu machen. Das ganze lief bis auf ein paar kleinen Schwierigkeiten ohne Probleme. Folgende Tipps habe ich für Sie falls Sie sich für diese Methode entscheiden.

    • Sollten Sie zypper mit der Option
      DownloadInAdvance

      benutzen so kommt es bei dem Update zu einem Fehler, da zypper eine für rpm wichtige Library löscht. Sichern Sie deshalb vorher die Datei

      /lib/liblzma.so.0

      und kopieren Sie diese, sollte es zu der Fehlermeldung kommen das diese Datei nicht gefunden werden kann, zurück in den Ordner

      /lib

      . Ob der Fehler nur bei der oben genannten zypper-Option vorkommt kann ich nicht sagen, da ich alle Rechner so eingestellt habe. Sichern Sie die Datei deshalb am besten vorher nur aus Vorsicht. Mehr Infos dazu im Bugzilla unter https://bugzilla.novell.com/show_bug.cgi?id=677425#c3

    • Die standardmäßige KDE Version schluckte auf dem Netbook mehr Ressourcen als diejenige in den KDE 4.6 Repositorys zu finden unter: http://download.opensuse.org/repositories/KDE:/Release:/46/openSUSE_11.4/ . Diese lief performanter und die Desktopeffekte schalteten sich nicht immer wieder aus.
    • nVidia Treiber laden Sie bitte vorher von http://nvidia.de herunter. Diese müssen Sie von Hand installieren. Sie können ruhig die neuste Version verwenden

Es gibt bereits ein offizielles Repository von nVidia zu finden unter: ftp://download.nvidia.com/opensuse/11.4/ Bei 32-bit Systemen und der KDE Installation kann es zu Problemen kommen (https://bugs.kde.org/251719).

  • Bei meinem Netbook installierte zypper Tracker mit. Diese Desktopsuchmaschine wird eigentlich unter Gnome verwendet. Sie können diese unter KDE also gefahrlos deinstallieren (und Ressourcen sparen).
  • Scheinbar gibt es in einer Regel bei AppArmor einen Fehler der dazu führt das Samba Freigaben die Passwortgeschützt sind nicht zugreifbar sind, da smb auf die Passwortdatei nicht zugreifen darf. Bis jetzt habe ich noch keine Lösung gefunden. Ein Bug ist bereits im Bugtracker eingetragen. Das Problem ist bei mir nur bei einem Update aufgetreten.

Soweit meine ersten Eindrücke. Ansonsten macht openSUSE 11.4 echt was her. KDE reagiert wesentlich schneller und das System läuft flüssiger als in 11.3. Sollte sich noch etwas ergeben werde ich diesen Artikel erweitern.

Inwieweit oben Beschriebenes bei Ihnen auch Auftritt kann ich nicht sagen. Dies sind meine persönlichen Erfahrungen mit dem Update. Danke auch an Lisufa und Boe für die Tipps worauf zu achten ist.

Aktuelle Beliebtheit von Linuxdistributionen

Zum vergrößern anklicken

Seit rund 10 Jahren gibt es schon die Webseite distrowatch.com. Diese wertet die Klicks auf deren Webseite aus um daraus eine Statistik zu errechnen welche Linuxdistribution wieviel Marktanteil besitzt. Das ganze wird dann im Wert H.P.D (Hits per Day) auf deutsch “Treffer pro Tag”ausgegeben. Schon früher hat sich gezeigt, dass die Statistik jedoch manipulierbar ist und man diese nicht für bare Münze nehmen sollte, sondern dies nur als Richtung sehen kann wo die aktuellen Distributionen gerade stehen. Leider bereitet die Webseite die Ergebnisse nicht grafisch auf. Deshalb habe ich eine Grafik gebaut wo die meines Erachtens wichtigsten Linuxdistributionen enthalten sind. Das Jahr 2011 stellt die bis dato liegenden Daten dar.

 

Wie man sieht ein auf und ab der Distributionen. Trotzdem lassen sich aus den Daten ein paar Rückschlüsse ziehen. Mandriva einst unter dem Namen Mandrake eine der meistbenutzen Distributionen zieht sich immer mehr nach unten zurück. ubuntu immer noch die Nummer 1, scheint aber Benutzer immer weiter an Derivate wie Kubuntu oder Mint abzugeben. Diese habe ich, bis auf Mint, nicht in die Statistik einfließen lassen. Es wäre auch interessant festzustellen wie sich die ubuntu Derivate im laufe der Zeit entwickelt haben. openSUSE hat seinen Lauf auf den Platz 1 2006 beendet und läuft nun im Mittelfeld. Was interessant ist, ist die Entwicklung von Debian. Hier sieht man einen guten Weg nach oben. Nicht schnell aber konstant. Auch Arch wird hier langsam immer gefragter. Gentoo scheint es sich da doch schwerer zu tuen und bleibt seit Jahren (aber stabil) auf der gleichen Marke. Ich möchte hier nochmal bekräftigen: Dies ist kein Vergleich wie groß und toll eine Distribution ist. Gentoo besitzt stärken wo keine andere Distribution heran kommt. Trotzdem kann ich das meiner Großmutter nicht installieren.

Zum vergrößern anklicken

Auch die Entwicklung von Linux im allgemeinen habe ich mir angeschaut. Dazu habe ich folgende Grafik erstellt.

 

Die hier verwendeten Daten stammen auch nur aus den oben verwendeten Distributionen. Zu erkennen ist hier, das sich die “Mainstream”- Distributionen scheinbar seit 2 Jahren eingefahren haben. Anscheinend werden auch die alternativen Distributionen immer beliebter. Sabayon sammelt seit Jahren zum Beispiel Punkte wo andere Distributionen keine großen Änderungen haben. Nur als Anmerkung von mir: Auch wenn es auf der ersten Grafik so aussieht als ob der größte Teil des Marktanteils nur aus ubuntu besteht, wird von der Grafik hinters Licht geführt. Zwischen 2004 und 2005 scheint es eine allgemeine Steigerung der Anwender zu geben. Das ubuntu daran nicht auch einen großen Anteil hat ist nicht zu bestreiten.

Noch einmal! Die Daten sind nicht genau und können sogar abweichen. Also bitte keine Trollpostings und was ich noch an Distributionen hätte reinnehmen müssen. Bei Interesse schicke ich jedem gerne die ODS-Datei zu.

Zur aktuellen Lage: Banshee und ubuntu

Da die aktuelle Diskussion um dem entfernten Amazon Store in Banshee bei der nächsten ubuntu Release große Kreise zieht möchte ich mich dazu auch einmal äußern. Für diejenigen die noch nicht wissen worum es geht sei diese Nachrichtenquelle empfohlen:

http://www.golem.de/1102/81515.html

Ich glaube der Knackpunkt wurde schon in vielen Diskussionen genannt. Canonical MUSS Umsatz generieren im Gegensatz zu anderen Distributionen wie openSUSE, Fedora, Debian etc. Gerade deshalb denke ich das es gerade bei ubuntu auch später noch zu solchen Problemen kommen wird. Hier ist einfach ein Interessenkonflikt zwischen der OSS Community und dem gewinnorientierten Unternehmen. Und in dem Fall hat die Community zu “kuschen” wenn Ihre Software auf die Distro möchte bzw. wird demnach abgeändert wenn es sein muss. Ich denke, wäre Canonical so groß wie RedHat oder Novell würden sie daran gar keine Beachtung schenken. Wobei gesagt werden muss, das oben genannte Firmen ganz anderen Zielgruppen hat als Canonical. Außerdem möchte ich an dieser Stelle anmerken das die Banshee Entwickler keinerlei Probleme damit haben das der Amazon Store deaktivert wird. Man hat sich dabei mit Canoncial geeinigt. Es bleibt in Zukunft abzuwarten wie sich dies entwickelt.

Gerade die Entwicklung mit der Oberfläche Unity wird dieses Jahr wohl ganz oben stehen. Inwieweit wird die Oberfläche akzeptiert werden? Wenn man sich daran erinnert wie groß die Resonanz auf die Position der Fensterbuttons war. Natürlich kann man die Oberfläche wieder zu Gnome ändern. Aber bei Umsteigern zählt der erste Blick. Wird man dann vor eine instabile bzw. unvollständige Oberfläche gesetzt sind die Nutzer gefrustet und lassen das Experiment Linux erstmal sein. Den Umsteigern dann zu erzählen man müsste erstmal eine andere Oberfläche installieren um bestimmte Funktionen zu haben ist manchen Einsteigern auch zuviel. Ob ubuntu langfristig GNOME von der CD wirft bleibt abzuwarten, genauso wie sich dies insgesamt entwickelt.

Bei vielen habe ich schon gelesen, dass vermutet wird, Canonical möchte ubuntu auf Mobiledevices trimmen. Wayland und Unity währen dafür wesentlich ehr geeignet als das große Gnome und der X-Server. Insgesamt sieht man aber das Canonical einen sehr merkwürdigen Weg zzt. fährt und man irgendwie nicht weiss was man davon halten soll. Mit dem Vorantreiben von Wayland und der Entwicklung von Unity bricht Canonical aus dem Bild der typischen Linuxdistributionen heraus. Auch die Ankündigung sich die Integration von QT-Andwendungen offen zu halten, wobei ubuntu seit jeher eine GTK Distribution war.

Nur wundert mich das im offiziellen Git Repository von Wayland im letzen Monat gerade einmal sechs Personen etwas beigetragen haben. Hier frage ich mich wie ernst es Canonical mit Wayland meint bzw. das der Zeitplan doch etwas sehr stramm gefasst ist. Ich lasse mich hier aber gerne eines bessern belehren. In der Entwicklung von Wayland bin ich nicht involviert.

Fazit:
Abwarten und Tee trinken. Was Canonical letztendlich mit der Haupdistribution macht, lässt sich weder voraussagen noch aktiv beeinflussen. Alternativen, auch ubuntu-interne Distributionen, gibt es genug. Auf jeden Fall bleibt es spannend.

Open Rhein Ruhr 2010

Der openSUSE Stand

Nach zwei Tagen hinter dem openSUSE-Stand, kann man behaupten das alles erfolgreich verlaufen ist. Neben vielen interessanten Gesprächen mit Besuchern, Usern und anderen Projekten (insbesondere Mageia) war auch die Messe selbst ein großer Erfolg. Die Location lag wesentlich besser als letztes Jahr, was sich auch auf die Besucheranzahl niederspiegelte. Diese konnte sich nach überschlagen der Zahlen im Vergleich zum letzten Jahr verdoppeln. Genaue Besucherzahlen habe ich leider noch nicht herausbekommen.

Der openSUSE Stand präsentierte sich mit dem HP Touchscreen-PC und einem Beamer auf dem eine Präsentation lief. Den Besuchern wurde der openSUSE Build Service, SUSE Studio, webYaST als natürlich auch openSUSE 11.3 vorgeführt. Viele waren von SUSE Studio sehr begeistert, womit sich in wenigen Minuten eine eigene Linuxdistribution erstellen lässt und sogar im Browserfenster ausführbar ist.

Amüsant war bei dem samstatigen Social Event die “Denial of Service Atacke” auf die lokalen Pizzarien. Die Latenz war Anfangs recht hoch, verringert sich aber trotz Ausfall der Pizzarien rapide, so das noch jeder seine Pizza zugestellt bekommen hatte.

Eingangsbereich der ORR

Der Sonntag war wie erwartet ruhiger verlaufen. Da mein Standkollege am Vormittag einen Vortrag über Inkscape hatte, wurde der openSUSE Stand immer wieder von Inkscape Interessenten besucht die wir zu Teilen auch für openSUSE begeistern konnten.

 

Im laufe der Gespräche stellte sich heraus, dass die Gerüchte “YaST überschreibt Config-Dateien” und “die Paketverwaltung ist unbenutzbar langsam” immernoch in den Köpfen vieler Leute sind. Ich bin aber guter Hoffnung, das wir denjenigen dies glaubhaft wiederlegen konnten.

Fazit:
Die Open Rhein Ruhr lohnte sich auf jeden Fall. Die neue Location ist im Gegensatz zum Saalbau wesentlich besser zu erreichen. Vom Ort selbst als auch von der Anbindung an die öffentlichen Verkehrsmittel. Ich hoffe, dass die ORR auch im nächsten Jahr wieder in Oberhausen Ihre Pforten öffnet. Diesmal dann hoffentlich mit noch mehr Publikum. Diejenigen die dieses Jahr nicht dort waren, haben auf jedenfall etwas verpasst.

Computer / Laptops mit Server synchron halten

Man kennt das Problem wenn man mehrere Rechner hat. “Hier fehlt eine Datei die ich auf dem Laptop hatte.” “Die Datei war dann doch woanders.” Sowas ist auf dauer zeitaufwendig und zerrt an den Nerven die Dateien zu suchen. Besser ist wenn alle Daten auf einem Homeserver liegen und man die Rechner so aktuell halten kann. Folgendes lässt sich mit rsync bewerkstelligen.

Auf dem Server

Zuerst einmal müssen Sie dafür Sorgen das der rsync Daemon automatisch beim booten mitstartet. Die Einstellung nehmen Sie in YaST in Systemdienste (Runlevel) vor. Stellen Sie im Expertenmodus den Dienst rsyncd so ein das er bei Runlevel 3 und 5 mitstartet. Die Einstellungen übernehmen Sie nun.

Öffnen Sie nun eine Konsole und verschaffen Sie sich mittels su Rootrechte. Mit dem Befehl vi /etc/rsyncd.conf können Sie die Konfigurationsdatei von rsyncd öffnen. Hier tragen Sie nun folgendes ein bzw. ändern die Einstellungen:


gid = users
read only = true
use chroot = true
transfer logging = true
log format = %h %o %f %l %b
log file = /var/log/rsyncd.log
pid file = /var/run/rsyncd.pid
hosts allow =
slp refresh = 300
use slp = false

[homefreigabe]
path = /home/detlev/
comment = syncordner
auth users = detlev
secrets file = /etc/rsyncd.secrets
read only = false
uid= 1000

(Sie müssen die Taste i drücken um in den Einfügemodus zu gelangen)

detlev

ersetzen Sie durch den Benutzer der die Daten später besitzen soll. Bei

path

muss der Ordner stehen der die Daten später aufheben soll. Bei

uid

muss die ID des Benutzers detlev eingegeben werden. Diese können Sie zum Beispiel in YaST nachschauen. Speichern Sie mit dem Befehl Esc gefolgt von :wq

Nun öffnen Sie mit vi /etc/rsyncd.secrets und geben Sie dort den Benutzer mittles seinem SMB-Passworts ein. In diesem Falle:

detlev:seinpasswort

Dies können Sie nun auch speichern. Sollte detlev noch kein SMB-Passwort besitzen können Sie dies mit dem Befehl smbpasswd erstellen.

Nun starten Sie mittels rcrsyncd restart den Dienst neu. Dieser übernimmt nun auch die Einstellungen.

Bitte beachten Sie das sie in der SuSEFirewall den Dienst noch freigeben müssen. Ansonsten kann dieser nicht nach außen kommunizieren.

Auf dem PC

Auf dem PC erstellen Sie mit einem Editor Ihrer wahl folgendes Scripst:

Zum Sichern

#!/bin/bash
rsync -auv --delete --password-file=rsync.pwd --exclude=/.* --exclude=Videos/* ~/ detlev@192.168.1.42::homefreigabe
sleep 2

Speichern Sie dies unter backup.sh

Zum Zurückspielen

#!/bin/bash
rsync -auv --delete --password-file=rsync.pwd --exclude=/.* --exclude=Videos/* detlev@192.168.1.42::homefreigabe ~/
sleep 2

Speichern Sie dies unter aktualiseren.sh

Die IP durch die des Servers erstetzen, sowie natürlich den Benutzernamen und den Pfad.

In den beiden Beispielen werden alle versteckten Dateien und Ordner ignoriert sowie der Ordner Videos. Nachdem rsync fertig ist bleibt das Script noch 2 Sekunden stehen. Wird es nämlich in einem Fenster aufgerufen so lassen sich die Ausgaben am Ende nicht mehr sehen, da es zu schnell schließt.

Nun im gleichen Ordner eine Datei

rsync.pwd

erstellen und das SMB-Passwort eintragen. In diesem Falle

seinpasswort

Die Datei abspeichern und nur für den eigenen Benuter lesbar und schreibbar machen. Ansonsten verweigert rsyncd die Arbeit.
Sinnvoll ist es die Datein im Ordner ~/bin abzulegen. Nun können Sie die ersten Synchronisation mittels ./backup.sh durchführen. So werden die Daten auf den Server geladen. Andere Dateien von anderen Rechnern MÜSSEN!!! manuell in das Verzeichnis gelegt werden. rsync würde Sie sonst löschen. Die beiden Scripte können so übernommen einfach auf die anderen Rechner kopiert werden. Die Passwortdatei erstellen Sie einfach auf alle anderen Rechner.

Sinnvoll ist es beim hochfahren Dateien zurückzuspielen und beim herunterfahren sichern. Der erste Upload und der erste Download müssen vollständig sein. Ansonsten überschreibt rsync andernfalls noch Daten die eigentlich gesichert werden sollten.

Icons zu den Scripten

In KDE habe ich mir in die Kontrollleiste zwei Verknüpfungen angelegt. So kann ich schnell meine Daten sichern. Hier besteht nur das Risiko das man nicht ausversehen das falsche Icon betätigt.

So war die FrOSCon 2010

FrOSCon 2010 Eingang

Einmal im Jahr zieht es alle Technik und Open Source Begeisterte nach St. Augustin zur Free & Open Source Conference. Dieses Jahr hatte sich zudem großer Besuch angekündigt. Kein geringerer als Jon “Maddog” Hall, besuchte die FrOSCon und hielt unter vollem Hörsaal eine Keynote zum Thema “Free and Open Source Software in the Developing World”. Aber auch die anderen Vorträge waren wie immer von bester Qualität und deckten so ziemlich jeden Aspekt der Softwarewelt ab. Sei es Entwicklung, Administration und normales Benutzen von Software.

Folgend ein kleines Tagebuch der FrOSCon aus meiner Sicht:

09:53

Die Bahn kommt. Genau gesagt geht es erstmal von Neuss nach Köln. In Köln Hansaring steigen wir um in die S12 nach St. Augustin. Dann noch ne Runde Straßenbahn und schon folgten wir den weißen Fröschen zur Froscon.

 

12:15

Nach dem obligatorischen Abholen der Tasche mit Werbegeschenken und dem stylischen Froscon T-Shirt ging es mehr oder weniger auch direkt in den Hörsaal 1 um die Keynote von Jon “maddog” Hall zu verfolgen. Im großen und ganzen sehr Interessant sein Vortrag auch wenn manches was er sich an OpenSource Projekten vorstellt doch recht unrealistisch erscheint, da der Markt für so etwas einfach nicht bereit ist.

14:00

Der KDE und amaroK Stand

Nach und nach arbeitet man sich durch die verschiedenen Stände durch und kommt auch ins Gespräch. Interessant fand ich die kommenden Version von amaroK, die in der nächsten oder übernächsten Release eine Virtualisierung enthalten wird. Und die sieht noch nicht mal schlecht aus und kann mit iTunes oder Windows Media Player Pendanten ohne Probleme mithalten.

 

15:15

In einer Vorlesung über Cloudcomputing konnte ich mich über die Risiken dessen informieren. Hier wurde einem vor Augen geführt welch ein Risiko überhaupt im Cloudcomputing steckt. Gerade das Risiko das man seine Daten oder Applikationen nicht selber verwalten kann, birgt eine großes Risiko. Man ist bei externen Anbietern immer davon abhängig, das dieser seinen Service auch nicht einstellt bzw. APIs auf einmal ändert etc.

18:00

Gegen 18 Uhr ging es dann zum “Social Event” um bei super Wetter und Musik eine leckere Grillwurst und Salat zu essen. Geschmacklich und preislich mal wieder top.

20:00

Langsam ging es dann wieder auf den Rückweg. Nach knapp zwei Stunden fahrt war man dann auch wieder Zuhause und froh im Bett zu sein.

Samstag

openSUSE auf der FrOSCon

Am Samstag war ich natürlich auch dort, diesmal aber ehr um mir die Vorlesungen anzuschauen. Dort war ich aber nicht der einzige. Die Gänge waren wesentlich leerer, die Hörsäle dafür voller. Nachdem ich mir einen Vortrag über WINE angehört habe, ging es zu einem wirklich interessanten Vortrag über ZFS, der leider schon nach einer Stunde abgebrochen werden musste, da die Zeit nicht mehr reichte. Der letzte Vortrag den ich mir anschaute war über Gnome 3. Da ich auch den Vortrag vom letzten Jahr kannte war ich hier gespannt auf die Änderung die seitdem eingetreten sind. Im Grunde hat man nicht wesentlich viel neues gesehen. Gnome 3 ist stabiler geworden, man hat an der Gnomeshell viel stabiler gemacht und optisch verbessert. Das neue Bedienkonzept ist etwas ungewöhnlich und man muss sich darauf einlassen um es zu verstehen. Im großen und ganzen nimmt Gnome 3 langsam fahrt auf. Persönlich glaube ich das Gnome versucht die Fehler von KDE nicht zu wiederholen sich dabei aber in zu vielen Kleinigkeiten verläuft.

Alles in allen mal wieder eine schöne Konferenz. Die nächste große Open Source Veranstaltung währe die Open Rhein Ruhr in Bochum im November.

Man sieht sich dort.

Regelmäßiges Backup einer Festplatte mit rsync

Wie schon in meinem vorherigen Blogpost geschrieben befindet sich in meinem Server zwei 160 GB Festplatten. Hier liegt die Idee nahe eine Festplatte als Sicherungsmedium zu verwenden, dass regelmäßig die andere Festplatte spiegelt.

Leider besitzt mein Mainboard keinen RAID-Controller, so dass ich auf rsync ausweichen muss. rsync kann eine Quelle und ein Ziel synchron halten, allerdings nur in eine Richtung. Wird im Ziel etwas geändert, gelöscht oder angelegt kann dies nicht auf die Quelle zurückgeführt werden. Dies ist in diesem Falle auch nicht wichtig, da an dem Backup eh keine Änderungen vorgenommen werden. Die Backups werden mittels cron automatisiert, so das man sich darum keine Gedanken mehr machen muss und es nicht vergessen kann.

Lassen Sie sich nicht von der länge dieses Artikels abschrecken. Ich habe Ihn nur sehr ausführlich geschrieben damit man die Schritte klar nachvollziehen kann.

Schritt 1: Festplatte vorbereiten

Da wir wie schon erwähnt die zweite Festplatte komplett für die Datensicherung nutzen werden, müssen wir sie dementsprechend einrichten. Dazu habe ich sie mit einem ext4 Dateisystem formatiert und standardmäßig in /backup eingehangen. Dies können Sie ganz einfach mit YaST erledigen. In /backup wird das System später gespiegelt.

Schritt 2: rsync Befehl bauen

Damit rsync später weiß, was es kopieren soll braucht es eine etwas längeren Befehlssatz:

rsync -auv --log-file=/var/log/rsync_backup --delete --exclude=/sys --exclude=/tmp --exclude=/proc --exclude=/mnt --exclude=/dev --exclude=/backup / /backup

Diesen werden wir nun auseinander nehmen, damit sie wissen was genau passiert.

  • rsync der Befehl an sich
  • -auv Hier muss man noch einmal etwas tiefer gehen. Das -a steht eigentlich für mehrere Optionen die in einem zusammengefasst sind. -a umfasst die Optionen r, l, p, t, g und D. Dass heißt, dass rsync alle Unterverzeichnisse mit verabreitet (r), symbolische Links mitkopiert (l), die Rechte der Dateien und Order beibehält (p), die Zeitstempel beibehält (t), die Gruppenrechte beibehält (g) und die Gerätedateien (D). Das -u steht für Update und sorgt dafür das nur neuere Dateien kopiert werden. Das -v steht für verbose und gibt Details auf der Konsole aus was gerade passiert.
  • –log-file=/var/log/rsync_backup Da wir ja einen Server betreiben und das Backup automatisch abläuft können wir leider nicht sehen ob es erfolgreich ist oder ob es Fehlermeldungen gab. Deswegen weisen wir rsync mit diesem Befehl an, einen Log in die Datei /var/log/rsync_backup zu schreiben. Der Pfad und der Name ist frei wählbar. Ist die Datei noch nicht vorhanden wird Sie automatisch angelegt.
  • –delete sorgt dafür das Dateien die auf der Quelle gelöscht wurden auch auf dem Ziel gelöscht werden. Ansonsten würde das Backup mit der Zeit immer voller werden, da Dateien in der Quelle wieder gelöscht werden aber auf dem Ziel verbleiben würden.
  • –exclude=/backup etc. Die exclude Optionen sagen rsync welche Ordner ausgelassen werden sollen. Das der Ordner /backup ausgelassen werden muss ist logisch, das rsync ansonsten nur im Kreis laufen würde. Die Ordner /tmp,  /sys , /proc und /dev sind für ein Update ohne Bedeutung, da diese Dateien vom Betriebssystem dynamisch bei jedem Start von selbst erstellt werden, bzw. bei /tmp es sich um temporäre Dateien handelt. Der Ordner  /mnt muss ausbleiben weil darin externe Medien wie DVDs etc. eingebunden werden die rsync dann auch kopieren würde. Beim nächsten Durchlauf würde diese Dateien wegen der –delete Option zwar wieder gelöscht werden, allerdings ist es ein Zeitaufwand der nicht sein muss.
  • / Das Quellverzeichnis
  • /backup Das Zielverzeichnis.

Nun testen Sie Ihren Befehl nach gründlichen durchschauen durch und lassen Sie das erste Backup durchlaufen. Der Befehl muss als root ausgeführt werden, damit alle Dateien kopiert werden können. (Achtung: Bei falscher Handhabung kommt es zum Datenverlust)

Sicherung automatisieren

Speichern Sie ihrem rsnc Befehl nun als script in dem root Ordner unter /root/bin/ ab. Dazu können Sie vi benutzen. In dem oben genannten Falle sähe das Script so aus:

#! /bin/sh
rsync -auv --log-file=/var/log/rsync_backup --delete --exclude=/sys --exclude=/tmp --exclude=/proc --exclude=/mnt --exclude=/dev --exclude=/backup / /backup

Um das Script anzulegen geben Sie vi rsync_backup ein. Wenn sich vi geöffnet hat drücken Sie i um in den Eingabemodus zu gelangen. Nachdem Sie das Script eingetippt haben drücken Sie Esc und geben dann :wq ein, gefolgt von einem Enter. Das w steht für write und da q für quit. Damit werden die Daten geschrieben und vi beendet.
Geben Sie nun als root folgenden Befehl ein um dem crondeamon einen neuen Task einzuplanen:

crontab -e

Nun öffnet sich der Editor vi. Drücken Sie nun i um in den Eingabemodus zu gelangen und tippen Sie folgendes ein. Was schon vorhanden ist müssen Sie nicht wiederholen:

SHELL=/bin/sh
* 18 * * 0 /root/bin/rsync_backup

Das * 18 * * 0 steht für jeden Sonntag um 18 Uhr soll der Befehl /root/bin/rsync_backup ausgeführt werden. Wie Sie ihr eigenen Zeitplan erstellen können habe ich weiter unten verlinkt. Drücken Sie nun Esc. Tippen Sie nun :wq ein und bestätigen Sie mit Enter.

Interessante Links zu dem Thema

 

Günstiger Atomserver mit openSUSE

Fertiger Server auf Standfuß

Das ein kleiner Homeserver praktisch ist, ist nicht erst seit gestern bekannt. Deshalb finden Sie hier eine kleine Anleitung zum selber bauen, da Sie damit wesentlich günstiger wegkommen als einfach einen NAS zu kaufen, der obendrein weniger flexibel ist. Insgesamt kostet Sie dieses System ca. 250€ und ein paar Stunden Zeit zum einrichten. Jeder der schon einmal einen Rechner zusammengebaut hat wird auch mit diesem System keine Probleme haben. Was Sie auf jedenfall brauchen sind Grundkenntnisse in openSUSE und Linux. Ansonsten sollten Sie lieber einen NAS kaufen, oder Windows darauf installieren. Wobei beides irgendwie langweilig ist.

Hardware

  • ANTEC ISK 300 65W
  • ASUS AT4NM10-I mit Atom D410
  • GEIL 1GB DDR800 RAM
  • 2x 2,5″ 160GB Western Digital 24/7 Festplatten
  • 1x Netzwerkkabel

Lieferung

Ich habe mich hier für das Antec Gehäuse wegen seiner kompaktern Bauform und auch wie ich im Nachhinein festgestellt haben super Qualität entschieden. Das Gehäuse ist sehr gut verarbeitet. Es gibt keine scharfen Ränder. Die Schrauben machen einen Eindruck das man sie mehr als einmal hineinschrauben kann. Das Mainboard inkl. Prozessor ist passivgekühlt, so das an Betriebsgeräusch nur der im Gehäuse verbaute Lüfter zu hören ist. Bei mittlerer Drehzahl ist er kaum hörbar.

Einbau

Im Gehäuse selber geht es sehr eng zu, so dass die beigelegten Kabelbinder und Kabelösen sehr gut zu gebrauchen sind. Da das 24polige Mainboardkabel sehr kurz ist, sollte beim Kauf darauf geachtet werden wo sich der Stecker befindet. Das Mainboard musste mit etwas Kraft an die Schnittstellenseite gedrückt werden damit es festgeschraubt werden konnte. Hier auf die Schraubengröße achten, ansonsten lassen sich diese nicht festziehen. Da ich zwei Festplatten verbaut habe bleibt die an der Frontseite des Gehäuses befindliche SATA Schnittstelle ohne Funktion, da nur zwei SATA Schnittstellen am Mainboard vorhanden sind. Dem Mainboard liegt nur ein SATA Kabel bei. Sollten Sie auch zwei Festplatten benutzen brauchen Sie noch ein Kabel zusätzlich. Leider hat Antec keinen Speaker eingebaut. Zum Glück hatte ich noch eines in Reserve, ansonsten muss man einen für etwa 2 bis 3 Euro nachkaufen.

Installation

Innenansicht

Nachdem das System zusammengebaut ist, wurde das System in diesem Falle openSUSE 11.3 mit einer minimalen X Oberfläche installiert. Dazu habe ich ein externes DVD Laufwerk verwendet, da ein Slot-In Laufwerk sehr teuer ist und in einem Server eigentlich auch nie gebraucht wird. Sie können aber auch einen USB Stick verwenden oder ein Laufwerk einbauen.

Nach der Installation lässt es sich per ssh warten (So kann man sich auch zwangsweise mit dem Terminal auseinandersetzen). Mit Updates versorgt es sich der  Server selber per cron. Für die restlichen Systeme die ich unter openSUSE laufen lasse, wird das Updaterepository automatisch auf dem Server gespiegelt, so das die Updates schnell verteilt werden können und nur einmal geladen werden müssen. Natürlich läuft auch ein SMB, Apache und CUPS darauf.

Das System lässt sich mit dem mitgelieferten Ständer auch horizontal Aufstellen so das kaum Platz gebraucht wird.

Interessante Links zu dem Thema

Da ich selber schon viel zu dem Thema recherchiert habe, möchte ich Ihnen ein paar Interessante Links zu dem Thema nicht vorenthalten: