Tag Archives: nano

Virtualbox: failed: libQtCore.so.4: cannot open shared object file: No such file or directory

Virtualbox: failed: libQtCore.so.4: cannot open shared object file: No such file or directory

VirtualBox: supR3HardenedMainGetTrustedMain: dlopen("/usr/lib/virtualbox/VirtualBox.so",) failed: libQtCore.so.4: cannot open shared object file: No such file or directory

Fehler der beim Start von Virtualbox auftritt. Durch die Installation von qt gibt sich das wieder und VirtualBox lässt sich nun, ohne murren, starten.


pacman -S qt

modprobe vboxdrv

Noch ein kleiner Tipp. Damit modprobe vboxdrv nicht jedes mal von Hand eingegeben werden muss kann man modprobe vboxdrv in die /etc/rc.local schreiben. Dann wird es bei jedem Bootvorgang automatisch ausgeführt.

#!/bin/bash
#
# /etc/rc.local: Local multi-user start-up script.
#
modprobe vboxdrv

WordPress Backup mittels rsync und ssh

WordPress Backup mittels rsync und ssh

WordPress Backup mit rsync über ssh

Gabelschlüssel am Hackenich hatte vor einiger zeit mal einen Artikel über das Backup-Erstellen geschrieben. Nachteil dieser Methode von damals ist sicher der enorme Speicherbedarf, der dabei entsteht. Hatte mir innerhalb weniger Wochen die komplette Platte zugeknallt. Da ist doch eine Anpassung angesagt gewesen.

Heute war es dann so weit und ich setzte mich daran ein Backupsystem zu erstellen das über rsync läuft und nicht so viel Datenmenge kreiert.

rsync erste Wahl beim Backup erstellen

rsync ist ein Programm, um Dateien zwischen lokalen oder über das Netzwerk erreichbaren Pfaden abzugleichen. Dabei werden zunächst die Größe und die Erstellungszeit der Dateien in Quelle und Ziel verglichen, so dass nur die Dateien behandelt werden müssen, bei denen es Änderungen gegeben hat. Sind Quelle und Ziel lokale Pfade, werden die betroffenen Dateien normal kopiert. Wenn auf Quelle oder Ziel aber per SSH oder über einen speziellen rsync-daemon zugegriffen wird, nutzt rsync zusätzlichen noch einen speziellen Delta-Transfer-Algorithmus, so dass nur die geänderten Teile der Dateien über das Netzwerk transportiert werden müssen.

Quelle: http://wiki.ubuntuusers.de/Startseite

Also rsync passt wie die Faust aufs Auge wenn es darum geht Sicherungen zu erstellen.

Wenn man also ein Verzeichnis, mittels SSH auf einen andern Server, kopieren will. Schaut der Befehl so aus:

# rsync -avze ssh /zu/kopierendes/verzeichnis benutzer@entfernterserver.de:/ziel/auf/server

Als bequemer Mensch will ich Automatismus

Genau, jeden Tag einen Cronjob um Mitternacht plus email was alles getan wurde.

SSH einrichten

Zuerst müssen wir also eine Authentifizierung über Public-Keys erstellen damit wir kein Passwort brauchen.

# ssh-keygen -t rsa

erstellt ein Schlüsselpaar. Bei dem wir die Passphrase leer lassen. Dann müssen wir den Schlüssel übertragen.

# ssh-copy-id -i ~/.ssh/id_rsa.pub benutzer@entfernterserver.de

Script erstellen

Jetzt brauchen wir noch ein Script, da es mir hier hauptsächlich darum geht ein WordPress Backup zu erstellen muss man auch die sql Tabelle mit sichern.

Starten des Editors

# nano /root/rsyncer

Folgenden Script eintragen. Natürlich an die eigenen Gegebenheiten anpassen.

#!/bin/sh

#mysql datenbanken exporieren. 
 mysqldump DATENBANKNAME -u MYSQLBENUTZERNAME -pPASSWORT > /var/www/wordpressbackup.sql

#rsync des Webverzeichnisses inc. logdatei erstellen
rsync -avze ssh /var/www/ benutzer@entfernterserver.de:/ziel/auf/server > /root/rsyncausgabe

#logdatei mailen
mail -s "rsync Ausgabe" meine@mailadresse.de < /root/rsyncausgabe

Erklärung:
Zuerst wird die mysql Tabelle in das zu sichernde Verzeichnis exportiert.
Dann wird alles übertragen und die Ausgabe in die Datei rsyncausgabe geschrieben. Diese wird wiederum als Mail an mich versendet.

Jetzt nur noch Benutzer und Rechte anpassen und das Script ausführbar machen

# chown root:root /root/rsyncer
# chmod 770 /root/rsyncer

Täglichen cronjob erstellen

Nun ist das Script erstellt und es kann ein cronjob eingerichtet werden. Wer nicht den vi Editor für crontab -e benutzen will, für den hab ich hier eine Anleitung geschrieben wie man auf den nano Editor wechselt.

Als root ausführen:

# crontab -e

und folgendes in die Tabelle um "@daily  /root/rsyncer" erweitern

# Edit this file to introduce tasks to be run by cron.
#
# Each task to run has to be defined through a single line
# indicating with different fields when the task will be run
# and what command to run for the task
#
# To define the time you can provide concrete values for
# minute (m), hour (h), day of month (dom), month (mon),
# and day of week (dow) or use '*' in these fields (for 'any').#
# Notice that tasks will be started based on the cron's system
# daemon's notion of time and timezones.
#
# Output of the crontab jobs (including errors) is sent through
# email to the user the crontab file belongs to (unless redirected).
#
# For example, you can run a backup of all your user accounts
# at 5 a.m every week with:
# 0 5 * * 1 tar -zcf /var/backups/home.tgz /home/
#
# For more information see the manual pages of crontab(5) and cron(8)
#
# m h  dom mon dow   command

@daily                  /root/rsyncer

Damit wird jeden Tag, Punkt Mitternacht ein Backup unseres WordPress oder anderes erstellt.

visudo: Satt vi den nano editor benutzen

visudo: Satt vi den nano editor benutzen

/etc/sudoers mit visudo bearbeiten? Natürlich aber doch lieber mit nano!

Visudo mit nanoich hab schon mal geschrieben das ich den vi editor nicht mag. Ich bevorzuge den nano. Der ist einfach schöner und einfacher. Wenn man aber mittels visudo die /etc/sudoers bearbeiten will kommt man in den vi.

Zum Glück hab ich nun herausgefunden wie man das ändern kann und der tolle nano beim visudo bearbeiten kommt.

In die Konsole das eingeben:

EDITOR=nano sudo -E visudo

und der nano Editor zum sicheren bearbeiten der /etc/sudoers startet.

Eine feine Sache.

Einen anderen Editor für Crontab -e auswählen

Einen anderen Editor für Crontab -e auswählen
Einen anderen Editor für Crontab -e auswählen

crontab Ich mag den VI-Editor nicht, zu umständlich, zu viele Funktionen zu viele Tastenkürzel. Ich bin ein nano Fan. Klein, leicht, übersichtlich. Genau was ich will. Bei Debian und vielen anderen Distributionen sind die Editoren für den Cronjob schon voreingestellt. Aber man kann sie leicht ändern:

export EDITOR=/usr/bin/vi
export EDITOR=/usr/bin/vim
export EDITOR=/usr/bin/nano

oder einen anderen bevorzugten Editor.
Mit

update-alternatives --config editor

bekommt man sogar eine Liste zum auswählen.
Ich mag die export EDITOR/usr/bin/... Methode lieber. Getreu dem KISS-Prinzip.

Keep it simple, stupid.

(„Halte es einfach, Dummkopf!“)

Virenscan unter Linux

Virenscan unter Linux

Mittels clamav Datenträger unter Linux nach Viren durchsuchen

Neulich hatte ich den Fall das ich ein Backup eines Viren verseuchten PC machen musste. Doch das wieder aufzuspielen ist ja mehr als töricht. Schön das es unter Linux einen mächtigen Kommandozeilen Viren Scanner namens ClamAV gibt. Diese Anleitung bezieht sich wieder auf Arch Linux kann aber auf alle Distributionen übertragen werden.

Zuerst soll unser Paketmanager mal ClamAV installieren

pacman -S clamav

Nun geht es an die Konfiguration. Die sehr simpel ausfällt. Man muss nur in den beiden .conf jeweils die 8. Zeile wo Example steht auskommentieren. Also ein # davor setzten

nano /etc/clamav/clamd.conf
nano /etc/clamav/freshclam.conf

in der /etc/conf.d/clamav sollten die startoptinen auf "yes" gesetzt werden

nano /etc/conf.d/clamav
< # change these to "yes" to start 
START_FRESHCLAM="yes" 
START_CLAMD="yes"

jetzt kann mit

freshclam

die Virendatenbank aktualisiert werden. Ich bekam allerdings immer diese Fehlermeldung:

 WARNING: Clamd was NOT notified: Can't connect to clamd through /var/lib/clamav/clamd.sock 
connect(): No such file or directory

um das zu lösen führt man als root diesen Befehl aus:

touch /var/lib/clamav/clamd.sock && chown clamav:clamav /var/lib/clamav/clamd.sock

nun sollte alles so gehen wie wir es wollen.
Mit

clamscan

führt man den scan aus.

clamscan -r /

macht einen vollen systemscan

clamscan -ri /

zeigt nur die gefunden Viren verseuchten Dateien an
um zum Beispiel zurückzukommen: Ich habe den USB-Stick nach /mnt/ gemountet und wollte gleich die Treffer löschen lassen. Die --remove=yes Option sollte allerdings mit Vorsicht genossen werden. Aus Gründen die jeden klar sein sollten. Aber bei einem USB-Stick ist das egal.

clamscan -ri --remove=yes /mnt/

interessant ist noch die Option --move=DIRECTORY die die Infizierten Dateien in ein definierten Ordner verschiebt. Dazu muss aber der Benutzer in diesem Ordner Schreibrechte haben.

Headerbild: Das Bild konnte nicht bearbeitet werden. Bitte versuche es erneut.

Headerbild: Das Bild konnte nicht bearbeitet werden. Bitte versuche es erneut.

Headerbild: Das Bild konnte nicht bearbeitet werden. Bitte versuche es erneut.

so schön ist der Frühling

Mein kleines Geburtstagsgeschenk

Und das bei einer frischen Installation von WordPress. So was ist ärgerlich da investiert man viel Zeit in die Installation eines Servers und dann so etwas.

Diese Lösung des Problems ist für Leute die ihr WordPress selbst hosten.

Die Lösung dieses Problems sind grafische PHP Bibliotheken die man einfach nach installieren kann und muss.

 

Debian:

# apt-get install php5-gd imagemagick

Arch Linux

# pacman -S php5-gd imagemagick

Danach Apache neu starten
Debian:

# /etc/init.d/apache force-reload

Arch Linux:

# /etc.rc.d/httpd restart

Danach Funktioniert auch das Bilder bearbeiten. Die Kopfzeile kann nun verändert werden und  auch das Bildbearbeiten  in der Mediathek funktioniert nun.

Wenn du allerdings

Ein kleines bash Script für eine tägliche WordPress Sicherung und übertragung via scp

Ein kleines bash Script für eine tägliche WordPress Sicherung und übertragung via scp

Vor einiger Zeit habe ich ja hier schon mal beschrieben wie man ein WordPress Backup unter Linux auf der Konsole erstellt und wieder zurückspielt. Da ich aber recht faul bin hab ich ein kleines Script geschrieben. Mein Server ist auf Debian umgezogen darum müssen evtl. die Pfade angepasst werden ebenso wie das mysql Benutzer Passwort. […]