PDA

Bekijk de volledige versie : rdiff backup



Fridolin4711
12-07-2008, 13:25
Hat jemand mit rdiff backup oder ähnliches erfahrung.
rdiff backup ist via command bei meiner WL-HDD im einsatz um daten der HDD auf eine externe HDD zu sichern. nun gibt es eine web Oberflächen, welche das backupleben erleihtert. Leider läuft das nicht bei mir. http://rdiffbackupweb.sourceforge.net/.

Im Detail ich erhalte nach dem login einen html fehler 500.

webserver: lighttpd
php ist drauf und läuft auch.

legolas
17-07-2008, 23:04
Hi,

versuch es mal mit rsync.

Norbert

MMCM
20-07-2008, 01:38
Ich habe auch mal vor einiger Zeit Rdiff-backup-web probiert, allerdings auf Ubuntu 8.04. Auch da habe ich keine sinnvolle Funktion zusammengebracht.
Warnung auf der Website: This is currently ALPHA quality software.
Also kein Wunder, wenn das nicht immer (oder meistens nicht?) funktioniert.

Aber wozu brauchst du das, via Befehlszeile/shell script kann man ja auch alles machen?

rdiff-backup auf dem WL-HDD wird wohl seeeeehr laaaaangsaaaaaam laufen, ich sichere meine "großen" Linux Server damit, und da rennt das tw. über 1h.
Wobei die Sicherung von einem WGT634U mit OpenWrt auf einen Ubuntu PC täglich ca. 5-10min braucht, je nach Umfang. Hängt halt sehr von der Datenmenge ab.

rdiff-backup mit Quelle und Ziel auf dem selben Gerät ist halt nicht wirklich sicher, wenn ein Angreifer die Kontrolle über die Quelle erhält, kann er die Sicherung auch manipulieren. Idealerweise sollte die Sicherung von einem vertrauenswürdigen Server (der von der Quelle (=Angreifer) aus nicht erreichbar ist) initiiert werden, wenn an der Quelle manipuliert wird, sieht man das sofort im Sicherungsprotokoll, zumindest sind die ältern Sicherungsgenerationen verwendbar.



versuch es mal mit rsync.


Offenbar kennst du den Unterschied zwischen den beiden nicht, rsync repliziert Dateien auf ein Ziel, welches dann eine Kopie der urspünglichen Daten enthält, und nicht mehr. Mit rdiff-backup werden zusätzlich alle älteren Sicherungen als Differenzen zu der nachfolgenden gespeichert, d.h. man hat je nach Platz eine beliebige Anzahl von Sicherungsgenerationen zur Verfügung.

legolas
20-07-2008, 19:51
Hi MMCM,

dann schau mal in die Manpages zu rsync. Das kann mehr als nur kopieren. Da ist auch differentielles kopieren möglich. Damit mache ich nämlich meine Backups. Das geht wunderbar.

Ich sammle allerdings nicht mehrere Wochen oder Monate in verschiedenen Dateien, sondern habe eine 1:1 Kopie meiner aktuellen Daten. Am Tagesende werden nur die Änderungen als Differenzen der Kopie hinzugefügt. Historische Daten wiederherstellen geht damit also nicht. Das liesse sich aber auch bewerkstelligen, wenn alle Tages-Differenzen in getrennten Dateien zusammengefasst werden. In regelmäßigen Abständen würde man ein Vollbackup machen und dann wieder darauf die Differenzen machen. Über Scripte und entsprechende Cronjobs würde das dann laufen.

Im Privatbereich auf weiner WL500gP o.ä. sollte man sich aber fragen, ob unbedingt die Historie gespeichert werden muss. Erfahrungsgemäß ist es ganz selten, dass man mal gelöschte Daten aus langer Vergangenheit wieder herstellen muss. Das kostet nur unnötig Speicherplatz und Zeit bei der Restaurierung. Meistens bemerkt man den Fehler eines versehentlichen Löschens unmittelbar, so dass eine 1:1 Kopie meistens ausreicht.

Es sollte auch nur ein Tipp zu einer anderen Lösung sein. Ob es brauchbar ist, hängt ja auch von den Anforderungen ab. Für einfache Backups geht auch rsync. Das ist sehr schnell und gibt es auch unter Olegs Firmware als Packet.

Norbert

MMCM
21-07-2008, 00:00
Am Tagesende werden nur die Änderungen als Differenzen der Kopie hinzugefügt. Historische Daten wiederherstellen geht damit also nicht.
Es ist mir schon bekannt, dass rsync sehr effizient nur die Änderungen überträgt, und rdiff-backup basiert ja auch auf der librsync ;-)

Wenn du versehentlich mal eine Datei löscht, oder ein Trojaner o. ä. tut das für dich, und du bemerkst das erst nach einer Woche, wirst du mit rsync keine Version dieser Datei mehr finden.


Das liesse sich aber auch bewerkstelligen, wenn alle Tages-Differenzen in getrennten Dateien zusammengefasst werden. In regelmäßigen Abständen würde man ein Vollbackup machen und dann wieder darauf die Differenzen machen. Über Scripte und entsprechende Cronjobs würde das dann laufen.
Genau das macht rdiff-backup, und man braucht nicht mal ein extra script dafür :-)
Und regelmäßige Vollbackups braucht man auch nicht, weil ja jeder Zustand einer gespeicherten Generationen dem eines Vollbackups entspricht.

Im Privatbereich auf weiner WL500gP o.ä. sollte man sich aber fragen, ob unbedingt die Historie gespeichert werden muss. Erfahrungsgemäß ist es ganz selten, dass man mal gelöschte Daten aus langer Vergangenheit wieder herstellen muss. Das kostet nur unnötig Speicherplatz und Zeit bei der Restaurierung. Meistens bemerkt man den Fehler eines versehentlichen Löschens unmittelbar, so dass eine 1:1 Kopie meistens ausreicht.
Ob Privatbereich oder beruflich in der Firma, ich finde, da macht es keinen Unterschied, wenn man seine Daten als wichtig einschätzt muss man sie entsprechend behandeln.

Und unnötig Speicherplatz verschwendet rdiff-backup auch nicht, weil ältere Generationen als Deltamengen gespeichert werden. Wenn der Speicherplatz knapp wird, dann kann man einfach die ältesten Generationen löschen, bis wieder genug Platz ist.

Beim Speicherplatz von einem relativ neu aufgesetzen Ubuntu Server brauchen 43 Delta-Generationen nur 0,9 GB von 25,2 GB.
Auf meinem Web/Mail Server, wo auch einige Versionen des OpenWrt-Entwicklungsbaums gespeichert sind, brauchen 378 Delta-Generationen nur 4,6 GB von 28 GB.
Und solange noch genug Platz am Sicherungsmedium ist, werde ich keine Generationen löschen.
Bei den Windows Rechnern mit einer Vollsicherung pro Woche und inkrementellen Sicherungen zwischendurch schaut da das Verhältnis schon ganz anders aus.
Leider gibt es keine Version von rdiff-backup für Windows, welche in der Lage wäre, eine funktionsfähige Vollsicherung einer Windows-Installation zu sichern, sonst würde ich es da auch einsetzen.
Als Alternative könnte man da vielleicht den Windows Home Server nehmen (den habe ich privat in Verwendung), wo im Prinzip nur geänderte Cluster für jede Generation gespeichert werden (Cluster mit gleichem Inhalt auf allen gesicherten Rechnern werden nur einmal physisch gespeichert). Sehr effizient, wenn man wie ich zig GB an Photos auf verschieden Rechnern gespeichert hat, und diese oft mehrfach (in verschiedenen Workflow-Stufen).

Und: Wie lautet schon die alte Regel, eine Sicherung mit weniger als drei Generationen ist keine Sicherung?

legolas
21-07-2008, 13:28
Hi MMCM,

hast Du mal eine Rücksicherung über 378 Diffs gemacht? Das macht sicherlich keinen Spass und dauert sehr lange um mal eben auf den aktuellenStand zu kommen. Früher haben wir auf Bandlaufwerken über Tagesdiffs gesichert. Da war es totale Quälerei, wenn man Rücksicherungen mal eben machen wollte.

Da bin ich dann wieder von differenziellen Backups weggekommen. Die 1:1 Kopien könnte man natürlich auch über ein Raidsystem direkt erledigen lassen, jedoch besteht dann die Gefahr, dass man versehentlich gelöschte Dateien nicht mehr restaurieren kann. Daher auch die verzögerte 1:1 Kopie auf einer separaten Spiegelplatte am Tagesende. Zudem gibt es zusätzlich auf der Backupplatte eine komplette Kopie des Betriebssystem, die nicht gemountet ist, um manipulationssicher zu sein. Das hat sich bei mir gut bewährt und Backups gehen sehr schnell. Falls eine Platte crasht, werden einfach die Platten getauscht bzw. umgemappt und weiter gehts.

Nach 6 Jahren Betriebserfahrung mit einer derartiger "Backup-Lösung" bin ich bis jetzt immer gut gefahren. Vieren stellen im Allgemeinen die geringste Gefahr dar, sofern man aktuelle Virenscanner auf dem Server und den Clients laufen hat. Datenverlust aufgrund von Viren durch unrestaurierbare Daten hatte ich damit noch nie. Die häufigsten Fehler waren unvorhergesehene Plattenausfälle, die sich aber immer beheben liessen, da die Backup-Platte immer nur temporär zum Zeitpunkt der Backuperstellung zugeschaltet waren und damit nur sehr geringe Laufzeiten hatte.

Um Virenmanipulationen sicher zu erkennen, sollte man lieber Fingerprints von allen wichtigen Verzeichnissen und Dateien erstellen. Da sieht man sehr schnell, wenn sich was verändert hat.

Norbert