=== taunix is now known as Fussel [09:06] moin [09:24] uhuuu vergessen xchat zu starten [09:24] ... [10:05] moin [10:08] Ich hab zwei Server, die LXC Hosts auf ZFS sind. Meine Backupidee ist, dass jeder Host von all seinen Container nachts einen Snapshot macht und den dann inkrementell zum jeweils anderen Server überträgt. Falls ein Server komplett ausfällt, kann man so das Backup direkt auf der anderen Maschine starten. "lxc copy" kenne ich, aber geht das auch inkrementell? [10:10] Ich hab auch zfs send und zfs receive gefunden. Das sieht schon ziemlich gut aus, aber ich hatte gehofft da gibt es vielleicht schon fertige Skripte, die die Kombination aus LXC und ZFS hier direkt handhaben können. Notfalls schreib ich mir selbst was. [10:15] Soweit ich weiß, gibt's für LXC nichts fertiges [10:20] hey, beim recherchieren finde ich bzgl. mnt vs media: mnt - temporäre user mounts. media für removable media. - nun will ich eine partition auf einer internen festplatte dauerhaft mounten. was nehm ich da? [10:21] mnt [10:29] jimsio: im Grunde ganz egal. Du kannst auch einen eigenen Ordner kreiren. Da in /media aber udisks automatisch sachen mountet, wie Wechselmedien, würde ich evtl. doch einen Unterordner in /mnt erstellen [10:32] intuitiv hätte ich das auch gesagt. danke euch [10:57] NTQ: vielleicht wäre drbd was für dich, damit kannst du block-Devices in Echtzeit auf andere Server spiegeln. [11:05] geser: Klingt interessant, ist aber hier nicht mehr möglich. zfs ist bereits eingerichtet und die System laufen damit. [11:05] Ich werde dann was eigenes basteln. [11:30] NTQ: kannst auch in #lxcontainers fragen [11:33] Ich war bisher immer in #lxc. Da sind sie aber nicht so gesprächig. Warte schon seit ein paar Tagen auf Antwort. Dann probier ich es mal noch dort. [11:48] hallo leute [11:49] hier meine Frage: kann mir jemand bitte sagen wie der DD befwhl mit komprimierung geht. ich möchte eine partition sichern dd if=/dev/sda1 of=/tmp/test.img [11:49] lahmer: siehe hier https://wiki.ubuntuusers.de/dd/#Image-einer-Partition-sichern [11:49] Title: dd › Wiki › ubuntuusers.de (at wiki.ubuntuusers.de) [11:50] dort ist auch beschrieben was man beachten muss und wie man das komprimierte dann wieder einspielt [11:58] werd ich mal lesen danke === rosseaux_ is now known as rosseaux [13:47] NTQ: drbd wäre eine Schicht unter dem zfs (also zwischen Partition/LVM und Dateisystem). Ich weiß leider nicht, ob man das noch nachträglich zwischenschieben kann. Ansonsten bräuchtest du ein Wartungsfenster für ein paar mv-Befehle. [13:50] geser: Na ich glaube ich bleibe lieber bei zfs send und receive. Mit drbd kann ich ja erst mal auf einem anderen Server herumspielen und lernen, wenn hier mal unnütze Hardware herumfliegt [13:53] NTQ: zfs send und receive kann auch vorteilhaft sein, da du dann eine gewisse Zeit hättest zwischen den Backups um mögliche Pannen zu retten. Bei drbd wird jede Änderung sofort auf die anderen Nodes repliziert (auch die unbeabsichtigten). [13:54] Ja, das wäre dann ja kein Backup mehr. [13:56] Mein Skript kann bisher lokal Snapshots aller Container machen und sie nach einer gewissen Zeit wieder löschen. Falls man mal in einem Container etwas versemmelt, kann man so ein sehr schnelles Restore machen. Gleichzeitig wird der neuste Snapshot auf den anderen LXC Host kopiert, falls da noch kein Container mit dem Namen existiert. Falls doch, wird mit zfs send/receive die Differenz übertragen. [13:57] Am letzten Teil mit zfs send/receive bin ich gerade. Der Rest läuft gut. [13:57] Bevor ich einen Snapshot mache, fahre ich den Container immer sauber runter und danach wieder hoch, damit alles konsistent ist. Und das geht ja innerhalb von Sekunden. [13:58] Ich könnte auch stateful Snapshots machen, aber das wäre bei uns hier übertrieben. Das kann ich immer noch optional einbauen, wenn ich Lust hab. === TheImp is now known as TheInfinity [14:50] tomreyn: hello ... [14:52] tomreyn: ich habe mal eine frage an dich, ich habe ja meinen MySQL server so konfiguriert, wie du es angeratten hattest, ich hoffe du erinnerst dich, allerdings sehe bemerke ich allerdins ein komisches verhalten brauche ich für die Verbindung eine Zertifikats datei? [14:55] MultiStorm: du brauchst einen public key, keine zertifikate [15:05] koegs: wie oder wo bekomme ich den ? [15:07] koegs: ist das das ? => https://www.thomas-krenn.com/de/wiki/OpenSSH_Public_Key_Authentifizierung_unter_Ubuntu [15:07] Title: OpenSSH Public Key Authentifizierung unter Ubuntu – Thomas-Krenn-Wiki (at www.thomas-krenn.com) [15:08] ich bin halt deswegen verwirrt, weil es mal geht und mal nicht, noch merkwürdiger, speicher ich die passwörrter geht es bisher immer ... [15:36] MultiStorm: jetzt denk doch mal kurz in Ruhe nach warum es mit gespeicherten Passwörtern immer geht... [15:37] MultiStorm: und ohne die seite ganz gelesen zu haben, scheint es Public Key Auth bei SSH zu beschreiben, ja [15:41] koegs: naja es liegt sicher nicht an einer fehleingabe des Passworts [15:42] zu langsam ? [15:57] MultiStorm: wie immer gilt, was sollen wir da ohne logs zu sagen??? [16:06] ja das ist das problem, der SQL Server scheint das nicht zu protokollieren, jedenfalls habe ich keine logs gefunden [16:07] mir ist schon klar das ihr nicht raten könnt, ich wollte ja auch eigentlich nur wissen ob eine SSH keyfile benötigt wird :-) [16:44] MultiStorm: du musst entweder ein Passwort benutzen oder einen Keyfile anlegen und den Public Teil auf dem Server anlegen. Der Privat Key verlässt nie den Client. === riddim_ is now known as rid_dim === riddim is now known as Guest47783 === Guest47783 is now known as rid_dim [19:10] moin! [19:11] namd [19:12] Ich versuche aus einem größerem verzeichnisbaum ein tarball zu erstellen, allerdings wird der prozess immer vom OOM killer abgeschossen. Und das obwohl noch jede menge ram und swap frei sind. Was macht man da am besten? [19:34] den Verzeichnisbaum aufsplitten in kleine tar-Pakete mit Kompression und dann alle zusammen in ein tar packen evtl? [19:37] jo werd ich wohl versuchen [19:38] verstehe ja nicht wie das system OOM sein kann wenn noch 5 GB speicher frei sind [19:39] vermutung: irgendwas mit /tmp und tmpfs [19:39] aber eigentlich sollte tar dort von sich aus nicht hinschreiben, iirc [19:39] was ist das denn für ein verzeichnisbaum und wie liest du den ein, damit der oom killer anspringt? [19:40] tsal, machst du das per GUI oder CLI? [19:40] wenn ersteres, probier mal letzteres, das muss auf jeden fall funktionieren [19:40] per cli. [19:41] Im prinzip ist das ein windows userverzeichnis, so 100 000 dateien, um 80 GB [19:42] und ich lese es mit tar -cv pfad/zum/verzeichnis | pigz -1 > userbackup.tgz ein [19:43] hm, gleiches verhalten wenn du tar direkt das kompromieren machen lässt? [19:43] /tmp scheint nur so 150kB drin zu haben [19:44] puh, werd ich jetzt mal ausprobieren. [19:45] tsal: Kann das Dateisystem in dass du schreibst so große Dateien? Manche können nur maximal 4GB große Dateien. [19:45] ext4, sollte eigentlich gehen [19:48] Hier ist der output von so einem OOM kill: http://paste.ubuntu.com/23990428/ [19:48] Title: Ubuntu Pastebin (at paste.ubuntu.com) [19:49] kompression ohne pigz läuft noch, mal gucken ob es auch abgeschossen wird. Dauert halt viel länger [19:50] tsal, ahja, terminal abgeschossen und nicht tar/pigz. dann hat das was mit der pipe zu tun [19:50] vermute mal ein problem mit pigz [19:51] hm, ich dachte das abgeschossene programm ist nicht immer das schuldige [19:52] joa, eben [19:53] hm, was macht man da? pigz nicht mehr benutzen? [19:54] gibt es einen guten weg herauszufinden was genau da schief geht? [19:54] tsal: könnte sein, dass da mit dem datenstream nicht ordentlich umgegangen wird und stattdessen der ram volläuft. [19:56] kann sein, sah aber nicht so aus bei der beobachtung mit htop [19:57] kann natürlich sein, dass es für einige zeit ok funktioniert, und dann plötzlich eine riesige ram menge anfordert [19:59] Ok, war wohl nicht pigz [19:59] mit tar -cvzf ist es genauso passiert [20:00] diesmal "Feb 13 20:55:01 vdrserv kernel: [1387936.147140] cron invoked oom-killer: gfp_mask=0x26000c0, order=2, oom_score_adj=0" [20:00] aber ergebnis dasselbe: bash abgeschossen [20:00] huh [20:04] probier's mal mit --hard-dereference [20:05] quelle: http://serverfault.com/a/8734 [20:05] Title: linux - Why does "tar -cSf file.tar source" run out of memory? - Server Fault (at serverfault.com) [20:06] läuft. Habs wieder über pigz laufen lassen damit man auf das ergebnis nicht zu lang warten muss. [20:08] wars das tatsächlich? ok [20:08] nein, jetzt wurde es abgeschossen [20:09] "Feb 13 21:07:40 vdrserv kernel: [1388692.377255] sh invoked oom-killer: gfp_mask=0x26000c0, order=2, oom_score_adj=0" [20:09] dasselbe ergebnis [20:09] puhhh [20:09] was sagt denn "free -m"? [20:10] während es läuft oder nachdem es abgeschossen wurde? [20:11] zweiteres ist: http://paste.ubuntu.com/23990580/ [20:11] Title: Ubuntu Pastebin (at paste.ubuntu.com) [20:13] hm, vielleicht ist der speicher fragmentiert? Die kiste läuft seit 16 tagen. [20:15] ich würde den rechner ja neu starten, aber das geht erst morgen abend. [20:16] Uptime ist alles! ;-) gute Nacht [20:16] jokrebel: gute nacht! [20:19] tsal, bei RAM spielt das keine rolle, der ist (wie der name schon sagt) wirklich wahlfrei :) [20:20] naja, vielleicht sind nur kleine stücke übrig, sodass es nicht genug am stück alloziieren kann [20:21] da gibt's kein "am stück" [20:21] bei 5GB frei eigentlich schwer vorstellbar... [20:22] tsal, guck mal mit strace was tar da macht [20:22] am besten dann kompression mit tar damit es nur einen prozess gibt [20:23] problem ist halt: wenn der tab abgeschossen wird ist die strace ausgabe weg. [20:23] oder soll ich die in eine datei schreiben lassen? [20:23] jo [20:27] trace läuft [20:27] das kann jetzt dauern... es hat durch das tracen einiges an geschwindigkeit eingebüßt [20:29] tsal, wenn es zu langsam ist, kannst du ja auch tar -v nutzen und dessen ausgabe in ne datei umleiten, ist sicherlich schneller [20:29] so kannst du wenigstens gucken ob es immer bei der selben datei passiert [20:30] ah, ne jetzt wurde es abgeschossen. [20:30] hat doch nicht so lang gedauert [20:31] letzte 2 zeilen: read(8, "\34\21Z\325\262\314&\241/a\351\206\316O\320\357\16\232\32\25\341\217|W\17\332K|\16\17P\204"..., 10240) = 10240 [20:31] write(4, "\34\21Z\325\262\314&\241/a\351\206\316O\320\357\16\232\32\25\341\217|W\17\332K|\16\17P\204"..., 10240Process 1929 detached [20:31] [20:32] hm ich lass es mit tar -v laufen und schau ob es an derselben datei anhält [20:40] ok, es bleibt nicht an derselben datei stehen [20:41] versuch mal die allein zu komprimieren [20:43] ppq: welche meinst du jetzt? [20:43] Kann man eine Luks Datei auch mit dem Filemanager einbinden? Laut wiki ja. Nur wie geht das? Verwende thunar [20:44] tsal, nevermind, hab das "nicht" überlesen.. sollte auch ins bett [20:44] ich werde es nochmal ohne tmux probieren, und vertag es dann wohl bis nach neustart morgen [20:45] dreamon, der erkennt die nur, wenn sie direkt in der partition liegen. dateibasierte container gehen afaik nicht direkt im dateimanager [20:46] WIKI: LUKS-Geräte können aber in GUI komfortabel per Maus-Klick eingebunden werden. Das Passwort kann dabei im Falle von GNOME im Schlüsselbund, bei KDE in der KDE Brieftasche hinterlegt werden, sodass LUKS-Geräte ohne extra Abfrage eingehängt werden können.Unter GNOME kann man LUKS-Geräte mittels des GVFS (Gnome Virtual File System) einbinden. [20:46] jo, wie gesagt [20:47] Aha. Ok, dann halt auf die händische [20:48] einfach ein script anlegen [20:48] ggf. noch einen starter per .desktop file [20:49] jo. Danke [20:59] hm, interresant. Ohne tmux läuft es... noch... [21:01] der tmux tab in dem ich die ausgabe mit tail -f angesehen habe wurde vom oomkiller abgeschossen [21:01] dreamon: wenn du das regelm#ßig brauchst könntest du dir ein loop device mit der luks-datei in fstab schreiben mit user-option und nicht-automatischem mount. dann sollte es im dateimanager autauchen und durch nen klick darauf sollte dann der popup erscheinen. denke ich. ;) [21:01] tar läuft aber weiter... da es ausserhalb tmux läuft [21:01] *passwort-popup [21:04] ja ich würde sagen tmux ist schuld... [21:21] so, tar ist durchgelaufen, tmux hat alle tabs bis auf einen vom oomkiller abschießen lassen [21:21] geheimnis gelöst würd ich sagen [21:22] vielen dank an alle die mir bei der fehlersuche geholfen haben! [21:28] so, schlafenszeit. Gn8!