=== mrkramps_ is now known as mrkramps [04:00] jemand da? [04:06] Join #ToastIRC Today [04:06] Join #ToastIRC Today [04:06] Join #ToastIRC TodayJoin #ToastIRC TodayJoin #ToastIRC TodayJoin #ToastIRC Todayv [04:48] Join #FoxToast please there is free porn and cookies!!!\ === vitus_ is now known as vitus [09:35] Wie frägt man über die Konsole ab, ob ein bestimmter Prozess läuft. ps aux | grep ProzessName → kenne ich. Aber ich würde das gerne in einem Script als Abfrage habe. In einer If Abfrage [09:46] dreamon_: Entweder das parsen, ansonsten gibts auch noch pgrep. [09:48] pidof [09:50] DANKE! bekks, sash_ [10:32] Gibt es cmd-tools bei der Anlage von vhost in Apache? Um die config files aus vorlagen zu erzeugen? [11:26] hallo, da es so wie ich das sehe keine Linux Treiber für meinen Trekstor Ebook Player 7 gibt, habe ich eine VMware mit einem Microsoft Produk gestartet, allerdings scheint er ihn auch nicht zu erkennen. Er taucht unter "Virtual Machine->Removeable Devices" nicht auf.. Jemand ne idee? [11:28] Welche Virtualbox-Version setzt du ein, und welches Ubuntu? [11:29] 14.03 LTS vmware ist 7.1.2 build-2780323 [11:29] "vmware" ist kein Produkt, sondern eine Firma. [11:30] Setzt du VMware Workstation ein? [11:31] ne den ganz normalen Player "VMware® Player" [11:34] Sind die VMware Tools in deiner VM installiert? [11:37] also ich habe mal draufgeklickt auf install vmware-tools aber seitdem steht unter virtual-machine "Cancel Vmware tools installation" [11:37] ich versuchs mal manuell.. [11:37] Und dann musst du die natürlich noch in der VM installieren... [11:38] -Nur auf den Menüpunkt klicken macht da nichts, das steht auch in der Doku :) [11:38] "open-vm-tools ist schon die neueste Version. [11:38] also apt-get sagt "open-vm-tools ist schon die neueste Version." [11:39] NEin. [11:39] Nicht auf dem HOST installieren. [11:39] IN DER VM. [11:39] achso... gut dann versuch ich das ganze mal === Loetmichel2 is now known as Loetmichel === scheli is now known as phillip === d- is now known as Guest42314 === phillip is now known as Guest53717 [18:20] abend [18:21] wie wechsle ich bei ubuntu 15.04 am schnellsten die dns server? [18:21] In den Einstellungen deiner Netzwerkverbindung. [18:22] ja das ist klar, dass ich die via network manager editieren kann [18:22] nur ist das eben nicht sonderlich komfortabel [18:22] Das IST der komfortable Weg. [18:23] unter windows habe ich mir ein netsh script geschrieben [18:23] einfach rechtsklick drauf und gut [18:23] Weder ist Ubuntu Windows noch gibt es netsh unter Ubuntu. [18:23] ach wirklich ;) [18:23] Dafür gibt es nmcli [18:24] ah ja [18:24] das sehe ich mir mal an [18:24] vielen dank [19:17] Kann man mit Linux auch AMD Karten nutzen oder gibt es zuviele Probleme mit den Treibern? [19:17] dddd ddddddfff fasdfasdfasdf [19:17] ups .. sorry [19:17] Klar kann man die nutzen. [19:19] Aber meistens will man das nicht :P [19:19] Treiber für Linux werden weiterentwickelt und sind oft aktuell? Darum hab ich meist NVIDIA drin [19:24] Gibt es ein Kopier/Backup Programm, das bei sehr großen Dateien (images, oder VDI...) nur den Teil überträgt der sich geändert hat. Angenommen zwischen dem letzten Backup und dem neuen Backup haben sich nur ein paar bytes einer 20GB Datei geändert. [19:24] Wäre doch umständlich wegen der paar bytes 20GB zu übertragen. [19:25] <_moep_> rsync aber das is halt kein eines "paket" du kannst dann halt mittels pipe nen tar.gz draus bauen [19:25] joa, nennt sich inkrementelles backup. im wiki sind einige backup-programme aufgelistet [19:27] _moep_, Nein ich wills nicht komprimieren nur auf dem neuesten Stand halt. "Datensicherungen" (Ubuntu Backup Programm) kopiert es bei der kleinesten Änderung komplett neu. [19:27] dreamon_: ich nutze back in time [19:28] Rochvellon, Hast du das bei großen Dateien so beachten können? [19:28] beobachten === dreamon_ is now known as dreamon [19:29] dreamon: http://wiki.ubuntuusers.de/Back_in_Time [19:31] Rochvellon, Eine (unveränderte) Datei benötigt hiermit nur einmal Plattenplatz im Backup (auch wenn sie Teil vieler Snapshots ist), eine veränderte Datei wird aber immer komplett neu gesichert (Nutzung von rsync, nicht rdiff). Snapshots von großen veränderlichen Dateien (z.B. virtuelle Festplatten) nehmen also viel Backup-Platz in Anspruch, wenn sie nicht vom Snapshot ausgenommen werden. [19:31] Rochvellon, "eine veränderte Datei wird aber immer komplett neu gesichert" → hört sich nicht so an [19:31] also wenn du nur die änderungen von dateien sichern willst, brauchst du rdiff [19:32] rsync [19:32] Das tut per default genau das, was gewünscht ist. [19:33] Ansonsten kann man ein Dateisystem benutzen das inkrementelle snapshots erzeugen kann. [19:34] bekks: jedoch nur über ssh [19:34] bzw. rsyncd [19:34] Rochvellon: rsync arbeitet per default mit ssh, von daher mache ich mir da jetzt keine Gedanken :) [19:35] auch von verzeichnis zu verzeichnis im gleichen dateisystem? [19:35] Ja. [19:36] hm, ist das neu, bekks? [19:36] Nein. [19:37] Das werde ich gleich mal testen. [19:38] Die Beechnung von Deltas dauer für gewöhnlich länger als das Backup der gesamten Datei. [19:38] hm, dann müsste das wiki diesbezüglich geändert werden [19:38] Daher lohnt es sich viel mehr, für das Backupziel Dedplizierung einzusetzen. [19:38] Rochvellon: Dann mach das doch? :) [19:38] habe kein konto :D [19:39] Kannst du dir ja anlegen. [19:50] Das Zeitproblem hab ich vermutet. Er muß ja vergleichen demnach ist die dauer bestimmt länger. Dieses Dedplizierung wird wohl Quersummen enthalten um festzustellen wo die Änderung aufgetreten ist. Das wird rsync nicht unterstützen .. oder? [19:51] Deduplizierung teilt Daten in Blöcke auf und berechnet Hashwerte darauf. [19:51] rsync unterstützt die Übertragung von Deltas, aber es unterstützt keine Deduplizierung, weil es kein Dateisystem ist. [19:53] Interessant. Müssen beide Dateisysteme dieses verfahren unterstützen (Quelle und Ziel) Ext4 wird nicht dazu gehören? [19:55] Ich schrieb vorhin: "Daher lohnt es sich viel mehr, für das Backupziel Dedplizierung einzusetzen." [19:55] ext4 unterstützt keine Deduplizierung. [20:03] Ist hier jemand der sich mit der Erstellung von Debian-Paketen auskennt? Ich versuche ein .deb Paket durch gegebenen Quellcode zu erstellen, Kompilation und Benutzen funktioniert ohne Probleme, nur das Erstellen des Paketes nicht. Ich habe es bereits mit checkinstall und alien versucht, wahrscheinlich ist es ziemlich einfach lösbar. Der Code um den es geht: https://github.com/openstreetmap/mod_tile [20:08] Was ist die Ausgabe von checkinstall? [20:09] <_moep_> kaldl: hast du mal den debian maintainer guide gelesen? [20:15] bekks: Checkinstall läuft ohne Probleme durch, ich glaube ich übergebe einfach nur die falschen Parameter, da nach der Installation über das .deb Paket, nicht wie beim Kompilieren von Hand, danach einige Libraries fehlen [20:16] checkinstall kompiliert nichts, es baut das, was du vorher kompiliert hast, in ein PAket ein. [20:16] Im Prinzip ist meine Frage nur, wenn ich mittels "./autogen.sh [20:16] ./configure [20:16] make [20:16] sudo make install make install-mod_tile" kompilere, was ich checkinstall übergeben muss um daraus ein funktionierendes Paket zu erstellen [20:16] Man benutzt checkinstall statt make install. [20:17] Ist btrfs schon soweit das man es empfehlen kann? [20:20] Neue Platte (SSD), neue SSD: wie jetzt Partition verschlüsseln? Da es eher eine $HOME-extension ist, am liebsten mit dem Key für encfs im Homeverzeichnis und mounten beim einloggen, entw .Private. Gibts dazu Erfahrungen oder sollte ich das anders lösen? [20:22] also suse und oracle bieten unterstützung dafür, facebook setzt es produktiv ein und im kernel 4.0 ist noch ein patch hinzugekommen, der ein platte-ist-voll-bug behebt, wenn die platte noch gar nicht voll ist, dreamon [20:23] selbst setze ich btrfs mit komprimierung auf dem schleppi ein und kann bisher noch nichts negatives dazu sagen, dreamon [20:24] Rochvellon, Hört sich gut an. Wählt man die komprimierung seperat aus? [20:25] maredebianum1: du kannst bei der installation von ubuntu anhaken, dass /home verschlüsselt wird, dann hast du encfs und kann mich bisher nicht beschweren diesbezüglich. bedenke jedoch, dass / und swap dabei nicht verschlüsselt werden und ggfls. sensible daten beinhalten können [20:26] dreamon: ja, die komprimierung musst du explizit selbst anstoßen. im wiki gibt es dazu ein tutorial [20:31] Sowohl Suse, Oracle als auch Facebook setzen aber auch Patches ein, die nicht in andere Distros geflossen sind. [21:07] Rochvellon: danke dir, die Standard-Home-Verschlüsselung habe ich, wollte die halt um eine weitere Partition "erweitern" (ecryptfs ist das wohl <> encfs/userland). Vielleicht ist eine Neuinstallation mit LVM sinnvoll. Oder noch mal überdenken, ob die neue Partition nicht einfach zu /home wird. das sollte sich ja mit einem rsync als root leicht erledigen lassen. Das versuch ich jetzt mal als erstes. [21:08] Installationen ohne LVM sind nicht sinnvoll - und benötigst du wirklich Verschlüsselung? [21:08] bekks: ja, es ist ein Laptop... [21:12] bekks: und mit LVM habe ich mich noch nicht ausgiebig beschäftigt, das ist dann etwas "interessanter", wenn man mal ein Live/anderes System startet (die Befehle zum mounten muss ich dann erst wieder nachsehen). [21:14] Das ist genau so langweilig weie Partitionen, vom Aspekt her das von einer livecd aus einzubinden. [21:16] bekks: stimmt schon, und inzwischen ist auf den Live-CDs i.A. alles nötige drauf. Neuinstallation hatte ich aber gerade erst ;) [21:17] 1Dann kannst ja direkt nochmal eine machen, können ja noch nicht so viele Daten sein. [21:24] bekks: / mit 20G war zu klein. Und die "konservative" Softwarepaketinstallation (reduziertes dpkg --get-selections) bedeutet, ich musste viele Tools/Pakete nachinstallieren. An sich nicht das Problem (wäre man wirklich immer online), aber doch Mühe. Zumindest im Vergleich mit "noch eine Partition einbinden". [21:26] Mein gesamtes System braucht keine 10GB. Mein /data braucht deutlich mehr, mein /home kommt mit 2GB locker aus. [21:57] bekks: ich dachte auch, dass 20G reichlich sind, aber dann kamen zu vielen kleinen noch einige größere Dinge dazu, das summiert sich ganz schön schnell. /data soll hier auch verschlüsselt sein und ist daher im home, das halte ich aktuell schwerlich unter 90G. Daten und Auswertungen blähen sich relativ schnell auf, ähnlich wie Kompilate, ~/.cabal/ z.B. belegt hier >1G... [21:57] Also ich komme seit Jahren mit 10GB für / hin. [22:12] bekks: ich nimmer, hab aber auch so Sachen wie ROS zusätzlich, R/pyhton/java Zeug, relativ komplettes latex etc: dpkg-query -Wf '${Installed-Size}\t${Package}\n' | sort -n ist mein Freund ;) BTW, auf server lief mal wegen zu vieler Kernel die Platte voll (>5G von 10G geputzt). [22:15] bekks: und neuerdings noch Docker, da geht der Platz dahin ;) [22:15] maredebianum1: es wäre auch interessant, mit btrfs zu arbeiten, dann hast du auch keine starren grenzen für die partitionen [22:22] Rochvellon: btrfs ist durchaus interessant, auch wegen der vielen neuen Features. Ich lass da halt immer gerne andere erst ein bisschen Beta-Testen vor Produktiv-Einsatz. Aber so gesehen ist die Gelegenheit für eine btrfs Partition da ;) [22:29] Rochvellon: "Warning: Btrfs v3.12 IS EXPERIMENTAL", na mal sehen wies läuft. Danke euch allen. [22:56] All dieser Quatsch hat nichts in / zu suchen...