=== Feuersalamander is now known as grossing === vitus_ is now known as vitus === oxtobear is now known as oxto_afk [08:46] Guten Morgen wie kann ich den Dokumentne ordner suchen der ist irgendwie verschwunden [08:46] warscheinlich Verschoben [08:46] im Terminal mit find oder im Nautilus oder ... [08:46] mit find nach ordnern suchen geht das [08:47] oder locate [08:47] man find [08:51] übel e gibt keine ordner dokumente mehr [08:53] waren da wichtige Sachen drin? [08:54] geh ich davon aus ist nicht meiner [08:54] vielleicht den nutzer nach dem namen eines wichtigen Dokumentes fragen und danach suchen? [08:54] der ist umgestiegen von 10.04 auf 14.04 und mit der oberfläche überfordert [08:57] gute idee [08:59] matulla: oder mal xdg-user-dir DOCUMENTS eingeben. Das sollte eigentlich sagen wo der Dokumenten Ordner ist (wenn es der XDG Ordner ist) [09:00] danke ist nix da [09:01] ich leg neu an und kopier die sicherung von vor 6monaten und fertisch [09:01] seltsam [09:01] jo [09:02] Frage wie bekomm ich den neuen Dokumenten Ordner im, Nautilus in die obere seitenleiste [09:02] unter Downloads [09:03] bei Orte [09:03] reinziehen ? [09:03] die Leiste oberhalb der Geräte [09:03] das geht nicht [09:08] dann per rechtsklick irgendwie zu lesezeichen/bookmarks hinzufügen [09:12] das hinzufügen ist ausgeblendet [09:12] wo finde ich den .gtk-bookmarks [09:12] dann schreib ich das manuell rein [09:13] file:///home/benutzer/Test [09:14] Auf frühere Version zurücksetzen was heist das bei RMB Documente [09:15] ok auis datensicherung wiederherstelen [09:17] ok connfig gtk3 [09:25] Danke === tb is now known as Guest58236 === ThreeM_ is now known as ThreeM === project0_ is now known as project0 [13:16] Hallo! Hier gibt es einen Rechner/Server, an dem mehrere Platten intern/extern ihren Dienst tun. Nun soll eine bestimmte Platte, also mit bestimmtem Inhalt, entfernt werden. Dummerweise ist nicht bekannt, welche Platte das nun physikalisch ist. Man weiß, dass es sda1 mit UUID ist, aber welche im Gehäuse oder extern, weiß man leider nicht. Gibt es eine 'elegantere' Methode das raus zu finden, als probehalber abklemmen? [13:17] smartctl benutzen [13:25] Lengsdorfer: sind das alles platten des gleichen typs? sonst einfach mal parted-l und gucken welche hersteller und typen das sind [13:26] ansonsten musste da mit smartctl -a /dev/sda ran und dann die platten angucken welche seriennummer die haben. [13:27] ja, gut. Das Dumme dabei ist, das die internen Dinger so verbaut sind, dass man das Ganze dann doch aus einanderbauen muss. aber ok, das hilft schonmal. thx [13:29] schau mal mit sudo lshw -c storage -c disk ob dir das hilft wenn du den sata port siehst [13:32] oh ja, das hilft. thx === tb is now known as Guest5673 === Jochen_wvdT is now known as Schlawiner [14:43] Tag zusammen. Bin am überlegen mein PC-setup auch in irgend einer form zu versionieren. Dachte da an Puppet, Chef, etc. Habe aber noch mit keinem der Tools gearbeitet. Macht einer von euch sowas in der Art und hat eventuell ein paar tips für mich? [14:46] Also ich könnte auch einfach ein shell skript schreiben, aber das klingt nicht sonderlich portabel [14:48] Anticom: was meinst du mit versionieren ? Sowas wie NixOS macht ? Sprich komplette Konfiguration sichern und dann unendlich vervielfältigen ? [14:48] oder einfach nur Backups ? [14:49] leszek: Naja so deklaratives provisionieren. Kenne NixOS nicht. Möchte gerne so kram haben wie "ich möchte auf diesem pc tool X und Y installiert haben", "Ich möchte mein icon-theme auf dies und das setzen" [14:49] Und das nach möglichkeit auch portabel, sollte ich irgendwann mal von Ubuntu auf ne andere Distro wechseln [14:50] Anticom: NixOS ist dann die Distro die du dir anschauen solltest. Das beschreibt genau das was du machen willst [14:50] Das Ubuntu beizubringen ist eher etwas schwierig. Wobei du natürlich Paketlisten in Synaptic abspeichern kannst und in shell scripten anwenden kannst und auch dpkg kann Listen einlesen und nachträglich Pakete installieren [14:51] ist aber alles recht fummelig und es gibt nicht wirklich garantieren dass alles funktioniert. Gerade wenn es um PPA Quellen geht usw. [14:51] leszek: wird aber problematisch bei paketen wie awk [14:51] Gut in xenial wurde das gefixt, war aber in trusty noch ein problem [14:51] hieß da ja dann irgendwie grep-awk oder so [14:52] Es gibt tools die soetwas wegabstrahieren === oxtobear is now known as oxto_afk [16:54] Guten Abend Frage kann man 14.04 so einstellen das es nicht möglich ist die Hauptordner Zb Musik Bilder Dokumente zu löschen [16:57] naja - theoretisch einfach alles auf readonly setzen sollte schon gehn. Nur root würde das auch wieder ändern können. [16:59] dann kan ich aber im Dokumentenordner nichts ändern blöd [17:00] ent- oder -weder [17:02] ok [17:02] Blondie hat heute morgen den Dokumentenordner in der firma gewuppt [17:03] deswegen die frage [17:03] Mercyy [17:03] IchGucksLive: schau dir mal ACL an.. bin mir nicht sicher, ob das klappt.. einfach mal lesen [17:03] werde ich [17:05] oder du links die Ordner an eine andere Position, ob dann der Link gelöscht wird, ist recht egal [17:05] wirklich durchdacht wurde das jetzt aber noch nicht von mir [17:06] linkst* [17:08] ich werde den rechner mal neu aufsetzen da ist einiges im argen [17:09] thunderbird speichert die mails nur verdeckt kein posteingang [17:09] die mittlere mousetaste geht garnicht [17:09] undund neueanfang ist da das beste [17:09] Danke [17:10] Hallo. Ich finde, mein Netzwerk ist zu langsam. Das Netzwerk ist 1GBit/s, alle Router und Switches beherrschen das auch. Auch die Kabel sind cat5e. Beim Kopieren/Verschieben gehts meist nicht über ~25MB/s. Is'n privates NW, also kein feindlicher Verkehr auf der Leitung. Wo kann der Flaschenhals sein? [17:11] Dateisystem? [17:11] Ich habe mit nmon den Diskverkehr bei Client und Server gechecked, da wird oft 'gewartet' [17:11] alles fs4 [17:11] der server isn ubuntu 16.04 samba server [17:11] fs4? -> ext4? [17:12] SAMBA! [17:12] ja dann [17:12] ext4 natürlich, kein fs4 [17:12] verschrieben [17:12] samba ist zu langsam? [17:12] samba ist Windowskram. Wie sollte das unter Linux performat sein können? [17:13] +performant [17:13] naja, samba ist schon von fleißigen linuxprogrammern gemacht:) [17:14] im Ernst: Ist samba berüchtigt zu langsam zu sein? [17:14] ...um wenigstens "irgendwie" Zugriff auf ein Windowssystem zu haben... [17:22] Lengsdorfer: samba lässt sich sehr stark konfigurieren, würde mich wundern, wenn man da nicht optimieren könnte [17:23] jo, bestimmt. ich werde jetzt mal parallel einen nfs server aufsetzten. mal sehen, was da passiert [17:23] aber schließe mal samba aus, und verwende nfsd oder netcat und schau was dein Netzwerk ansonsten so an Daten bewegt [17:24] nagetier: Meines Wissens schließt sich unter Linux aus per Samba passable Performance erreichen zu können. [17:24] jokrebel: bin mir da nicht sicher [17:25] hatte zu der Zeit kein 1GBit, und habe es auch heute noch nicht [17:25] nagetier: "sicher" bin ich auch nicht, hörte aber noch nie gegenteiliges === oxto_afk is now known as oxtobear [17:43] Lengsdorfer: mit "iperf" die line-speed testen [17:43] und auch mit Samba kriegt man ordentliche Geschwindigkeiten hin, kostet aber mehr CPU als NFS [17:43] Lengsdorfer: du kopierst aber nicht zufällig von oder auf eine Festplatte, die per USB2.0 angeschlossen ist? [17:44] nein, alles usb3 [17:44] bzw auch sata [17:44] aber auch an einem usb3 anschluss? [17:44] iperf ist sicherlich sinnvoll, jo [17:44] eine usb3.0 karte mit 4 anschlüssen [17:45] dann halt mal mit iperf testen [17:45] ja, ich lese grad, was das ist :) [17:47] cooles programm:) [18:01] ubuntu. php. ich habe adduser phpuser meinegruppe gemacht. wenn ich vom php prozess (über php-fpm) groups ausführe, kriege ich nur phpgroup. wenn ich mich via sudo -i -u phpuser -g phpgroup einlogge, kriege ich phpgroup meinegruppe. [18:02] das ist ja mal n zungenbrecher [18:02] -> wie um alles in der welt hole ich mir jetzt im php-prozess die gruppenrechte, die der phpuser eigentlich hat? [18:04] TheInfinity: warum -i? [18:04] hat der phpuser eine login shell? [18:05] geht auch ohne -i [18:07] google sagt, dass su das kann, sudo aber nicht. allerdings keine belastbare quelle, nur forenaussagen [18:07] kann mir eigtl. nicht vorstellen dass das mit sudo nicht irgendwie geht [18:34] sudo -u phpuser -g phpuser groups kriegt phpgroup meinegruppe als ergebniss [18:34] äh [18:34] sudo -u phpuser -g phpgroup groups kriegt phpgroup meinegruppe als ergebniss [18:36] ppq: es geht doch auch via sudo. nur eben via php nicht. [18:37] TheInfinity, was für einen befehl will denn dein php nicht ausführen? [18:39] was ich damit überhaupt machen will: die gruppe meinegruppe hat via visudo das recht, ein festgelegtes script via sudo ohne passwort auszuführen. das script wiederum enthält dann rm -rf /bla/blubb/globalcache/* [18:39] kurzum: ich sorge dafür, dass der php user den cache löschen darf, ohne dass er irgendwelche rechte zu irgendwas anderem bekommen kann [18:40] oO [18:40] warum dann nicht die rechte für das cache verzeichnis anpassen? [18:41] da braucht's dann gar kein sudo [18:41] weil es ein zentraler nginx cache ist, der von nginx befüllt wird. und php sollte nun mal never ever ever das recht haben, nginx zu manipulieren [18:42] jede website hat bei mir einen eigenen systemuser, alles andere wäre ja irrsinn, weil sonst die seiten untereinander schreibrechte aufeinander hätten [18:42] und vor allem darf keine seite nginx manipulieren [18:43] du traust den einzelnen seiten nicht? oha [18:43] da gibts doch noch weitergehende isolationskonzepte [18:43] was soll ich da jetzt sagen? was hat das denn bitte mit ubuntu zu tun ?!!!!111 =D [18:43] *rausred* [18:43] mrkramps: ubuntu lts server. [18:44] ppq: joa, nur machen die meisten weiteren isolationskonzepte keinen sinn, wenn man exec() erlauben will. zumal das schon eine sehr saubere trennung ist. [18:44] da würd ich mich ja nich allein auf dateirechte berufen, rechte-eskalations-bugs gibts doch wöchentlich gefühlt [18:44] TheInfinity: y not cronjob? [18:44] s/berufen/verlassen/ [18:45] sash_: wenn man den cache zu oft leert, macht er wenig sinn. wenn man ihn zu selten leert, meckern die user, dass die änderungen nicht ausgeloggt angezeigt werden. [18:46] TheInfinity, soll das sowas werden? https://mattgadient.com/2013/12/20/flushing-the-nginx-fastcgi-cache-via-php-and-or-wordpress/ [18:46] ppq: und - es ist eine schön simple lösung, mit der man remote code execution lücken in $CMS nicht so fatal werden lässt, gerade weil php auch keine schreibrechte auf die php dateien derselben website hat [18:46] TheInfinity: Kann es sein, dass du einmal alle php-Prozesse killen musst, bevor der mitbekommt, dass er in einer weiteren Gruppe ist? [18:47] Ja. [18:47] Also rebooten oder nginx neustarten oder sowas sollte helfen [18:47] Solange ein User eingeloggt ist (wie auch immer) kriegt man damit keine Gruppenänderungen mit. [18:47] Irgendwas was äquivalent zu nem yrelogin ist. [18:47] -y [18:48] mrkramps: „PHP has the required permissions to write to that location (if you run nginx and php as the same user it should work “out of the box”“ <— no way [18:48] kk [18:48] sash_: ah, good point, den hab ich gerade erst zu der gruppe hinzugefügt [18:48] I see your Mac OSX Anführungszeichen [18:48] „“? [18:48] alt gr + v | b [18:48] sash_: woah! das wars. argh. [18:49] sash_: da hätt ich auch mal selbst drauf kommen können. [18:49] TheInfinity: Basics First boi [18:49] sash_: und ja, client ist ein mac :p [18:49] :P [18:49] mrkramps: Ja, ich weiß, bei Mac sind die aber Default ;) [18:49] sash_: argh. und ich nehm gerade php-fpm auseinander und schaue, ob da irgendwo die gruppe auf welchem weg auch immer gedropt wird. -.- [18:50] Brett und Kopf und so. [18:50] yep. [18:50] Könnte dich für deine Setups nicht auch selinux interessieren? [18:51] sash_: steht tatsächlich auf meiner todo liste. ich hatte noch nie den fall, dass eine website irgendwo über sicherheitslücken infiziert werden konnte, trotz der vielen wp lücken - dateirechte in webanwendungen selbst nutzen rockt halt schon ziemlich. aber ich bau das schrittweise aus, und selinux steht da noch auf der liste des „könnt man mal nutzen" [18:53] Und/oder Container/Chroots [18:55] sash_: ist halt am ende immer ein abwägen zwischen komfort, drittcode-qualität und sicherheit. aber wenn eine bessere config dafür sorgt, dass mehr sicherheit bei geringen oder gar gar keinen beeinträchtigungen erreicht wird, dann bin ich dabei ;) === tomreyn_ is now known as tomreyn [18:58] (wobei ein paar kunden mein level offensichtlich für manch einen menschen schon zu viel sind. wenn ich mir so support-gruppen anschaue …„ich kann nicht aus $webanwendung heraus meine php dateien modifizieren! mimimi!“ - für mich klingt das immer wie „ich darf mir nicht mit der schrotflinte in den fuss schiessen! mimimi!“) [18:58] +für [18:59] ok. der erste satz war sowas von kein deutsch. ich sollts heute definitiv lassen. [18:59] ich glaube, verstanden haben wir dich trotzdem :) [19:00] TheInfinity: unterbindet je nach setup aber auch auto-updates [19:01] sash_: tut es. die sind bei mir eh alle über ansible gesteuert. [19:01] cron? [19:02] sash_: nö. aber man kriegt schon mit wenn so richtig üble grausamkeiten unterwegs sind. und eine systemuser-basierte garantie, dass remote shells entweder nicht geschrieben werden können (php-dateien) oder nicht ausgeführt werden können (medienordner) hat sich als ausgesprochen effektiv erwiesen [20:04] Hallo nochmal, nach einigen Maßnahmen kopiert mein Netzwerk jetzt über nfs mit ~48MByte/sec. Ist das gut? bzw. ist das so üblich? [20:05] jo, das ist ok [20:07] tante gugel sagt, dass man mit jumbo frames evtl. noch was rausholen kann [20:08] kommt halt auf die hardware an, ich hab im lokalen netz auch schon mehr rausgekriegt [20:08] aber da musst du mehr "debuggen" wie CPU/IO-Auslastung anschauen, um zu wissen woran es liegt [20:10] naja, das reicht wohl. (erstmal :)) die cpu auslastung ist auf beiden systemen dabei eher moderat (~15%). aber gut, thx [20:11] das gute an jumbo frames ist dass sie dadurch nicht wirklich höher wird (also nur aufgrund der zusätzlichen bandbreite die verarbeitet werden muss) [20:11] aber mit knapp 400 mbit/s bist du durchaus schon gut im geschäft. [20:13] achja: das iperf sagt, dass die verbindung bei ~880Mbit/s liegt