=== IzzyGhost is now known as Izzy === nils2 is now known as nils_2 === Jan11 is now known as ON1 [06:08] g'morgen === elmargol_ is now known as elmargol [09:21] higgins, rsyslog macht mich fertig... jedes erdenkliche template welches ich erstelle wird einfach ignoriert - ubuntu 13.10 [09:21] rsyslog macht mich fertig... jedes erdenkliche template welches ich erstelle wird einfach ignoriert - ubuntu 13.10 [09:23] is rsyslog so out?! oder mag das einfach niemand?! [09:23] oder es funktioniert einfach bei jedem out of the box nur bei mir gar nicht... [09:25] könnte mich einer mal xchat-pingen, weil es ist alles tot oder bei mir existiert ein firewall problem [09:27] <_moep_> xchat-pingen? [09:34] setra: wahrscheinlich beschäftigt sich hier keiner so intensiv mit rsyslog === poven is now known as ladder [09:57] koegs, danke jetzt weiss ich das ich kein firewall problem hab.... [10:06] setra: Ping hat genaz gar nichts mit irgendwelchen Firewallproblemen zu tun, die rsyslog verhindern. [10:06] Ping nutzt ICMP, währen rsyslog TCP nutzt. === ladder is now known as think === think is now known as fogel === fogel is now known as rei === rei is now known as sheel [10:13] setra: sudo iptables -L -vnx sagt Dir, ob deine Firewall irgendwas verhindert oder nicht. [11:03] *, danke aber bei mir war eher ausschlaggebend warum keiner auf das stichwort rsyslog geantwortet hat. da dachte ich ich bin irgendwie offline oder die firewall is hin... :-) alles gut mit der connection nicht aber mit syslog [11:04] _moep_, einfach PING schreiben :-) [11:04] also ich kenn keinen, der rsyslog als highlight hat [11:05] k1l, ja ich habs gemerkt, warum wohl, ist das standard logging tool unter ubuntu [11:05] ähm nochmal in verständlich: warum sollten hier alle panik machen, nur weil einer rsyslog sagt? [11:05] k1l, nicht auf panik, sondern senfen... [11:06] es sind eher die wenigsten, die mit rsyslog wirklich in kontakt kommen. [11:06] ich hatte nur mal ein anderes stichwort fallen lassen und da waren gaaanz viele voll dabei :-) bei rsyslog ist das so als ob sich plötzlich alle abmelden ! [11:08] ich versuch ja nur das zeugs zum laufen zu bringen. mittels templates, es geht mir nur darum, warum kein tutorial funktioniert, obs am syntax oder der semantik, der logik oder einfach an was anderem liegt. [11:12] setra: rsyslog ist alles, aber nicht das Standardloggingtool. syslog ist rsyslog. rsyslog dient zur Speicherung von syslogs auf einem anderen Rechner. [11:12] syslog ist nicht rsyslog. So. [11:13] ok, ich verstehe: Szenario: Ich möchte gern übern logger (rsyslogtool) im bash über rsyslog loggen. Dazu habe ich in /etc/rsyslog.conf folgende zeilen hinzugefügt: $template test,"Test: %msg%\n" dieses template aktivieren mit *.* -/var/log/test.log;test das wär alles.. aber es tut nicht [11:13] bekks, was wäre dann das standard logging tool [11:13] setra: Das sagte ich gerade. [11:13] syslog ist das Standardloggingtool. [11:14] aber es gibt kein syslog.conf oder auch nur was annähernd ähnliches [11:15] eben nur ein log das syslog heisst [11:15] Was hast du denn _wirklich_ vor? Ohne Templates oder irgendwas. Was versuchst du? [11:16] ich will von bash mit logger "test: logmessage" was loggen via syslog/rsyslog, und das dann über mehrere rechner in logs schreiben [11:17] logger macht nichts anderes als etwas ins syslog zu dübeln. [11:17] Und diese Meldung von Rechner A soll dannn auch auf Rechner B im Log stehen? [11:17] ja... genau und über ein template kann ich schön einstellen wie die message aussehen soll [11:17] Vergiss doch endlich mal diese Templates. Die sind für das Problem alles, ausser wichtig. [11:18] bekks, so ähnlich, je nachdem welcher rechner online ist kann der dann die log empfangen [11:19] Das wird SO nicht einfach gehen. Du willst eine remotesyslog Konfiguration, die Rechner abklappert und den ersten nimmt, der da ist. Das unterstützt rsyslog überhaupt nicht. [11:19] Das Schreiben der Logs würde viel zu lange dauern, daher gibts das nicht. [11:20] prinzipiell scheitere ich bereits überhaupt ein custom log zu schreiben... let's cross the bridge when we get there [11:20] Wir reden hier von 300s Timeout für eine TCP Verbindung. D.h. bei drei Rechnern würde das schlimmstenfalls 20 Minuten dauern, bis der Logeintrag auf C landet (wenn A und B weg sind). Und das ist deutlich zu lange, um irgendeine Form von Sinn zu ergeben. [11:21] Du solltest das Design vor der Implementierung in irgendeine halbwegs brauchbare Form bringen. So bringt das nichts. [11:22] Ist es richtig, dass du _eigentlich_ bash scripte zum logging via logger bewegen willst? [11:22] ich brauche eine log facility die mir mit einer minimalconfiguration ein log erstellt in /etc/var/log und diese dann nach bedarf (kann dann auch eine daemon werden) verteilt, diese logs können auch gleich weitergeroutet werden, denn sie müssen nur 1. am tag aktuell ssein [11:22] bekks, ja [11:23] Ich frage nichmal: WAS versuchst Du da WIRKLICH? Bisher hast du nur ein paar Eckpunkte erzählt, die immer neue Anforderungen ergeben. [11:23] bekks, vor allem weil es dann einfach ist und sich niemand um was kümmern muss. logs liegen immmer am gleichen ort, gleiches format. [11:23] Ich möchte eine komplette Beschreibung was du VORHAST, und nincht wissen WOMIT du gedenkst, das kaputte Design umzusetzen. [11:25] bekks, ich habe vor: aus bash scripten zu loggen. diese log files müssen immer ein spezielles format haben was man mit templates gut bewerkstelligen könnte wenn sie funktionierten. diese logs brauche ich dann von vielen maschinen auf einer (meiner) um sie zu interpretieren. [11:26] Von wievielen Maschinen reden wir denn da? [11:27] bekks, ständig steigend aber es beginnt mit 10-15 [11:27] im proof of concept [11:28] Hast du in der Realität (nicht im POC) einen Rechner, der wirklich immer 24/7 erreichbar ist von allen anderen Rechnern? [11:30] Ich deute das als "Nein" - ist das korrekt? [11:30] bekks, eigentlich schon ein (server), aber es sollte dann so sein, das der (mein) rechner sobald er hoch fährt alle abklappert und sich die logs holt, dann kann ich schön skalieren wieviele ich parallel anqwatsche und die bandbreite dosieren. [11:30] Ok, letzte Chance: definiere JETZT alle Anforderungen und komm nicht bei jedem Satz mit einer neuen daher. WAS hast du VOR? [11:31] bekks, das letzteste wars...heruntergebrochen aufs minimum [11:32] Ich hätte trotzdem gerne mal alle relevanten Anforderungen. Keine nice2have, keine wärschön, keine kannmandasnichtauchso, sondern nur: WasSindDieRelevantenAnforderungen. [11:33] bekks, das wars, Minimum: loggen via facility, custom format im logfile, ich hols ab immer von der gleichen stelle egal wer da was loggt aus nem bash script. [11:34] Ok. Dann nimm log4sh statt logger in deinen Scripten. [11:34] bekks, nicetohave: wird automatisch auf andere rechner verteilt...die log facility managed die verteilung.... etc [11:34] https://sites.google.com/a/forestent.com/projects/log4sh [11:35] Besser diese Seite: http://sourceforge.net/projects/log4sh/ [11:35] Title: log4sh | Free System Administration software downloads at SourceForge.net (at sourceforge.net) [11:36] bekks, danke ich schau mal ob es sich in dieses konzept reinzwengen lässt. [11:36] Damit kannst du alle deine Anforderungen umsetzen. Da du sagtest, dass du einen Server hast, der die Logs abholt, ist eine Verteilung der Logs sinnfrei. Warum sie weiterhin sinnfrei ist, habe ich Dir oben schon erklärt. [11:37] Da muss man nichts reinzwingen, da muss man einmal die Doku lesen. [11:37] bekks, ja tcp timeout... kann man das nicht reduzieren [11:37] Das willst du nicht. [11:38] bekks, obwohl du der klassische dr. house bist hege ich sympathie für dich , warscheinlich aus dem selben grund warum das alle mit house tun. [11:38] Ich kann Dir nicht folgen, aber das ist nicht tragisch. [11:38] das passt schon [11:40] setra: in dieser Metapher willst Du der Patient von Dr. House sein? [11:42] musca, nö auf keinen fall, ich bin eher dr. willson oder dr. cuddy [11:42] in diesem speziellen fall natürlich, aber es freut mich das da jemand gelauscht hat :-) heheh [11:47] http://i.imgur.com/wogNFDq.png [11:47] wie hoch ist denn der Speicherverbrauch von mysqld? [11:48] etwa 2.3 % [11:49] was ist mit den ~1.5GB? [11:50] Schau Dir ps aux an, und schau Dir "man ps" an, was die Spalten genau bedeuten. [11:52] dann muss ich mich damit beschäftigen wie ich dem server mehr speicher zuteilen kann. Ich kann mir nicht vorstllen, dass er nicht mit mehr speicher arbeiten kann. [11:53] Schieb mal "free -m" in einen pastebin. [11:53] http://pastebin.com/VXR86P1F [11:53] Title: total used free shared buffers cached Mem: - Pastebin.com (at pastebin.com) [11:54] das ram wird schon ausgenutzt, könnte aber auch disk cache sein? [11:54] ah, steht da ja auch [11:54] Du hast noch 6G frei - wozu willst du mehr RAM haben? [11:55] ich will, dass mysqld mehr nutzt, allerdings ist es nur eine Vermutung, dass der verbrauch höher sein sollte. [11:55] Wieso sollte der Verbrauch höher sein? [11:55] Du nutzt aktuell ca. 2/8GB :) [11:57] weil er gerade eine sehr große tabelle in eine neue kopiert und dabei mehrere Indizes erstellt. Wie gesagt, ich habe keine Erfahrung, aber es kommt mir recht wenig vor. [11:57] Und wieso sollte der mehr RAM dabei verbrauchen? [11:57] zum cachen? [11:58] Ja, es wird doch cached. 6/8GB. [11:58] 3/4 deines RAM werden zum Cachen benutzt. Reicht doch? [11:58] nagut [11:58] ich behalte das im Auge :) [11:58] Und die Indexerstellung braucht temporären Speicherplatz, nicht RAM. [11:59] Wie groß sind denn die Tabellen, bzw. Datenbanken? [11:59] er erstellt die neue tabelle auch aus einem join über 6 Tabellen- [11:59] Das macht nichts, wie groß sind denn die Tabellenß [12:00] 5 sind relativ klein, ca. 100-100000 Datensätze, aber die sechste hat ca. 350 Mio. [12:01] Wie groß? Die Größe kann man in MB angeben, z.B. [12:02] 28GB [12:02] Das ist ja süß klein :) [12:02] die neue ist bei ca. 30% und hat jetzt 19GB [12:02] Ja, dann passt doch alles. [12:03] Ich hoffe mal, dass wird alles schneller, wenn die Indizes erstellt sind. [12:04] Ja, durch die Indizes wird es schneller. Aber durch deinen JOIN versaust du dir wirklich jede Performance. [12:04] die alte tabelle hat noch keine Indizes und darauf joine ich. Wahrscheinlich deswegen. [12:05] Nein. Du joinest und duplizierst Daten. Das versaut jede Performance so sehr, dass dir kein Index der Welt mehr den Arsch retten kann. [12:06] evtl, hätte ich die Felder, die gejoined werden, zunächst leer gelassen und sie später in einzelnen Durchläufen gefüllt? [12:06] Nein. [12:06] Erste Regel zur Optimierung: Joine NIE. Niemals. Unter keinen Umständen. Nie. [12:07] Zweite Regel: Normalisiere die DB. [12:07] Dritte Regel: Lege Indizes auf Fremdschlüssel an. [12:07] die erste steht ja im gegensatz zur zweiten :) [12:07] Nein. [12:07] Wenn ich normalisiere kommen doch die joins. [12:07] Was du tust ist: "Ich joine, baue eine grosse, redundante Tabelle und speichere sie". [12:07] Das tut man einfach nie. [12:08] nein .... [12:08] Das sagtest Du zumindest. [12:08] ich joine den index aus anderen Tabellen rein, damit ich spalten auslagern kann. [12:08] Watt? Warum datt denn? [12:08] ganz einfach [12:08] Was soll das den einen Sinn haben? [12:09] *für [12:11] Die große Tabelle hat Spalten mit externen Schlüsseln, die relativ groß sind (UUID). Den Balast brauche ich aber nur, um beim Endergebnis wieder einen Zusammenhang herzustellen, also erst am ende wieder. Jetzt ersetze ich diese große UUID (32 Byte?), durch ein INT. In einer Archiv-Tabelle habe ich dann die Zuordnung INT<->UUID [12:12] die original Tabelle wird kleiner. [12:16] Das selbe Ergebnis hättest du durch einen Index auf UUID erreichen können. [12:16] Ist die UUID denn eindeutig? [12:17] Die primäre schon, die anderen reduzieren sich zum teil auf unter 1000 bis 100000 verschiedene [12:18] und ich habe hier schon einiges gemacht, was ich nicht nochmal so machen würde ... aber dafür macht man was ja zum ersten mal :) [12:18] Was ist denn das eigentlich für eine DB? [12:18] Ein GIS? [12:18] Nichts wichtiges, ein Wettbewerb [12:19] Aha. [12:19] Es geht drum, durch analyse bestimmte Statistiken zu bilden. [12:19] und letztendlich wohl darum mit großen DAtenmengen fertig zu werden. [12:21] ein kleines Skript zur aufarbeitung der Daten vor DB-Import wäre wohl nicht schlecht gewesen ... so in Nachhinein ... [12:21] muss aber jetzt kurz weg. cu [12:39] hallo, wie soll man mit dieser warnung von rkhunter umgehen? [19:27:14] Warning: Network TCP port 1524 is being used by /usr/sbin/portsentry. Possible rootkit: Possible FreeBSD (FBRK) Rootkit backdoor [12:39] Use the 'lsof -i' or 'netstat -an' command to check this. [12:51] nutzt du portsentry? === dreamon__ is now known as dreamon [13:47] sollte man rkhunter installiert haben? [13:48] du nicht [13:48] na :) [13:49] warum ist es nicht standardmäßig drauf? höre gerade zum ersten mal von diesem tool [13:49] "rkhunter richtet sich dabei an professionelle Linux-Administratoren" [13:49] es ist halt nicht für jeden user was [13:49] das trifft auf mich nicht zu [13:50] sieht man ja an der frage oben [13:50] einfach rkhunter installieren bringt nix, man muss sich schon damit auseineandersetzen [13:51] ich denke als privatanwender, der immer brav die paketquellen nutzt und mit dynamische ip unterwegs ist, ist die rk gefahr nicht so groß [13:51] deswegen ist es auch nicht installiert [13:51] macht sinn === ladder is now known as sheel [15:21] hat jemand dieses feature schon mal erlebt: df sagt mir 3/4 der disk is voll und wenn ich ein file erstellen will dann kommt gediegen disk full ?! umgekehrt ja aber so ? wo könnte ich anfangen? [15:22] die root reserve rausgerechnet? [15:22] zeig mal das df -h [15:24] k1l, hier die line -> /dev/mmcblk0p3 713M 566M 111M 84% /mnt/sd [15:25] gehts um den rpi? [15:26] k1l, mkdir: cannot create directory ‘abc’: No space left on device [15:26] k1l, nö BBB [15:26] gibt es meldungen dazu in dmesg? [15:27] btw: "A FAT32 directory can have 65,536 directory entries. Each file and subdirectory takes from two to thirteen entries, depending on the length of its name, so those entries can disappear long before you think you've used them all up. Your total of 22,657 files could very easily use 65,000 entries." [15:28] oder die inodes sind weg [15:28] mal df -i [15:28] ppq, das ist das einzige seit dem mount ->EXT3-fs (mmcblk0p3): mounted filesystem with ordered data mode [15:28] mach mal was k1l schrieb, seere_ [15:28] * setra [15:30] ppq, sorry ... df -i ... /dev/mmcblk0p3 46368 46368 0 100% /mnt/sd [15:30] jo, dann hast du einfach zu viele dateien/verzeichnisse dadrauf [15:32] ppq, was kann ich dagegen tun... nicht sagen files runterlöschen :-| ich meine kann ich mehr inodes erstellen, oder dynamisch nach bedarf erstellen [15:33] nutz ein anderes dateisystem [15:33] ext4 zb. [15:34] oki,thx werde mir mal einen dateisystemüberblick verschaffen, dachte ext4 ist zu overkill wegen dem journaling für sd [15:34] mehr inodes geht, iirc, nur beim anlegen des FS [15:38] nicht bei fat32 [15:40] auch bei den extX dinger geht das nicht nachträglich, iirc [15:41] *, danke leute... wie schätze ich die anzahl der inodes ab, bzw. wie kann ich die anzahl vergrößern um ca. 20% [15:42] nutz einfach ext, dann musst du dir darüber gar nicht erst gedanken machen [15:43] ppq: doch auch ext hat inodes [15:43] klar [15:44] aber per default so viele, dass er sich keine gedanken drüber machen muss [15:45] ppq: kommt drauf an. bei nem boinc projekt mit extrem vielen kleinen dateichen ist sowas z.b. schnell voll. trotz der großzügigen auslegung === ladder is now known as sheel [17:44] k1l, hab jetzt auf 65536 Inodes upgegraded und alles ist gut... [17:45] leider war die copy op zeitauf(wending/reibend) [17:46] da es die sourcen waren [17:52] was ein Update (bei was auch immer) so immer wieder für Reparaturen auslösen kann ;-) [17:59] hallo. kann mir evtl jemand sagen, was diese dmesg ausgabe zu bedeuten hat? http://nopaste.info/91c50fdfe2.html [17:59] Title: nopaste.info - free nopaste script and service (at nopaste.info) [18:15] basti, das 'cpufreq' Module scheint einen Call Trace auf deiner Hardware auszulösen. "In middle of another frequency transition" dürfte in Suchbegriff sein um einen Bug-Report dazu zu finden. [18:15] *ein [18:24] basti, welche CPU sitzt da genau in dem Gerät? [18:28] basti, bei einer C2D kann man das Takten der Frequenz IMHO eh vernachlässigen da sich da kaum etwas tut.. ich würde es abschalten [18:29] oder halt nach einem bekannten Bug ausschau halten === Jan11 is now known as ON1 [18:32] basti, schau mal ob dein BIOS aktuell ist [18:36] basti, oder, du sorgst manuell dafür diese Überlappung dem Module auszutreiben [18:37] oder besser gesagt den cpufreq-utils diese zu verwenden [18:38] -- === Akira is now known as Guest41170 [18:53] nagetier, sorry. gerade erst gesehen. jetzt foppes ;) werde mir das alles notieren und später durchsehen. danke! [18:54] :) === Cylly is now known as Loetmichel [19:40] moin [19:45] wenn ich meine hdd an den usb anschluß hänge bekomme ich folgende fehlermeldung [19:45] http://snag.gy/Miqqa.jpg [19:45] 12.04, x64 [19:45] hdd: WD my passport 2 tb [19:47] dateisystem kaputt? [19:47] fehlen informationen? [19:47] klingt so [19:48] MFT ist die Master File Table [19:48] hast du das unter windows benutzt? [19:48] jop [19:48] nicht richtig ausgehängt? oder das windows fastboot aktiviert? [19:48] bzw das windows fastboot nicht deaktiviert [19:48] irgendwie wurde mitgeteilt das nach 300 gb schluß war, das noch als anmekrung [19:49] k1l: öhm, soll das problem für jemanden erledigen was da genau passiert ist weiß ich nicht [19:49] bei windows nicht richtig ausgehängt meinste? [19:49] fastboot, mom mal googlen [19:50] guck mal hier rein: http://askubuntu.com/questions/183970/mount-exited-with-exit-code-13 [19:50] Title: ntfs - Mount exited with exit code 13 - Ask Ubuntu (at askubuntu.com) [19:51] hm [19:53] k1l: die daten sind also verloren? [19:54] ich würde es mal an ein windows klemmen und gucken was das windows da sagt [19:55] okay [19:55] kein system hier was windows hat, hmpf trotzdem danke [19:59] Hey ich bin gerade am LVM einrichten, da es mein erstes mal ist past das so? http://paste.ubuntuusers.de/418412/ [19:59] Title: LVM Wabuo › Ablage › ubuntuusers.de (at paste.ubuntuusers.de) [20:00] hi alle. ich mal wieder [20:01] ich verbinde mich derzeit von meinem windows system via rdp auf den ubuntu server [20:01] das is aber sehr langsam [20:01] was empfiehlt sich für eine schnellere remote verbindung (abgesehen von console :-) ) [20:02] muh_: für server ist einfach ssh am besten [20:02] muh_, vnc (mit encryption ofc), nomachine (eher ein remote session tool) und auch noch teamviewer z.B. aber was wirklich schnelles ausserhalb eines LAN gibts da nix schlaues grafisches. nimm ssh wenns ein server ist [20:03] innerhalb von lan [20:03] brauche etwas grafisches, weil ich ein grafisches prog handlen muss [20:04] muh_: du kannst auch einfach mit ssh das programm auf deinem desktop starten [20:04] ssh -X [20:04] auf meinem windows desktop? ;) [20:05] xming ... [20:09] hmm [20:09] verstehe xming nicht wirklich [20:10] hab das zwar jetzt mal auf mienem windows installiert, verstehe den sinn aber nicht [20:13] xming bildet den lokalen xserver um die remote x-applikation darzustellen [20:20] Ich mag MobaXterm für sowas, http://mobaxterm.mobatek.net/ [20:20] Title: MobaXterm free Xserver and tabbed SSH client for Windows (at mobaxterm.mobatek.net) [20:29] danke, das ist WUNDERBAR :-) [20:54] noch eine frage [20:54] ich hab einen ordner freigegeben. wenn ich nun per netzwerk da ordner löschen will fehlt mir die berechtigung [20:54] klar soweit [20:54] das kannich ja in der gui setzen [20:54] und auf alle dateien anwenden. wenn jetzt neue dateien reinkommen, muss ich das aber erneut ausführen [20:55] wie kann ich denn auf den ordner alles für immer freigeben=? [20:57] den ordner hast du wo freigegeben? [20:59] lokaler pfad meinst du? [20:59] der is in mienem home ordner [20:59] wo und wie? im nautilus? [20:59] über die unity GUI [20:59] rechtklick freigbenem [20:59] ok, das ist der nautilus. [20:59] nautilus habe ich noch nie gehör4t, sorry :) [21:00] und wenn du dich per netzwerk als der benutzer anmeldest, dann darfst du auch über den ordner verfügen als wärest du lokal drauf [21:00] ja, das mit dem anmelden als funktioniert irgendwie nicht, deswegen habe ich die freigabe auch für gäste gemacht [21:00] aber die datei berechtigung habe ich eben nicht [21:00] rein komme ich, kann aber nix ändern [21:01] naja, also gast ist das ja irgendwie ok, oder? ;-) [21:01] ja, prinzipiell ja, möchte aber, dass auch der gast was editieren kann :-) Is ja nur im LAN [21:01] da komm sonst keiner ran [21:02] dann musst du die rechte an den enthaltenen daten so ändern, dass die jeder ändern kann. [21:03] ja [21:03] mache ich ja [21:03] aber sobald neue reinkommen muss ich das wieder neu setzen [21:03] neue reinkommen lokal vom benutzer? [21:03] muss ja iwie gehgen, dass er immer jeder datei erlaubt bearbeitet zu werden [21:04] genau [21:04] aha. [21:05] hmm... ich weiss nicht wirklich, ob das lokal über einen Ordner geht. kann sein, dass das mit dem Sticky bit geht, such mal danach, aber du willst "eigentlich", dass du dich als der Benutzer von remote anmelden kannst oder mit gruppen rechten arbeiten [21:06] klar, das wäre am schönsten, hab ich aber nicht ans laufen bekommen [21:06] dann bekomm das ans laufen. [21:07] schau in die Samba Logs und lese sie [21:08] die hatte ich sogar schon hier gepostet und niemand konnte erkennen woran es liegt:) [21:09] tja nun [21:09] ändert nix daran. [22:19] Moin [22:20] Heute soll die 14.04 erscheinen. [22:20] Wie lange kann es noch dauern? [22:20] sprotte24: geh ruhig nochmal schlafen. [22:20] :) [22:20] sprotte24: erwartet wird es eher gegen nachtmittags [22:20] *nachmittags [22:20] lts? [22:21] !lts | ubu [22:21] 12.04 LTS [22:21] die 14ner auch? [22:21] Ja. [22:21] echt... [22:21] http://wiki.ubuntuusers.de/Long_Term_Support [22:21] Title: Long Term Support › Wiki › ubuntuusers.de (at wiki.ubuntuusers.de) [22:21] nach Mitternacht kam "in Kürze". Ich fragte, weil es vielleicht Erfahrungen gibt. OK. [22:21] Ganz echt. [22:21] fett ;) [22:22] sprotte24: wie gesagt, dauert sicher noch 12h [22:22] k1l_: ich glaube dir ja. [22:33] sprotte24: Bedenke die Zeitzonen... ;-) [22:34] jokrebel_: wenn ich auf eine deutschsprachige Seite gehe, sollte die berücksichtigt sein? [22:34] sprotte24: welche seite? [22:35] http://ubuntuusers.de/ [22:35] Title: Portal › ubuntuusers.de (at ubuntuusers.de) [22:37] ja das ist der countdown timer, der die tage runtergezählt hat. häng dich nicht daran auf [22:37] Moin, kubine - bin gestern viel weitergekommen. Hab sogar schon wlan zum Laufen bekommen auf dem alten Satellite A100 [22:38] k1l_: ich hab Geduld. War nur ne Entgegnung auf Zeitzone [22:43] !bot > sprotte24 [22:43] sprotte24: Ich bin ein Bot. ;-) [22:47] re [22:59] sprotte24: Geduld heißt "ich installier es erst wenn 14.04.1 raus kommt" [23:00] Kenn ich. Ich werde auch erst Windows 7 updaten, wenn Windows 9 rauskommt. [23:01] Jdes 2. taugt bei Win nix: Win ME, Vista, 8 [23:03] sprotte24: aber, aber. Wie soll M$ denn dann ihren Touchscreentreiber äh ihr neustes OS an den Mann bringen? Wenn das jeder täte! [23:04] sprotte24: aber das wär in #ubuntu-de-offtopic besser aufgehoben. [23:04] MasterOfDisaster: Auch für Dich [23:07] jokrebel_: ok, werde drauf achten. Doch ohne Bezug zur Ursprungsnachricht ist es bei offtopic nicht passend. [23:09] sprotte24: Dann setzt dort das Thema nochmal neu auf. Hier ist sowas Ubuntu-Support-Abschweifendes jedenfalls langfrisitg fehl am Platz. [23:10] sprotte24: Und viel die hier sind sind auch nebenan ;-) [23:11] sprotte24: BTW kann man ohne weiteres auch in mehreren Kanälen gleichzeitg sein