[11:21] <sreve> Würde meinem Squid gerne auch HTTPS beibringen. Gibt es dafür eine offizielle Anleitung für Ubuntu 20.04?
[11:54] <LupusE> die allgemeine meinung ist, dass man https nicht sqitten will.
[11:54] <sreve> evtl. ja
[11:55] <LupusE> https ist eine verschluesselung vom server zum client. dies zu brechen um 'sicherer' zu werden ist ien paradox. anstelle von poxies sollte man sinniger weise ueber alternativen nachdenken.
[11:55] <sreve> aber ich hänge an der stelle, dass mir der browser sagt: "Fehler: Gesicherte Verbindung fehlgeschlagen"
[11:55] <LupusE> es gibt sicher einzelfaelle in denne man das auch gut einsetzen kann. fuer diese findet man dan naber eher wenig allgemeine anleitungen und sollte wissen wa sman da tut.
[11:56] <LupusE> das ist sinn und zweck der https verbindung, dass dir der browser sagt 'ehm, hier haengt wer zwischen, bist du dir sicher das du weisst was du tust?'.
[11:57] <LupusE> dann tut der findige proxy-admin ein lokales certifikat zwischen, das alle clients verteilt bekommen muessen .. .das ist zu aufwaendig und dnan sagt der admin 'aktzeptier dne kram doch einfach' ... -> verschluesselung kaputt.
[11:58] <sreve> ja, ist mir klar. Aber es geht ja um mein privates netzt und squid soll mir auch die https anfragen cachen. es ist mir lieber, wenn weniger anfragen rausgehen und dafür nehme ich den man-in-the-middle in kauf.
[11:59] <LupusE> und? aendert das etwas an meiner (begruendeten) grundaussage? kein mensch bei verstand wuerde das supporten oder eine anleitung dafuer shcreiben. 
[12:03] <sreve> da 95% der anfragen über https gehen, kann man sich den http cache dann auch sparen.
[12:04] <LupusE> 13:55 < LupusE> https ist eine verschluesselung vom server zum client. dies zu brechen um 'sicherer' zu werden ist ien paradox. anstelle von poxies sollte man sinniger weise ueber alternativen nachdenken.
[12:04] <LupusE> plus den satz davor ... sehr gut wiederholt. der lernerfolg ist damit bestaetigt.
[12:05] <LupusE> was will man dne nheutzutage cachen? facebook? zu dynamisch. instagram? dito. webmailer? sowieso. cms/apt? kann man spiegeln.
[12:06] <LupusE> der aufbau des internets hat sich seit erfindung von squid etwas veraendert. es war zu seiner zeit ein tolles tool.
[12:06] <sreve> ich gebe dir ja im prinziep recht.
[12:07] <ppq> mich stört cache idr. eher, weil dadurch gerne mal veralteter inhalt angezeigt wird
[12:07] <LupusE> nein, ich habe im generellen recht. im prinzip hast du etwas unsinniges vor, und versuchst es als total selbstverstaendlich darzustellen.
[12:08] <ppq> naja, wenn man keinen wert auf verschlüsselung legt, kann man ja schon drüber nachdenken.
[12:08] <ppq> aber wird vllt etwas ot :)
[12:08] <sreve> es gibt jede menge statiche daten, die nicht richtig geached werden.
[12:08] <LupusE> mit dem oben beschriebenen aufwand, ja.
[12:09] <LupusE> der unkonfigurierte browser wird immer meckern 'serverdaten nicht ligitim'. weil er recht hat, ohne das hand angelegt wird.
[12:10] <LupusE> sreve: um wieviele clients reden wir den nin dienem privaten netz? 3 oder sind es sogar 5, die sich alle immer die gleichen statischen daten holen, so dass sich der aufwand einer eigenen CA lohnt.
[12:14] <sreve> der download (7GB) ist entzwischen fertig, deswegen mache ich erstmal mit meiner arbeit weiter. aber ...
[12:16] <sreve> das datenpaket wurde jetzt lokal im cache-ordner gespeichert, d.h. wenn ich ein neues projekt auf der grundlage starte, dann muss ich jetzt immer selbst dran denken, dass ich die daten dort hin kopiere, oder sie werden neu geladen. ich muss auch dran denken, dass wenn ich das projekt lösche, dass dort noch der 7GB download rum liegt.
[12:18] <sreve> da ich noch auf glasfaser warte, sind 7gb relativ viel zeug.
[12:18] <LupusE> aha. 7GB dateien cachen im squid statt eine veruenftige public cloud und datenstruktur ... tja, I'm out.
[12:18] <LupusE> err, privat ecloud.
[12:19] <sreve> das project ist von git gecloned und dann muss ichs halt nehmen wie es ist. oder hast du jetzt eine bessere lösung? dann her damit :)
[12:20] <LupusE> ja, backlog lesen und verstehen.
[12:20] <sreve> nö, du hast auch keine lösung für das problem.
[12:21] <LupusE> man kann git reposetories sehr einfach lokal vorhalten. man muss nur kurz git lernen und dann einen platz dafuer shcaffen (kein problem, der squid stirbt ja).
[12:21] <LupusE> und git in nem squid cachen? aehhh ....
[12:21] <sreve> du hast es nicht verstanden. 
[12:21] <LupusE> ich habe ES verstanden, wie du ES erklaert hast.
[12:21] <sreve> das project von git läd die daten beim ersten start nach.
[12:22] <sreve> oder denkst du die 7gb werden von github geleifert?
[12:22] <LupusE> ich denke gar nichts. du 'erklaerst' ich reagiere.
[12:22] <LupusE> aber da es auf git ist, hast du vermutlich den sourcecode und kannst die quelle doch bequem anpassen.
[12:23] <sreve> nö, du bringst besserwisserische aussagen wie "<LupusE> ja, backlog lesen und verstehen." 
[12:23] <LupusE> alter, ich versuche dir seit mehren minuten zu helfen. wenn du nun beleidigend wirst, dann beschaeftige ich mich mit anderne dingen.
[12:23] <sreve> mach das :)
[12:24] <sreve> du hast übrigens null geholfen.
[12:38] <sreve> ppq, sorry hatte deinen beitrag überlesen. ja, in der tat ist verschlüsselung zweitrangig. es geht um einen browser der nur notebooks ausführt und dummerweise laden einige projekte große dateien über https nach. ich hatte gehofft, dass mit squid lösen zu können.