[07:26] <Zooklubba> lägg ägg Hund
[07:26] <Hund> Zooklubba: Nästan så att jag borde det efter alla ägg jag äter.
[08:08] <HeMan> Hund: det är ju inte riktigt så det funkar
[08:09] <HeMan> Hund: hönor äter ju inte ägg för att lägga ägg... :)
[08:10] <Hund> HeMan: Du vet ju uppenbarligen inte vad du pratar om. Du tror att hönorna bara trollar fram ägg från parallella universum eller? ;P
[08:10] <HeMan> Hund: *poff* Ut kommer ett ägg!
[08:10] <Hund> :D
[08:11] <coffe> Barre,  kör du kubernetes ?
[08:11] <Barre> coffe: inte än, skall migrera över till det
[08:13] <coffe> Barre,  Ok, då vet du inte vad som är bästa lösningen för users / passwords
[08:14]  * andol pekar coffe i riktning mot https://kubernetes.io/docs/admin/authorization/rbac/
[08:15] <coffe> andol,  jag läser den.  dock så saknar jag lite exempel. :)
[08:17] <andol> coffe: Jo, tyvärr utgår väldigt mycket dokumentation och exempel kring Kuberenetes utifrån att man kör defaultläget --authorization-mode=AlwaysAllow. Det vill säga att man har autentisering men inte auktorisering.
[08:17] <andol> Just att sätta mig in i RBAC-mode är förövrigt precis vad jag har på todo-listan den här veckan.
[08:19] <coffe> andol,  problemet är jag inte kommer åt UI
[08:20] <coffe> jag har en ny installation av senaste.
[08:21] <andol> Osäker, exponseras /ui utåt som default? I den omfattning jag har klickat runt där så har jag använt mig utav kubeproxy.
[08:21] <coffe> den vill ha någon form av auth .. och  då de nya auth systemet kom i 1.7 så verkar det vara lite bra guider ute om hur göra .
[08:26] <HeMan> ooh! Man verkar kunna ha en ldap-server för autenticering i kubernetes!
[08:27] <coffe> ja, det ska stödja AD med om man skulle önska det
[08:27] <HeMan> FreeIPA!
[08:27] <Laban> Gratis pale ale?
[08:28] <HeMan> Jag skrev en dehydrated-plugin för att använda dns_01 på FreeIPA i helgen
[08:28] <HeMan> Blev riktigt smidigt
[08:29] <HeMan> Men jag hittade att Ansible har stöd för att uppdatera dnsrecord i ipan
[08:29] <HeMan> Så klart inte TXT-records
[08:29] <HeMan> så det får bli en Ansible-patch med
[08:29] <coffe> Andol ser fram mot att du  löst det så kanske man kan få lite hjälp
[08:30] <andol> coffe: Ähh, handlar inte så mycket om att "lösa det" som att förstår det tillräckligt mycket för att kunna åstadakomma det man vill åstadkomma.
[08:49] <coffe> andol,  :)  typ så ,  sitter här å känner mig extremt korkad =)
[08:50] <andol> Blir lätt så med Kubernetes!
[08:51] <andol> Å ena sidan får mycket mycket bra gratis med Kuberentes. Samtidigt har man en helt bunt nya okända abstraktionslager att förhålla sig till.
[08:51] <coffe> andol,  ja . skulle vara trevligt få tag i UI å kunna visa cheferrna,
[08:52] <Barre> coffe: det bästa UI är kubectl
[08:52] <andol> Hmm, kan iofs ha vart så att jag missförstod din initiala fråga, gällande hur långt du har kommit.
[08:53] <andol> coffe: Har du koll på den admin-principial som torde ha skapats när du satte upp klustret? Den du (via kubectl) använder för att kommunicera med api:et?
[08:53] <coffe> andol,   Nej det har jag inte ..  kom från kubemini . så jag kände inte till det.  minns inte ens en skapades .
[08:55] <andol> Som default förväntar sig kubectl att finna nödvändigt config (såsom address till api-servern, principial, etc) under ~/.kube/config, alternativt under den sökväg miljövariablen KUBECONFIG pekar på.
[08:56] <andol> I bästa fall har du en ~/.kube/config på en utav master-noderna. Beror lite på vilken magi som vart involverad när du skapade klustret.
[08:56] <andol> Borde hursom finnas någon referens till det i den Getting Started du använde dig utav.
[08:59] <coffe> börjar misst'nka jag följde en guide för gammal version.
[09:01] <coffe> andol det har jag .. i den finns en user. med ett certificat.
[09:01] <coffe> client-certificate-data:  <--- dock fattar jag inte hur jag ska anv mig av detta för kunna nå ui
[09:06] <andol> coffe: Börja med att se till så att du kan använda kubectl.
[09:06] <coffe> andol,  ja det kan jag .. det är via  det jag startar proxy samt satte upp clustret
[09:10] <coffe> andol,  från lokal maskin så kan jag köra det och lista  noder tex
[09:12] <coffe> när jag kör proxy lokalt så kör den tydligen http inte https mot bakomliggande .
[09:13] <andol> coffe: Ok, med "kubectl proxy" körandes så borde du komma åt ui:et via följande url redirect: http://localhost:8001/ui
[09:16] <coffe> Error: 'malformed HTTP response "\x15\x03\x01\x00\x02\x02"'
[09:17] <coffe> så den verkar köra https i backend .. för om jag curlar på master så säger den att repsonsen är https.. när jag köpra det via local proxy så säger den:  Error code: SSL_ERROR_RX_RECORD_TOO_LONG
[09:18] <andol> Ok, möjligt att det skiljer mellan olika k8s-versioner då.
[09:18] <coffe> ja, något är det .. kan jag exponera den porten direkt på master kanske det skulle gå
[09:23] <coffe> andol,   https://github.com/kubernetes/dashboard/wiki/Accessing-Dashboard---1.7.X-and-above där finns en lösning hur du ändrar proxy anropet till htpps
[09:30] <coffe> Dock så  godkänner den inte den kubeconfig fil jag anv för kubectl , så får se om jag kan generera en token att anv
[12:46] <coffe> andol,  vad kör du för pod nätverk ?
[12:56] <andol> coffe: Har ett platt Azure Vnet.
[12:57] <coffe> när man sätter upp cluster så ska man välja hanterar för pod networks .. det är nog där jag gör fel
[12:58] <andol> Har inte satt upp mitt kluster helt på egen hand, utan mer semi-automatiserat med https://github.com/Azure/acs-engine