
zigmund
26.04.2018
16:53:00

Ильдар
26.04.2018
17:03:17
да, я его тоже пробовал, он блокируется при проблемах коннекта к ldap. Да и вообще при работе с ldap блкируется.

Andrey
26.04.2018
17:03:32
Можно на lua написать обвязку и прокидывать нужные токены (openresty)

Deep Sea
26.04.2018
17:05:58
auth_request + https://github.com/nginxinc/nginx-ldap-auth

Google

Deep Sea
26.04.2018
17:06:16
всё уже написано без всяких lua

zigmund
26.04.2018
17:13:22

Ilya
26.04.2018
17:24:17

Alex Milushev
26.04.2018
20:23:38
А можно как-то сделать, что-бы kubelet не валился постоянно с
``failed to run Kubelet: cannot create certificate signing request:`
а ждал пока появится api сервер?
а то Я тут пытаюсь настроить api как статик под но он валится раньше :(

Dmytro
26.04.2018
22:49:30
в целом работает норм, но куб dynamic volume provisioner не умеет xfs форматировать - в итоге монга сидит на ext4 который куб dynamic volume provisioner только и умеет, плюс пришлось навернуть huge pages и прочие sysctl твики которые хочет монга на всех нодах= это возможно ухудшает перформанс других приложений в этом кластере
поэтому под большие нагрузки я думаю лучше могну такие иметь где-то вне кластера на отдельных машинах оптимизированных под нее

Stanislav
26.04.2018
23:14:22
А node pools такую проблему не позволяют решить?

Dmytro
26.04.2018
23:47:39
Позволяют решить sysctl но не xfs (но можно вручную создавать вольюмы а не через плагин)
Но с node pools и созданием вольюмов (и форматировани вручную в xfs) уже теряются профиты кластера - шарить ресурсы с другими приложениями и автоматизация деплоймента с полпинка

Konstantin
27.04.2018
04:35:18
Коллеги, помогите разобраться. Поставил кластер через kubespray с HA, используя haproxy с VIP адресом, за которым два api сервера. Использую сгенерированный kubeconfig, который кладется в папку artifacts. Извне кластера на любую команду kubectl выдает :
Unable to connect to the server: Tunnel or SSL Forbidden
В компании есть корпоративный proxy, все хосты кластера прописаны в no-proxy. Понять не могу что не так
Изнутри кластера, с api хоста все работает

Google

Alex Milushev
27.04.2018
05:01:27
привет, если кто запускает kubelet как докер контейнер, поделитесь пожалуйста своим systemd unit'ом для этого?

Sergey
27.04.2018
05:03:30
оркестратор для управления контейнерами в контейнере
рили?)

Alex Milushev
27.04.2018
05:04:50
эм, а почему нет?

Sergey
27.04.2018
05:06:07
а потом этим контенером будет управлять второй k8s?))

Andrey
27.04.2018
05:06:30
coreos так делает, только у них не в докеровском контейнере, а в rkt
https://github.com/coreos/coreos-kubernetes/blob/master/Documentation/kubelet-wrapper.md

Alex Milushev
27.04.2018
05:06:40
Зачем? systemd им управляет

Andrey
27.04.2018
05:11:04
может, не все вольюмы в kubelet пробрасываешь? Хотя это догадка, я не знаю, как kubelet секреты в поды отдаёт.
оркестратор для управления контейнерами в контейнере
рили?)
это норм, устоявшаяся практика, которой пользуется не только k8s. Вас не смущает, что mysql данные для авторизации и аутентификации хранит в базе? Или что контрольная панель для VSphere работает в VM? Или что контроллеры AD, которые управляют доступом к Hyper-V, работают в виртуалках Hyper-V? Или что C++ написан на C++?
Рекурсия, в конце концов
Учебники английского, написанные на английском :)

Sergey
27.04.2018
05:27:24
про С++ и английский эт чет перебор:)

Aion
27.04.2018
05:32:42
Эт не в ту оперу
Но смысл в том, Что под задачу и решение

Alex Milushev
27.04.2018
05:35:45

Andrey
27.04.2018
05:35:59
так в скрипте же

Alex Milushev
27.04.2018
05:36:12
Не работает :)

Andrey
27.04.2018
05:36:13
kubelet-wrapper
ну я не знаю. у всех, кто кореос использует, работает, а у тебя нет :)

Google

Alex Milushev
27.04.2018
05:37:48
Так у меня не coreos

Dmitrii <freehck>
27.04.2018
06:55:55
Ребята, я тут смотрю описание сервиса dashboard, и вижу, что там .spec.clusterIP не совпадает с ip мастера. Что вообще такое этот ClusterIP?

Valentin
27.04.2018
06:57:18
это IP внутри кластера

Dmitrii <freehck>
27.04.2018
06:57:29
Я это к чему спрашиваю — хотелось бы создать своё описание сервиса Dashboard, чтобы сразу указывать ему .spec.type=NodePort и .spec.ports[0].port=30443.
Но меня беспокоит то, что я дважды развернул через ansible-provision мастер-ноду кубера, и оба раза .spec.clusterIP у меня разный.

Valentin
27.04.2018
06:57:41
а IP мастера - это IP внутри твоей локальной сети

Dmitrii <freehck>
27.04.2018
06:57:55
А, неправильно задаю вопрос.

Valentin
27.04.2018
06:58:22
да, фланелью или что там у тебя

Dmitriy
27.04.2018
06:58:47
Подскажите как поставить кастомный prometheus exporter в prometheus-operator. Поидее service discovery должно работать. Но че то доки пока мутные какие-то. Может уже кто-то ставил

Dmitrii <freehck>
27.04.2018
06:58:58
Если я в описании сервиса не укажу .spec.clusterIP, то он кубер подтянет его сам, значит.
Спасибо, Валентин!

Valentin
27.04.2018
07:00:35
и тебе этот айпи не нужен, по идее, ты к сервису по имени обращаешься
...как и ко мне лол
я что-то не так делаю... после рестарта ноды гитлаб чист как в озере вода. Папка с репами в PV на ноде, папка с постгрес датой тоже в PV на ноде. втф?
и с эластиком похоже также

Banschikov
27.04.2018
07:44:44

Valentin
27.04.2018
07:47:21
нет, как реплика, но на одной ноде, там где и pv
понятно, что такие вещи надо как стэйтфул делать, но проблема точно в этом?
т.е. вроде как под с pv на одной машине ….Не хватает знаний на этот счёт )

Banschikov
27.04.2018
07:49:21
а PV доступен на воркере

Google

Banschikov
27.04.2018
07:49:22
?

Valentin
27.04.2018
07:51:48
воркер - это кто?

Sergey
27.04.2018
07:52:30
рабочая нода

Valentin
27.04.2018
07:53:28
да, иначеб не стартонул гитлаб
кроме repositories ничего в pv не надо хранить?
ну и БД само собой
вот что примечательно. Когда я после “вайпа” пытаюсь создать репозиторий с тем-же именем, то:
There is already a repository with that name on disk
а , понял, в чём дело. Постгрес криво настроил

Banschikov
27.04.2018
08:06:41

Valentin
27.04.2018
08:07:45
всё, я нашёл, спс)

Oleg
27.04.2018
08:18:27
пипл, какой вариант сетапа кластера лучше использовать для прода?
пока игрался только с kubeadm

Алексей
27.04.2018
08:25:19
Хз
Мой вариант selfhosted через bootkub на centos

Banschikov
27.04.2018
08:45:30

Arslanbekov
27.04.2018
09:21:00

Paul
27.04.2018
09:24:14

Konstantin
27.04.2018
09:24:15
О kubespray

Paul
27.04.2018
09:24:22
в железе – кукбук Злых Марсиан

Konstantin
27.04.2018
09:24:43
Продублирую один раз, может есть кто столкнулся?
Коллеги, помогите разобраться. Поставил кластер через kubespray с HA, используя haproxy с VIP адресом, за которым два api сервера. Использую сгенерированный kubeconfig, который кладется в папку artifacts. Извне кластера на любую команду kubectl выдает :
Unable to connect to the server: Tunnel or SSL Forbidden
В компании есть корпоративный proxy, все хосты кластера прописаны в no-proxy. Понять не могу что не так

Google

Dmitriy
27.04.2018
09:24:51
Отстойны кукбук имхо)
А какую посоветуете сеть юзать? Мне вот cillium понравился.
Но все равно не могу понять что надо брать)

bebebe
27.04.2018
09:40:27

Dmitriy
27.04.2018
09:42:03

bebebe
27.04.2018
09:43:17

Alexandr
27.04.2018
10:39:28
А кто-то может рассказать по вот такую штуку?
https://github.com/kubernetes-helm/chartmuseum
Предполагается 2 кейса использования:
- развернуть приватный helm registry
- развернуть локальный helm registry в minikube для разработчиков
Опыт использования, может проблемы какие-то.

Sergey
27.04.2018
10:51:07

Alexandr
27.04.2018
10:51:22
Это как? ))
Хотя там у гитлаба как круто все сделано вокруг CI/CD)

Andrey
27.04.2018
10:52:49
господа, а сколько у вас подов приходится на один экземпляр kube-dns?
а то у меня на 94:2 dnsmasq жалуется на max concurrent requests limit reached, а он 150
увеличил до 4, но хотелось бы знать о похожих кейсах и вообще о граблях kubedns. а то как-то нехорошо, когда деплоишься, а у тебя хосты не резолвятся.

Юрий
27.04.2018
13:39:25

Andrey
27.04.2018
14:07:39

Alexander
27.04.2018
14:40:18
Ребята, можно ли ограничить запуск реплик только на одной ноде. Например чтобы stateful одна реплика запускаль только на одной ноде?

Valentin
27.04.2018
14:42:03
она так вроде и будет запускаться

Alexander
27.04.2018
14:42:30
Например есть две ноды, запущенно две реплики. Одна нода падает и на оставшейся ноде реплика не поднимается