@kubernetes_ru

Страница 536 из 958
Ильдар
26.04.2018
17:03:17
да, я его тоже пробовал, он блокируется при проблемах коннекта к ldap. Да и вообще при работе с ldap блкируется.

Andrey
26.04.2018
17:03:32
Можно на lua написать обвязку и прокидывать нужные токены (openresty)

Deep Sea
26.04.2018
17:05:58
auth_request + https://github.com/nginxinc/nginx-ldap-auth

Google
Deep Sea
26.04.2018
17:06:16
всё уже написано без всяких lua

zigmund
26.04.2018
17:13:22
Alex Milushev
26.04.2018
20:23:38
А можно как-то сделать, что-бы kubelet не валился постоянно с ``failed to run Kubelet: cannot create certificate signing request:` а ждал пока появится api сервер?

а то Я тут пытаюсь настроить api как статик под но он валится раньше :(

Dmytro
26.04.2018
22:49:30
Кто нибуть монгу развертывал с помощью этого дела? https://github.com/kubernetes/charts/tree/master/stable/mongodb-replicaset
у меня монга при помощи форка этого чарта уже больше года в проде крутится

в целом работает норм, но куб dynamic volume provisioner не умеет xfs форматировать - в итоге монга сидит на ext4 который куб dynamic volume provisioner только и умеет, плюс пришлось навернуть huge pages и прочие sysctl твики которые хочет монга на всех нодах= это возможно ухудшает перформанс других приложений в этом кластере

поэтому под большие нагрузки я думаю лучше могну такие иметь где-то вне кластера на отдельных машинах оптимизированных под нее

Stanislav
26.04.2018
23:14:22
А node pools такую проблему не позволяют решить?

Dmytro
26.04.2018
23:47:39
Позволяют решить sysctl но не xfs (но можно вручную создавать вольюмы а не через плагин)

Но с node pools и созданием вольюмов (и форматировани вручную в xfs) уже теряются профиты кластера - шарить ресурсы с другими приложениями и автоматизация деплоймента с полпинка

Konstantin
27.04.2018
04:35:18
Коллеги, помогите разобраться. Поставил кластер через kubespray с HA, используя haproxy с VIP адресом, за которым два api сервера. Использую сгенерированный kubeconfig, который кладется в папку artifacts. Извне кластера на любую команду kubectl выдает : Unable to connect to the server: Tunnel or SSL Forbidden В компании есть корпоративный proxy, все хосты кластера прописаны в no-proxy. Понять не могу что не так

Изнутри кластера, с api хоста все работает

Google
Alex Milushev
27.04.2018
05:01:27
привет, если кто запускает kubelet как докер контейнер, поделитесь пожалуйста своим systemd unit'ом для этого?

Sergey
27.04.2018
05:03:30
оркестратор для управления контейнерами в контейнере рили?)

Alex Milushev
27.04.2018
05:04:50
эм, а почему нет?

Sergey
27.04.2018
05:06:07
а потом этим контенером будет управлять второй k8s?))

Andrey
27.04.2018
05:06:30
coreos так делает, только у них не в докеровском контейнере, а в rkt

https://github.com/coreos/coreos-kubernetes/blob/master/Documentation/kubelet-wrapper.md

Alex Milushev
27.04.2018
05:06:40
Зачем? systemd им управляет

https://github.com/coreos/coreos-kubernetes/blob/master/Documentation/kubelet-wrapper.md
Пробовал подсунуть в systemd unit на основе этого -- в поды не монтируются секреты

Andrey
27.04.2018
05:11:04
может, не все вольюмы в kubelet пробрасываешь? Хотя это догадка, я не знаю, как kubelet секреты в поды отдаёт.

оркестратор для управления контейнерами в контейнере рили?)
это норм, устоявшаяся практика, которой пользуется не только k8s. Вас не смущает, что mysql данные для авторизации и аутентификации хранит в базе? Или что контрольная панель для VSphere работает в VM? Или что контроллеры AD, которые управляют доступом к Hyper-V, работают в виртуалках Hyper-V? Или что C++ написан на C++?

Рекурсия, в конце концов

Учебники английского, написанные на английском :)

Sergey
27.04.2018
05:27:24
про С++ и английский эт чет перебор:)

Aion
27.04.2018
05:32:42
Эт не в ту оперу

Но смысл в том, Что под задачу и решение

Andrey
27.04.2018
05:35:59
так в скрипте же

Alex Milushev
27.04.2018
05:36:12
Не работает :)

Andrey
27.04.2018
05:36:13
kubelet-wrapper

ну я не знаю. у всех, кто кореос использует, работает, а у тебя нет :)

Google
Alex Milushev
27.04.2018
05:37:48
Так у меня не coreos

Dmitrii <freehck>
27.04.2018
06:55:55
Ребята, я тут смотрю описание сервиса dashboard, и вижу, что там .spec.clusterIP не совпадает с ip мастера. Что вообще такое этот ClusterIP?

Valentin
27.04.2018
06:57:18
это IP внутри кластера

Dmitrii <freehck>
27.04.2018
06:57:29
Я это к чему спрашиваю — хотелось бы создать своё описание сервиса Dashboard, чтобы сразу указывать ему .spec.type=NodePort и .spec.ports[0].port=30443. Но меня беспокоит то, что я дважды развернул через ansible-provision мастер-ноду кубера, и оба раза .spec.clusterIP у меня разный.

Valentin
27.04.2018
06:57:41
а IP мастера - это IP внутри твоей локальной сети

Dmitrii <freehck>
27.04.2018
06:57:55
это IP внутри кластера
Он генерируется динамически, если отсутствует в описании сервиса?

А, неправильно задаю вопрос.

Valentin
27.04.2018
06:58:22
да, фланелью или что там у тебя

Dmitriy
27.04.2018
06:58:47
Подскажите как поставить кастомный prometheus exporter в prometheus-operator. Поидее service discovery должно работать. Но че то доки пока мутные какие-то. Может уже кто-то ставил

Dmitrii <freehck>
27.04.2018
06:58:58
Если я в описании сервиса не укажу .spec.clusterIP, то он кубер подтянет его сам, значит.

Спасибо, Валентин!

Valentin
27.04.2018
07:00:35
и тебе этот айпи не нужен, по идее, ты к сервису по имени обращаешься

...как и ко мне лол

я что-то не так делаю... после рестарта ноды гитлаб чист как в озере вода. Папка с репами в PV на ноде, папка с постгрес датой тоже в PV на ноде. втф?

и с эластиком похоже также

Valentin
27.04.2018
07:47:21
нет, как реплика, но на одной ноде, там где и pv

понятно, что такие вещи надо как стэйтфул делать, но проблема точно в этом?

т.е. вроде как под с pv на одной машине ….Не хватает знаний на этот счёт )

Banschikov
27.04.2018
07:49:21
а PV доступен на воркере

Google
Banschikov
27.04.2018
07:49:22
?

Valentin
27.04.2018
07:51:48
воркер - это кто?

Sergey
27.04.2018
07:52:30
рабочая нода

Valentin
27.04.2018
07:53:28
да, иначеб не стартонул гитлаб

кроме repositories ничего в pv не надо хранить?

ну и БД само собой

вот что примечательно. Когда я после “вайпа” пытаюсь создать репозиторий с тем-же именем, то: There is already a repository with that name on disk

а , понял, в чём дело. Постгрес криво настроил

Banschikov
27.04.2018
08:06:41
да, иначеб не стартонул гитлаб
Нужно смотреть манифест гитлаба

Valentin
27.04.2018
08:07:45
всё, я нашёл, спс)

Oleg
27.04.2018
08:18:27
пипл, какой вариант сетапа кластера лучше использовать для прода?

пока игрался только с kubeadm

Алексей
27.04.2018
08:25:19
Хз Мой вариант selfhosted через bootkub на centos

Banschikov
27.04.2018
08:45:30
пипл, какой вариант сетапа кластера лучше использовать для прода?
Попробуй kubespray. Он поддерживает создание кластера

Arslanbekov
27.04.2018
09:21:00
Paul
27.04.2018
09:24:14
пипл, какой вариант сетапа кластера лучше использовать для прода?
начните с платформы – средства сильно различаются

Konstantin
27.04.2018
09:24:15
О kubespray

Paul
27.04.2018
09:24:22
в железе – кукбук Злых Марсиан

Konstantin
27.04.2018
09:24:43
Продублирую один раз, может есть кто столкнулся?

Коллеги, помогите разобраться. Поставил кластер через kubespray с HA, используя haproxy с VIP адресом, за которым два api сервера. Использую сгенерированный kubeconfig, который кладется в папку artifacts. Извне кластера на любую команду kubectl выдает : Unable to connect to the server: Tunnel or SSL Forbidden В компании есть корпоративный proxy, все хосты кластера прописаны в no-proxy. Понять не могу что не так

Google
Dmitriy
27.04.2018
09:24:51
Отстойны кукбук имхо)

А какую посоветуете сеть юзать? Мне вот cillium понравился. Но все равно не могу понять что надо брать)

bebebe
27.04.2018
09:40:27
А какую посоветуете сеть юзать? Мне вот cillium понравился. Но все равно не могу понять что надо брать)
вы когда вопросы задаете, все же уточняйте где хостится кубик, или это bm в общем случае советуют calico

Dmitriy
27.04.2018
09:42:03
вы когда вопросы задаете, все же уточняйте где хостится кубик, или это bm в общем случае советуют calico
А я не думал, что это имеет значение. Где не читал, все эти сети не специфичные для облаков или bare metal. Но в данном случае bare metal

bebebe
27.04.2018
09:43:17
А я не думал, что это имеет значение. Где не читал, все эти сети не специфичные для облаков или bare metal. Но в данном случае bare metal
вот простой случай, я рассматривал вариант домашнего k8s, где есть openwrt + zebra + metalb + k8s в этом случае мне calico не подошла т.к metalb имеет некоторые ограничения в этом

Alexandr
27.04.2018
10:39:28
А кто-то может рассказать по вот такую штуку? https://github.com/kubernetes-helm/chartmuseum Предполагается 2 кейса использования: - развернуть приватный helm registry - развернуть локальный helm registry в minikube для разработчиков

Опыт использования, может проблемы какие-то.

Sergey
27.04.2018
10:51:07
Опыт использования, может проблемы какие-то.
не, разве что в гитлаб скидывал чарты:)

Alexandr
27.04.2018
10:51:22
Это как? ))

Хотя там у гитлаба как круто все сделано вокруг CI/CD)

Andrey
27.04.2018
10:52:49
господа, а сколько у вас подов приходится на один экземпляр kube-dns?

а то у меня на 94:2 dnsmasq жалуется на max concurrent requests limit reached, а он 150

увеличил до 4, но хотелось бы знать о похожих кейсах и вообще о граблях kubedns. а то как-то нехорошо, когда деплоишься, а у тебя хосты не резолвятся.

Юрий
27.04.2018
13:39:25
а то у меня на 94:2 dnsmasq жалуется на max concurrent requests limit reached, а он 150
Посмотри, у него внутри скорее всего прописан в качестве nameserver localhost. И он на несуществующие адреса сам себя рекурсивно долбит

Alexander
27.04.2018
14:40:18
Ребята, можно ли ограничить запуск реплик только на одной ноде. Например чтобы stateful одна реплика запускаль только на одной ноде?

Valentin
27.04.2018
14:42:03
она так вроде и будет запускаться

Alexander
27.04.2018
14:42:30
Например есть две ноды, запущенно две реплики. Одна нода падает и на оставшейся ноде реплика не поднимается

Страница 536 из 958