Anonymous
уже который раз прошу Дениса
Anonymous
но он кажется поддерживает монополию :)
Logan
по-моему он просто болт забил
Logan
я одну группу был вынужден клонировать
Anonymous
ну нет я ему когда писал дать модерку, то он заходил и удалял
Logan
при этом он легко может дать админу права ТОЛЬКО на удаление и бан юзеров
Anonymous
может, да
Logan
точно да - я же админю группу и знаю, как управляются права
Anonymous
го бампать его крч
Logan
бесполезняк
Logan
хоть кубовую группу тоже клонируй
Denis
недавно же был разговор про новых админов и тут устроили какое то голосование
Denis
тут есть немного постоянных юзеров, при этом несколько из них сразу вызвались - за
Denis
@DenisIzmaylov ping, дававй админов добавим
Logan
@DenisIzmaylov ping!
Роман
Что-то фигня какая-то. api_servers указал, но всё равно прометей пишет: Kubernetes SD configuration requires at least one Kubernetes API server
Anonymous
Зачем нужен StatefulSet? Извиняюсь за нубский вопрос
Denis
Зачем нужен StatefulSet? Извиняюсь за нубский вопрос
Что бы поды имели конкретную айдентику
Denis
Каждый раз
Denis
Для кластерных и/или stateful систем очень удобно
Maksim
Что бы поды имели конкретную айдентику
Нет. Это лишь побочный эффект. Statefull set нужен что бы запускать опр. зависимости контейнерров
Anonymous
@DenisIzmaylov ping!
Maksim
То что название подов не меняется
Anonymous
он не онлайн энивей, как появится, так запингуем его >:з
Maksim
https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/
Dmitry
Stateful ты можешь жестко привязать pv к поду, и каждый рез при поднятии пода, к нему будет подключаться его pv
Maksim
Собсно тут statefull сет используется что бы перед запуском es изменить кол-во страниц памяти в систему
Dmitry
В deployment ты можешь сделать тоже самое, но тогда придется использовать helm темплейты
Anonymous
Что произойдет в случае если у вас rolling update и персистент вольюм ReadWriteOnce?
Anonymous
Насчет ES еще вот так можно (если я верно понял о чем речь): https://github.com/pires/kubernetes-elasticsearch-cluster/blob/5a83c043c4b84288c544a291bb1e888e0d3a90c6/es-client.yaml#L16
Maksim
Ты сказал, что в этом смысл statefull set
Maksim
а ясказал, что это лишь один из...более того не самым главным, досталось по наследству от pet set
Denis
Ну собственно да в этом, я просто несовсем понял что ты написал
Denis
Что за зависимости контейнеров?
Maksim
их стабильно название
Anonymous
😱😱😱😱 что за жесть, я когда обновляю страничку с моей единственной нодой, то он меняет их system uuid, то есть перенаправляет то на одну, то на другую ноду это из-за того, что у них имена одинаковые или почему так?
Ivan
Что ему может быть нужно?
попробуй оставить пустым апи сервер если пром у тебя в кубе, вот пример: - job_name: 'kubernetes-apiservers' scheme: https tls_config: ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt insecure_skip_verify: true bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token kubernetes_sd_configs: - role: endpoints api_server:
Anonymous
а чтобы etcd server не падал, нужно чтобы он был минимум на 3 нодах?
Logan
не обязательно
Logan
но если нужен кластер - три ноды минимум и нечетное количество нод
Anonymous
а то я развернул master-etcd-agent полный набор на 2 ноды, и когда вырубаю одну, то всё падает( Error from server: etcdserver: request timed out
Anonymous
а, то есть мне нужна третья нода таки? 🤔
Logan
для кластера - да
Anonymous
а почему он сам себя не может выбрать новым мастером?
Logan
нужен консенсус для выборов. особенность работы протокола
Magistr
сплит брейн потому что предотвратить надо
Logan
уточнил, нечетное количество нод - рекомендация. 3 ноды - обязательный минимум
Etki
Можно, но смысла нет
Anonymous
а как переименовать ноду?🙈 set hostname & reboot не помог доки тоже
Logan
переименовать где?
Anonymous
в k8s, а то мне не очень понятно почему он видит одну ноду, но когда я обновляю страницу с инфой о ноде, то он меняет значения system uuid, то одной ноды, то другой (не знаю как еще это объяснить) крч кластер работает на двух нодах, но в инфе показывает только одну
Anonymous
ой мне ответили!
Anonymous
страница с инфой о ноде это какая?
http://localhost:8001/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy/#!/node/ubuntu-1604-xenial-64-minimal?namespace=default вот типа такая url для ui
Anonymous
начнем с простого - сколько нод и сколько апи-серверов? апи-сервера друг о друге знают вообще?
2 ноды, на каждой стоит master-etcd-agent они друг о друге знают, я это определил так: поднял какой-то сервис, зашел по ssh на другую машину и увидел этот же сервис через kubectl
Logan
так, стоп. берем одну ноду, смотрим в ее апи-сервер. апи-сервер напрямую или через haproxy?
Anonymous
http://localhost:8001/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy/#!/node/ubuntu-1604-xenial-64-minimal?namespace=default вот типа такая url для ui
проблема видимо в том, что k8s определяет ноду по hostname, а он не уникален(
Anonymous
кажется что напрямую, разворачивал через kubespray, если подскажете как это перепроверить, то я это сделаю :)
Logan
netstat -anp | grep 8001
Logan
что говорит?
Anonymous
ничего
Logan
потрясающе
Logan
а как ты в api ходишь?
Anonymous
а ой, на локальной машине всмысле?
Anonymous
Anonymous
вот локальная машина
Logan
выясни, на каком порту у тебя апи на мастере. И проверь, нету ли на мастере балансировщика. Есть подозрение, что у тебя два мастера и ты по очереди попадаешь то на один, то на второй. зачем ты сделал две машины в одном кластере и с одним именем - спрашивать, конечно, бессмыслено?
Anonymous
так получилось :c я уже решил, что проще переделать конечно, просто не ожидал подвоха с этой стороны
Logan
с точки зрения куба проблем, я так понимаю, нет. А вот с точки зрения диагностики... Я бы рекомендовал, для начала: - три ноды, а не две - разные имена - переделать
Anonymous
хорошо, спасибо большое! пойду переделывать
Logan
да как бы не за что. Деплой куба - очень болезненная тема. Способов - как блох, и все они не работают. И все - по-разному
Maksim
И замечу все способы рабочие...