
bebebe
15.10.2018
06:42:05

Anton
15.10.2018
06:42:47
подскажите пожалуйста: не могу понять как опубликовать grafana, которая из kube-prometheus на ingress
https://github.com/coreos/prometheus-operator/blob/master/contrib/kube-prometheus/docs/exposing-prometheus-alertmanager-grafana-ingress.md

Andor
15.10.2018
06:42:57
Много полезностей но и закат солнца вручную тоже

Anton
15.10.2018
06:43:13

Google

bebebe
15.10.2018
06:43:49
Лучше расскажите чем деплоите ваши ворклоады @Maxpain177

Maxim
15.10.2018
06:43:54

Anton
15.10.2018
06:44:14

Maxim
15.10.2018
06:44:38
И?
Что и?) я ответил что у меня кроме stateful ничего нет в кластере

Anton
15.10.2018
06:44:44
Что мешает их забиндить на ноду, прокинуть hostPath
Ты писал что поды ручками запускаешь

Maxim
15.10.2018
06:45:10

kvaps
15.10.2018
06:45:23

bebebe
15.10.2018
06:45:38

Maxim
15.10.2018
06:46:24

Anton
15.10.2018
06:46:28

kvaps
15.10.2018
06:47:38
Многие используют hostNetwork и сторонний service discovery как-раз потому что в этом случае ты ничего не теряешь на оверлейных сетях

Google

Maxim
15.10.2018
06:47:49

Anton
15.10.2018
06:47:58
запретит паралельный запуск, ограничит время работы

bebebe
15.10.2018
06:48:50

Maxim
15.10.2018
06:49:12

bebebe
15.10.2018
06:49:35

Anton
15.10.2018
06:50:02

Maxim
15.10.2018
06:50:03
К этому апи обращаются различные проекты, которым необходимо сделать allocate игрового сервера определенного типа в определенном регионе на некоторое время (обычно они живут в среднем час)

bebebe
15.10.2018
06:50:24

Maxim
15.10.2018
06:50:46
Функционала пода вполне хватает

Anton
15.10.2018
06:52:09
Да в crd нет надобности)
Как это? удобно же - написал crd для определенного типа игры, базовый набор парамсов, и вуаля - оператор захерачит =)

Артем
15.10.2018
06:52:21
Добрый день. Есть проблема, установил prometheus c grafana через rancher. После перезагрузки пода с grafana все установленные dasboards слетают. Где у dashboard-ов названия что бы я бог добавить их в шаблон?

kvaps
15.10.2018
06:52:33

Maxim
15.10.2018
06:52:54

Anton
15.10.2018
06:53:09

Maxim
15.10.2018
06:53:25

Maxim
15.10.2018
06:53:31

Andor
15.10.2018
06:53:54

Google

Артем
15.10.2018
06:54:28

kvaps
15.10.2018
06:54:31

Maxim
15.10.2018
06:54:55

Артем
15.10.2018
06:55:23
Да такой же

Maxim
15.10.2018
06:55:56
?
расскажите где у вас болит, кроме лайв миграции?
А вообще болит не из-за нехватки куба (с ним просто удобнее, и мне лень писать код скедулинга), а из-за нехватки докера) потому что сборок игровых серверов много, какие-то основаны на базовых images других серверов, да и безопасней, когда игровой сервер изолирован от других

Артем
15.10.2018
06:56:10

Maxim
15.10.2018
06:56:25

bebebe
15.10.2018
06:56:30

Andor
15.10.2018
06:56:44
не будет :)

Maxim
15.10.2018
06:56:49

bebebe
15.10.2018
06:57:46
короче, я так понял, что вы нашли свою платформу которая за вас разруливает оркестрацию запуска докер контейнеров.

Maxim
15.10.2018
06:57:57

bebebe
15.10.2018
06:58:02
? это отчасти для чего k8s и был придуман

Anton
15.10.2018
06:58:06

Andor
15.10.2018
06:58:25

bebebe
15.10.2018
06:58:34

Andor
15.10.2018
06:59:26
ну рассказывал же что все ноды покрыты taint'ами и запуск подов без контроллеров

Maxim
15.10.2018
06:59:46
Просто без crd
Который делает создание и удаление подов)

Google

Andor
15.10.2018
07:00:28
при чём тут вообще crd
ты писал что поды запускаешь, а не деплойменты-репликасеты-етц

Maxim
15.10.2018
07:00:57
И?)

Sergei
15.10.2018
07:01:03
Ребят, а кто сталкивался с такой штукой? Поставил nginx-ingress 0.20.0, как демон сет. 16 рабочих нод. Но он на одну не поставился. Пишет что 15/15. Сама нода такая же как и остальные. Более того, предыдущий nginx-ingress нормально на все ставился...

Anton
15.10.2018
07:01:41

bebebe
15.10.2018
07:01:55
15 ингресс контроллеров, во первых это прекрасно

Anton
15.10.2018
07:01:55
get ds -o yaml

Maxim
15.10.2018
07:02:20
при чём тут вообще crd
Я хотел сказать что у меня контроллер не в классическом понимании контроллеров куба, а как отдельный процесс, который обращается к апи и запускает поды самостоятельно, а не реагируя на ивенты в кубе

Anton
15.10.2018
07:02:46
а в телеграме есть черный список? =)

terry
15.10.2018
07:06:03

Anton
15.10.2018
07:06:24
ну например добавить туда определенного чела чтобы в конфе не видеть его сообщения?

terry
15.10.2018
07:06:53
но так что бы не видеть что пишет в чате - это нет

Anton
15.10.2018
07:07:16
жаль

Let Eat
15.10.2018
07:13:58

Grisha
15.10.2018
07:14:15
пробовал)
и /bin/sleep и bash -c /bin/sleep
и по разному, игнорит

Anton
15.10.2018
07:16:46

Google

Grisha
15.10.2018
07:16:52
ест
я екзечился в контейнер, проверял

Anton
15.10.2018
07:17:30
а terminationGracePeriodSeconds не помог?

Let Eat
15.10.2018
07:17:42

Grisha
15.10.2018
07:18:06
он по умолчанию равен 30 сек, а у меня контейнеры апдейтятся почти сразу же

Let Eat
15.10.2018
07:19:29
grace это через сколько sigkill слать

Anton
15.10.2018
07:21:08

Sergei
15.10.2018
07:27:50
короче, нашёл почему на одной ноде не создавался под. там с предыдущей версии остался под в статусе Terminating. есть какой-то баг, когда они остаются. там на ноде бывают ошибки в kubelet что не может отмонтировать volume с токеном. прибил руками под, рестартнул kubelet на ноде, раскатал демонсет заново, создались поды на всех нодах

Andor
15.10.2018
07:28:17
а версия у тебя какая?

Anton
15.10.2018
07:28:20
прото прибил б под

Sergei
15.10.2018
07:28:45
1.11.2

Andor
15.10.2018
07:28:51
this

Anton
15.10.2018
07:28:58
Хотя он должен был показывать 15/16

Sergei
15.10.2018
07:29:13
просто прибитие не помогает в таких случаях, только с форсом: kubectl delete pod NAME --grace-period=0 --force
ну и после такого прибития mountpoint остаётся на него, что плохо. после рестарта kubelet он его подчищает

Anton
15.10.2018
07:29:39
this
Так и не поставили как лого канала =)

Sergei
15.10.2018
07:32:23
вот находил ссылку на баг, похоже это он самый. правда непонятно, он не у всех стреляет похоже... https://github.com/kubernetes/kubernetes/issues/51835

Anton
15.10.2018
07:33:38

Vladimir
15.10.2018
07:44:51
кто чем деплоит в кубер?

Andor
15.10.2018
07:45:11
Приложение (деплоиться)