
Harry
18.05.2018
12:21:20
Но такая проблема в основном у тех, кто делает по чьим-то howto, которые быстро протухают
Сам на это попался

Anton
18.05.2018
12:21:33
Именно

Dmytro
18.05.2018
12:22:18
так самый правильный путь - почитать как люди делают и сделать по аналогии

Google

Anton
18.05.2018
12:22:37
Как делают или как делали?

Dmytro
18.05.2018
12:22:45
а не пытаться натянуть сову на глобус не понимая что там как с чем работает да еще и от версии разнится

Anton
18.05.2018
12:26:28
Несколько раз встретив подобные вещи, появляется понимание, что продукт несколько бежит вперёд хаутушечек и документации

Konstantin
18.05.2018
12:26:44
Столкулся еще с одной проблемой. Как правильно сгенерировать tls секрет лля ingress, в случае, когда есть цепочка своих untrusted сертификатов, подписанных своим CA? Каков порядок catа файлов в файл сертификата и в файл ключа, которые потом станут секретом?

Andor
18.05.2018
12:33:14
а без ингресса и кубера умеешь это настраивать?

Anton
18.05.2018
12:33:43
Наверно, цепочку cert, CA, root в certfile, ключ в keyfile, да
kubectl create secret tls secretname --key keyfile --cert certfile

Konstantin
18.05.2018
12:37:28

Andor
18.05.2018
12:37:57
То есть ты это никогда раньше в жизни не настраивал, так?

Dmytro
18.05.2018
12:39:21
сделай сначала локально что нжинкс взлетел, потом уже подкинешь в нужные места в ингрессе
но по сути там сертификат первый и дальше все CA по цепочке конкатенируешь в один файл

Harry
18.05.2018
12:44:41
Кстати, в кубе все в принципе понятно, остальное доходится при помощи смекалки. Либо это уже проблемы порога вхождения.
Я прям в восторге от того, как там классно все устроено.

Google

Andor
18.05.2018
12:46:27
ты ещё скажи "просто"

Harry
18.05.2018
12:47:44
Кстати, да.

Konstantin
18.05.2018
12:49:03

Harry
18.05.2018
12:50:27
Нужно просто понять все сущности куба и их иерархию. Это описано в первых страницах мануала. Остальное - мелочи, которые решаются либо тыком, либо скрупулёзным изучением мануалов.

Алексей
18.05.2018
12:56:25
Деплою в куб, нужно понять что деплой успешен или нет в рамках задаваемого таймаута
У когонить готовые рецепты есть или костылить на баше?

bebebe
18.05.2018
12:58:03

Алексей
18.05.2018
12:58:29
Нет
Kontemplate для шаблонизации и скрипты

bebebe
18.05.2018
12:59:16
я имею в виду, вы не рассматривали возможность его использовать вместо того что бы костылить на баше?
там этот функционал из коробки.

Andor
18.05.2018
12:59:45

Andrey
18.05.2018
13:00:00
В тему актуальной документации: у кого-нибудь есть рабочий пример мониторинга, например, nginx с помощью prometheus operator?

Алексей
18.05.2018
13:01:20
У меня нет желания бороться с приколами helm
Трогал, не понравилось
Простые шаблоны + немного обвязки меня устраивает
Andor а что не так?

Harry
18.05.2018
13:16:35
Приколы Хелм? Там же просто все.

Dmytro
18.05.2018
13:19:39
а kubectl rollout status не подходит?
для кейса когда меняется только image в деплоейменте - должно быть достаточно

Sergey
18.05.2018
13:34:53
ну если вы хельм не хотите) пушьте ямлик, и смотрите пока все не станет Running, обновлением инфы раз в сколько то сек))

bebebe
18.05.2018
13:37:48

Google

Stanislav
18.05.2018
13:42:56
Парни, могу ли я забиндить SA на несколько NS ?
kubectl create rolebinding user-role —clusterrole=admin —serviceaccount=user:default —namespace=user-ns

Andrey
18.05.2018
14:09:06
Так с prom operator никто не работал?

Andor
18.05.2018
14:09:56
В чяте метрик спроси

Nikita
18.05.2018
14:29:27
Не могу удалить поды, где копать?
$ kubectl delete -n kube-system --force=true --now=true pod kube-dns-bb945d984-jrqrh
pod "kube-dns-bb945d984-jrqrh" deleted
$ kubectl delete -n kube-system --force=true --now=true pod kube-dns-bb945d984-jrqrh
pod "kube-dns-bb945d984-jrqrh" deleted
$ kubectl delete -n kube-system --force=true --now=true pod kube-dns-bb945d984-jrqrh
pod "kube-dns-bb945d984-jrqrh" deleted
$ kubectl -n kube-system get pod kube-dns-bb945d984-jrqrh
NAME READY STATUS RESTARTS AGE
kube-dns-bb945d984-jrqrh 0/3 Terminating 28 11d
Они не стартуют новые и ничего не работает

Anton
18.05.2018
14:30:26
describe?

Andrey
18.05.2018
14:31:42


Nikita
18.05.2018
14:32:08
describe?
Warning FailedKillPod 34m kubelet, localhost error killing pod: [failed to "KillContainer" for "kubedns" with KillContainerError: "rpc error: code = Unknown desc = Error response from daemon: cannot stop container: 9d2f1a078f7765841f4709c0d092b43da49a646e56216ef844ae8fc4259cab55: Cannot kill container 9d2f1a078f7765841f4709c0d092b43da49a646e56216ef844ae8fc4259cab55: grpc: the client connection is closing: failed precondition"
...
Причем эти логи я смотрю за 34 минуты назад
О деплоймент я удалить тоже не могу
А чего-то я ничего удалить не могу видимо

Anton
18.05.2018
14:38:45
надо кластер наверное подебажить сам, логи кубелета посмотреть, к примеру

Dmytro
18.05.2018
14:40:18
на вид похоже на проблемы с нодой где бежит этот днс под, я бы зашел на саму ноду почитал логи
кублета и системные

Nikita
18.05.2018
14:41:45

Andor
18.05.2018
14:42:11
dmesg?

Stanislav
18.05.2018
14:43:23
Народ, чото я не пойму, а где включаются класические пользователи? Kind: User ?

Nikita
18.05.2018
14:44:23
dmesg?
dmesg чистый, обычный, без ошибок

Stanislav
18.05.2018
14:54:23
Что вообще такое Kind: User? Может я не совсем понимаю его назначение?

Dmytro
18.05.2018
15:03:27
https://kubernetes.io/docs/admin/authorization/rbac/#user-facing-roles а тут читали?

Google

Дмитрий
18.05.2018
15:04:10
Как лучше сделать? для единовременного выполнения миграций в базе данных лучше в деплойменте сделать контейнер с политикой restartPolicy: Never или как-то через job сделать?

Stanislav
18.05.2018
15:06:40

Anton
18.05.2018
15:11:44

Dmytro
18.05.2018
15:12:22
по миграциям тут все сильно зависит от базы и самих миграций

Andor
18.05.2018
15:12:44
у нас джобами сделаны миграции

Dmytro
18.05.2018
15:13:00
если миграция бежит несколько часов или дней то инит контейнеры не пойдут, и деплоймент с невер тоже. надо делать джобы и следить за их статусами

Stanislav
18.05.2018
15:14:16

Дмитрий
18.05.2018
15:14:44

Андрэ
18.05.2018
15:22:33

Andrey
18.05.2018
15:22:55

Андрэ
18.05.2018
15:23:26
А что именно не получается? Я первый раз по их доке на coreos все делал, вроде все ок
Может с labels намудрил чего то?

Andrey
18.05.2018
15:24:55
Может.
В deployment и сервисе стоит
labels:
exporter: clickhouse
в ServiceMonitor
selector:
matchLabels:
exporter: clickhouse
namespaceSelector:
any: true
Создаю в namespace где и пром, monitoring.
После добавления operator в логах пишет "updating config skipped, no configuration change"

Андрэ
18.05.2018
15:32:11
А в ServiceMonitor прописываешь label, которые ждет kind: Prometheus?

Andrey
18.05.2018
15:38:39
Ставил через helm coreos/kube-prometheus, на сколько я понял, по умолчанию SerivceMonitorSelector пустой, что означает что он должен дискаверить все ServiceMonitor

Андрэ
18.05.2018
15:39:52
Кинул в личку свой пример. Про "дискаверить все ServiceMonitor" - не понмю, кажется я не пробовал. Я сразу label прописвывал

Andrey
18.05.2018
15:59:06
Всем спасибо, всё взлетело

Vasilyev
18.05.2018
17:33:49
Так а в чем проблема-то была? Интересно же)

Andrey
18.05.2018
17:39:48

Google

Vasilyev
18.05.2018
17:40:57
Окееей. Спасибо

Alex Milushev
18.05.2018
19:50:23
привет, настраиваю tls bootstrapping для кублетов и не работают ни logs ни exec, валятся с ошибкой:
x509: certificate signed by unknown authority
как это поправить?

Andrey
18.05.2018
20:04:56

Andrey
18.05.2018
20:06:02

Andrey
18.05.2018
20:07:24

Andor
18.05.2018
20:08:18
и что надо тест запустить

Alex Milushev
18.05.2018
20:08:33
а кто-то настраивал у себя tls bootstrapping?

Andrey
18.05.2018
20:09:30

Andrey
18.05.2018
20:09:50
и что надо тест запустить
Ну он может быть последним в списке. И соответсвенно из переменных окружения будет знать какой под чекать

Andor
18.05.2018
20:09:52

Andrey
18.05.2018
20:10:07
можно отдавать release через nginx

Andor
18.05.2018
20:10:28
это теория или сам так делал?

Andrey
18.05.2018
20:11:02
Пока не делал, но сделать чек внутри приложения с отдачей нужных данных не проблема

Andrey
18.05.2018
20:11:05

Andor
18.05.2018
20:11:54
а новое может вообще не запуститься например
ну короче смысл делать такой тест если всё равно прометей есть, который по сути частично этот тест дублирует

Andrey
18.05.2018
20:12:11