
Ivan
05.10.2017
10:31:18
Вещь впринципи не плохая, но пока еще не идеальная.

Mihail
05.10.2017
11:29:15
А расскажите мне пожалста как вы в свои приложения ходите снаружи? nodeport и какой нибудь nginx снаружи? или ingress?
я чет запутался чуть менее чем полностью

Paul
05.10.2017
11:30:07
для http - ingress на базе traefik. Для обычных потоков планирую gobetween, но пока не сделал

Google

Rinat
05.10.2017
11:31:28
ingress нужен это если у тебя много приложений должны принимать запросы (разные домены например, а ip одинаковые)

Mihail
05.10.2017
11:31:40
точно, про траефик то я и позабыл

Rinat
05.10.2017
11:31:53
но гы ingress пока не смог поднять)

Mihail
05.10.2017
11:32:03
ну домены у меня разные, но это можно и портами разрулить
и да, чет я тоже ингресс не могу запустить

Сергей
05.10.2017
11:32:27
gobetween и exec дискавери - давно уже пашет с кубером
но Ярик и компания не хотят впиливать нативную поддержку кубера

Rinat
05.10.2017
11:33:23
может кто подскажет что за ошибка
https://gist.github.com/Gasoid/13eda7b820c564e601f4fe9480e29d87

Сергей
05.10.2017
11:33:34
Обещали плагинную систему, что бы такие вещи как поддержку кубера сделать отдельно - так и не сделали

Maksim
05.10.2017
11:34:01

Rinat
05.10.2017
11:34:17
может я не понимаю)
2 unavailable
get pods пусто

Maksim
05.10.2017
11:34:40
дык там ошибки нет

Google

Rinat
05.10.2017
11:34:53
понял) тогда как интерпретировать

Maksim
05.10.2017
11:34:53
там написано что он пытается создать replicaset

Rinat
05.10.2017
11:34:58
почему не запускается

Maksim
05.10.2017
11:35:30
смотри что творится в replicaset
есть ли они вообще

Rinat
05.10.2017
11:35:36
не создается

Maksim
05.10.2017
11:35:38
если нет смотри логи контроллера

Rinat
05.10.2017
11:36:14
ok спс

Maksim
05.10.2017
11:36:26
запущен ли он вообще?
контроллер и шедулер?

Rinat
05.10.2017
11:36:37
контроллер хм
может и нет, как проверить?

Maksim
05.10.2017
11:38:38
дык это же базисные сервисы
завист от ого как ты деплоил кубер
где-то они как поды поднимаются, где-то как сервисы ОС

Rinat
05.10.2017
11:39:22
понял) короче да походу просто по-другому надо делать
спс
деплоил я вообще через https://gravitational.com/docs/overview/

Vitaliy
05.10.2017
12:58:12
кто вкурсе:
я определяю list и в нем разные объекты deployment, service, configmap etc по порядку...
потом скармливаю это все в kubectl apply.
как оно среагирует если что-то в списке не накатится? к примеру не накатывается конфигмап по какойто причине, пойдет ли оно на след.элемент списка?
и как на такое среагирует helm?

Andrey
05.10.2017
14:23:58
если проблема в синтаксисе то kubectl ругнется на валидацию и дальше не пойдет, не знаю как щас но раньше элементы которые были до этого он загрузит

Google

Andrey
05.10.2017
14:24:29
если проблема в неправильных опциях (типа докер-контейнер не тот) но валидация прошла то он и задеплоит as is

Mikhail чердак
05.10.2017
14:25:26
Всем доброго вечера.
Такой вопрос - при создании Service с type: LoadBalancer в AWS создается их собственный балансер с определенным доменным именем и настройками. Если передеплоить сей Service, то балансер создастся заново с другим доменным именем.
Вопрос в чем — можно ли вручную создать статичный Load Balancer и натравить его на traefik в кубе?

Ivan
05.10.2017
14:32:49
ЗЫ: накернился сайт с документацией кореоси. у меня закладка называлась "Step 2: Deploy Kubernetes Master". теперь вместо неё открывается хрень, которую я запостил выше)))


Maksim
05.10.2017
14:41:36
Kube-proxy

Ivan
05.10.2017
14:42:17
да, куб-прокси у меня поднят. работает на всех нодах
и ошибок в его логах нет
возможно (как всегда) надо где то добавить волшебный ключик
только бы понять какой и где)))))

Maksim
05.10.2017
14:44:53
Ну правила ната и дната в iptables прописывает именно он

M
05.10.2017
15:02:49
а кто helm'ом выкатывает, вы как проверяете статус деплойментов взлетело или нет?

Qinabu
05.10.2017
15:05:21
--wait —timeout

M
05.10.2017
15:17:40
v2.6.1

Qinabu
05.10.2017
15:20:35
ждёт ready ресурсов —timeout секунд, exit code 0 - ok, !0 - не дождался, но ресурсы могут подняться чуть позже. серьёзно к этому относиться не нужно. лучше делать хороший readinessProbe и rolling update с правильной стратегией будет достаточен.

M
05.10.2017
15:22:51
я ему указывал тэг, которого нет в регистри он деплоит и говорит что все ок, тут readiness не поможет

Qinabu
05.10.2017
15:24:11
RTFM

M
05.10.2017
15:26:06
RTFM
exit code 0, таймаут не превышен, он секунд через 5 это выдает, что не так?
я понимаю , что предыдущий он не убьет, но я хотел бы знать как прошел деплой без запуска дополнительных проверок после

Google

Qinabu
05.10.2017
15:27:40
helm histroy
helm upgrade работает как я написал, с проблемами exit code не сталкивался
https://github.com/kubernetes/helm/blob/acd113ec21e2ff49c1ea998917b1494a8e65e6b1/pkg/kube/wait.go

Ilya
05.10.2017
16:16:22

M
05.10.2017
16:17:28

Ilya
05.10.2017
16:18:30
там есть ещё ньюанс с maxSurge/minUnavailable https://github.com/kubernetes/helm/blob/master/pkg/kube/wait.go#L173
*minSurge/maxUnavailable
если minSurge=0 / maxUnavailable=100%, он будет вести себя как раз так

M
05.10.2017
16:23:38

Ilya
05.10.2017
16:23:58
попробуй с maxUnavailable: 0 катнуть
и replicas: 1, я правильно понимаю?

M
05.10.2017
16:24:48

Ilya
05.10.2017
16:26:15
а там без разницы, install или upgrade, он просто считает 0 готовых реплик >= 1 требуемая реплика - 1 потенциально недоступная

Qinabu
05.10.2017
16:26:20
maxUnavailable, minSurge лучше в % указывать, они округляться будут правильно и maxUnavailable не будет 1 с replicas 1

Ilya
05.10.2017
16:26:24
это сразу превращается в true
ну и если задуматься, это, в принципе, имеет смысл

M
05.10.2017
16:29:49

Mark
05.10.2017
20:29:38
Поцоны, кто использует kops.
Если накатить minSize = 0 и maxSize = 20 для instancegroup, в которой запускаются on-spot instances, то как будет вести себя kubernetes (для нод, а не для мастера.)

kvaps
06.10.2017
06:48:04
Я тут кстати заставил кубер рулить айпишниками на физических интерфейсах, может кому-нибудь будет интересно:
https://github.com/kvaps/docker-external-ip/

Google

Anton
06.10.2017
07:18:30

Sergii
06.10.2017
09:40:04

Vitaliy
06.10.2017
10:01:24
кто-то из присутствующих использовал spinnaker?

Magistr
06.10.2017
10:01:38

Vitaliy
06.10.2017
10:01:52
впечатления пожелания проклятия?

Magistr
06.10.2017
10:02:29
а значит невозможно автоматизировать настройку
я смотрю на хелм но еще непробовал

Vitaliy
06.10.2017
10:05:29
как с секретами работаете?
я так понимаю что в гите ничего не хранится после спинакера?

Magistr
06.10.2017
10:12:29

vladget
06.10.2017
10:18:10

Vitaliy
06.10.2017
12:48:26
только один просвещенный спинакеровед?

Rinat
06.10.2017
12:48:58
вопрос может быть глупый)
если я поменяю label ноды на мастер, она станет мастером?

Роман
06.10.2017
12:51:38
Нет.