@kubernetes_ru

Страница 288 из 958
Ivan
05.10.2017
10:31:18
Вещь впринципи не плохая, но пока еще не идеальная.

Mihail
05.10.2017
11:29:15
А расскажите мне пожалста как вы в свои приложения ходите снаружи? nodeport и какой нибудь nginx снаружи? или ingress?

я чет запутался чуть менее чем полностью

Paul
05.10.2017
11:30:07
для http - ingress на базе traefik. Для обычных потоков планирую gobetween, но пока не сделал

Google
Rinat
05.10.2017
11:31:28
ingress нужен это если у тебя много приложений должны принимать запросы (разные домены например, а ip одинаковые)

Mihail
05.10.2017
11:31:40
точно, про траефик то я и позабыл

Rinat
05.10.2017
11:31:53
но гы ingress пока не смог поднять)

Mihail
05.10.2017
11:32:03
ну домены у меня разные, но это можно и портами разрулить

и да, чет я тоже ингресс не могу запустить

Сергей
05.10.2017
11:32:27
gobetween и exec дискавери - давно уже пашет с кубером

но Ярик и компания не хотят впиливать нативную поддержку кубера

Rinat
05.10.2017
11:33:23
может кто подскажет что за ошибка https://gist.github.com/Gasoid/13eda7b820c564e601f4fe9480e29d87

Сергей
05.10.2017
11:33:34
Обещали плагинную систему, что бы такие вещи как поддержку кубера сделать отдельно - так и не сделали

Rinat
05.10.2017
11:34:17
может я не понимаю) 2 unavailable

get pods пусто

Maksim
05.10.2017
11:34:40
дык там ошибки нет

Google
Rinat
05.10.2017
11:34:53
понял) тогда как интерпретировать

Maksim
05.10.2017
11:34:53
там написано что он пытается создать replicaset

Rinat
05.10.2017
11:34:58
почему не запускается

Maksim
05.10.2017
11:35:30
смотри что творится в replicaset

есть ли они вообще

Rinat
05.10.2017
11:35:36
не создается

Maksim
05.10.2017
11:35:38
если нет смотри логи контроллера

Rinat
05.10.2017
11:36:14
ok спс

Maksim
05.10.2017
11:36:26
запущен ли он вообще?

контроллер и шедулер?

Rinat
05.10.2017
11:36:37
контроллер хм

может и нет, как проверить?

Maksim
05.10.2017
11:38:38
дык это же базисные сервисы

завист от ого как ты деплоил кубер

где-то они как поды поднимаются, где-то как сервисы ОС

Rinat
05.10.2017
11:39:22
понял) короче да походу просто по-другому надо делать

спс

деплоил я вообще через https://gravitational.com/docs/overview/

Vitaliy
05.10.2017
12:58:12
кто вкурсе: я определяю list и в нем разные объекты deployment, service, configmap etc по порядку... потом скармливаю это все в kubectl apply. как оно среагирует если что-то в списке не накатится? к примеру не накатывается конфигмап по какойто причине, пойдет ли оно на след.элемент списка? и как на такое среагирует helm?

Andrey
05.10.2017
14:23:58
если проблема в синтаксисе то kubectl ругнется на валидацию и дальше не пойдет, не знаю как щас но раньше элементы которые были до этого он загрузит

Google
Andrey
05.10.2017
14:24:29
если проблема в неправильных опциях (типа докер-контейнер не тот) но валидация прошла то он и задеплоит as is

Mikhail чердак
05.10.2017
14:25:26
Всем доброго вечера. Такой вопрос - при создании Service с type: LoadBalancer в AWS создается их собственный балансер с определенным доменным именем и настройками. Если передеплоить сей Service, то балансер создастся заново с другим доменным именем. Вопрос в чем — можно ли вручную создать статичный Load Balancer и натравить его на traefik в кубе?

Ivan
05.10.2017
14:32:49
Всем привет! Помогите пожалуйста понять))) я не могу достучаться до сервиса, (работающего на одной ноде) с другой ноды. как в теории это должно происходить? на физических нодах есть интерфейсы докера (172.17.0.1) и фланэла (10.4.х.х) а сетки 10.3.х.х (которая используется для сервисов) на физической ноде не светится и весь траффик идёт на шлюз по умолчанию (и естественно уходит вникуда)
Всем привет! Продложаю настраивать сетку в кубере. Выяснил, что сервисная сеть при нормальной работе не имеет собственного физического интерфейса а разруливается правилами iptables. Собственно, у меня в результате развёртывания по оф.мануалу ( https://coreos.com/tectonic/docs/latest/tutorials/kubernetes/deploy-master.html#tls-assets ) эти правила не создались. Я пока не смог найти, кто их должен создавать и как это сконфигурить... Никто не в курсе?

ЗЫ: накернился сайт с документацией кореоси. у меня закладка называлась "Step 2: Deploy Kubernetes Master". теперь вместо неё открывается хрень, которую я запостил выше)))

Ivan
05.10.2017
14:42:17
да, куб-прокси у меня поднят. работает на всех нодах

и ошибок в его логах нет

возможно (как всегда) надо где то добавить волшебный ключик

только бы понять какой и где)))))

Maksim
05.10.2017
14:44:53
Ну правила ната и дната в iptables прописывает именно он

M
05.10.2017
15:02:49
а кто helm'ом выкатывает, вы как проверяете статус деплойментов взлетело или нет?

Qinabu
05.10.2017
15:05:21
--wait —timeout

M
05.10.2017
15:17:40
--wait —timeout
я проверил, он не ждет )

v2.6.1

Qinabu
05.10.2017
15:20:35
ждёт ready ресурсов —timeout секунд, exit code 0 - ok, !0 - не дождался, но ресурсы могут подняться чуть позже. серьёзно к этому относиться не нужно. лучше делать хороший readinessProbe и rolling update с правильной стратегией будет достаточен.

M
05.10.2017
15:22:51
я ему указывал тэг, которого нет в регистри он деплоит и говорит что все ок, тут readiness не поможет

Qinabu
05.10.2017
15:24:11
RTFM

M
05.10.2017
15:26:06
RTFM
exit code 0, таймаут не превышен, он секунд через 5 это выдает, что не так?

я понимаю , что предыдущий он не убьет, но я хотел бы знать как прошел деплой без запуска дополнительных проверок после

Google
Qinabu
05.10.2017
15:27:40
helm histroy

helm upgrade работает как я написал, с проблемами exit code не сталкивался

https://github.com/kubernetes/helm/blob/acd113ec21e2ff49c1ea998917b1494a8e65e6b1/pkg/kube/wait.go

Ilya
05.10.2017
16:16:22
я ему указывал тэг, которого нет в регистри он деплоит и говорит что все ок, тут readiness не поможет
он же вообще контейнер не стартанёт и до рединес проб не дойдёт и будет крутиться в ImagePullBackoff

M
05.10.2017
16:17:28
он же вообще контейнер не стартанёт и до рединес проб не дойдёт и будет крутиться в ImagePullBackoff
ну так и происходит, но хелм при этом возвращает код 0 как ни в чем не бывало

Ilya
05.10.2017
16:18:30
там есть ещё ньюанс с maxSurge/minUnavailable https://github.com/kubernetes/helm/blob/master/pkg/kube/wait.go#L173

*minSurge/maxUnavailable

если minSurge=0 / maxUnavailable=100%, он будет вести себя как раз так

M
05.10.2017
16:23:38
если minSurge=0 / maxUnavailable=100%, он будет вести себя как раз так
strategy: rollingUpdate: maxSurge: 1 maxUnavailable: 1 type: RollingUpdate

Ilya
05.10.2017
16:23:58
попробуй с maxUnavailable: 0 катнуть

и replicas: 1, я правильно понимаю?

M
05.10.2017
16:24:48
попробуй с maxUnavailable: 0 катнуть
я сейчас даже не апгрейд тестирую, а install

Ilya
05.10.2017
16:26:15
а там без разницы, install или upgrade, он просто считает 0 готовых реплик >= 1 требуемая реплика - 1 потенциально недоступная

Qinabu
05.10.2017
16:26:20
maxUnavailable, minSurge лучше в % указывать, они округляться будут правильно и maxUnavailable не будет 1 с replicas 1

Ilya
05.10.2017
16:26:24
это сразу превращается в true

ну и если задуматься, это, в принципе, имеет смысл

M
05.10.2017
16:29:49
попробуй с maxUnavailable: 0 катнуть
да, кажеется это сработало, спасибо)

Mark
05.10.2017
20:29:38
Поцоны, кто использует kops. Если накатить minSize = 0 и maxSize = 20 для instancegroup, в которой запускаются on-spot instances, то как будет вести себя kubernetes (для нод, а не для мастера.)

kvaps
06.10.2017
06:48:04
Я тут кстати заставил кубер рулить айпишниками на физических интерфейсах, может кому-нибудь будет интересно: https://github.com/kvaps/docker-external-ip/

Google
Sergii
06.10.2017
09:40:04
Я тут кстати заставил кубер рулить айпишниками на физических интерфейсах, может кому-нибудь будет интересно: https://github.com/kvaps/docker-external-ip/
@kvaps А вы смотрели https://github.com/Mirantis/k8s-externalipcontroller ? Дело в том в вашей реализации совершенно нет очищения 2го уровня, а это время

Vitaliy
06.10.2017
10:01:24
кто-то из присутствующих использовал spinnaker?

Vitaliy
06.10.2017
10:01:52
впечатления пожелания проклятия?

Magistr
06.10.2017
10:02:29
впечатления пожелания проклятия?
накликать в морде пайплайн на 1 окружение норм, нет шаблонов

а значит невозможно автоматизировать настройку

я смотрю на хелм но еще непробовал

Vitaliy
06.10.2017
10:05:29
как с секретами работаете?

я так понимаю что в гите ничего не хранится после спинакера?

Magistr
06.10.2017
10:12:29
я так понимаю что в гите ничего не хранится после спинакера?
мм секреты и спиннакер несвязаны, чз куберовские секреты подкладывалось

Vitaliy
06.10.2017
12:48:26
только один просвещенный спинакеровед?

Rinat
06.10.2017
12:48:58
вопрос может быть глупый) если я поменяю label ноды на мастер, она станет мастером?

Роман
06.10.2017
12:51:38
Нет.

Страница 288 из 958