

Ivan
06.09.2017
15:13:15
Всем привет!
Продолжаю биться с апи-сервером))
добился того, что он поднимается, начинает слушать порт, но недолго.
затем он падает. в логах пишет - типа под упал, мы его перезапускаем.
но больше ничего осмысленного в логах нет (всё тоже, что и вчера).
соотношение примерно такое - поднимается секунда на 30, потом минут 8 лежит.
Единственное осмысленное - при этом в консоль сервака валит такую строчку:
SELinux: mount invalid. Same superblock, different security settings for (dev mqueue, type mqueue)
продолжение истории))
kubelet.service поднимает аписервер в докер-контейнере, который и падает.
в интервале между рестартами (перед удалением старого контейнера и созданием нового) можно со старого вытащить логи.
собственно, вот они:
https://gist.github.com/anonymous/be93c745003f8bf5b4726094196bc7cb
сначала тут были ошибки TLS, я перегенерил серты, но кроме ошибок TLS, остальные остались на месте.
в общем, что я вижу по логам - аписервер-таки дефективный. он ломится сам на свой 443 порт по внешнему айпишнику и сам себе отвечает, что transport is closing
сам на себя обижается и падает ))))
KUBELET_IMAGE_TAG=v1.6.1_coreos.0
завтра попробую другие версии... подозреваю, что косяк в самом образе

Google

Vitaliy
06.09.2017
15:24:48
Уважаемые, кто как/чем реализовал бакап etcd от kubernetes?

Сергей
06.09.2017
15:30:16
etcdctl backup
и скрипт
https://github.com/kelseyhightower/kubernetes-the-hard-way
кто-то последний хардвей читал?
бля они там опять все поменяли

bebebe
07.09.2017
11:37:39
не не читал
а что там в двух словах?

Сергей
07.09.2017
11:42:06
в очередной раз установку переделали
поменялась работа с сертификатами
с одной стороны в правильную сторону
проще сесть и прочитать чем тут рассказывать

bebebe
07.09.2017
11:43:27
ок

Google

vladget
07.09.2017
11:45:24
если у меня стоит —authorization-mode=RBAC, это может быть причиной недоступности public internet из pods?

Сергей
07.09.2017
11:45:34
вроде нет

vladget
07.09.2017
11:49:14
а какие вероятные причины?
нет интернета в контейне

Maksim
07.09.2017
11:49:50
ошибка в l2/l3 маршрутизации
Диагностируй сеть, ping tarceroute тебе в мощь и tcpdump на узлах

Сергей
07.09.2017
12:25:09
https://github.com/kayrus/kubelet-exploit
интересно, все эти деплоилки учитывают данный момент

Let Eat
07.09.2017
12:30:49

vladget
07.09.2017
12:30:57
flannel

Konstantin
07.09.2017
12:40:57

Сергей
07.09.2017
12:43:25
я к тому, что учитывают ли все эти деплоилки данные нюансы
отрубают ли анонимный доступ и тп

Ivan
07.09.2017
15:15:09
завтра попробую другие версии... подозреваю, что косяк в самом образе
сегодня проверил несколько версий: 1,6,0 1,6,4 1,6,9 1,7,1 1,7,5 (по дефолту в мануале было 1,6,1) - результат у всех идентичный - контейнер с аписервером падает.
люди добрые, дайте пожалуйста свой конфиг, у кого оно работает.
желательно клауд-инит для короси.
и желательно в личку )))
заранее спасибо!

Let Eat
07.09.2017
18:57:01

Mark
07.09.2017
20:56:39
@beatlejyse попробуй kops, если в aws.

kiltum
08.09.2017
06:05:42
По теме: а операторы в кубернетесе доделали уже?
Ну те, которые позволяют перед введением в прод, но после деплоя что-то поделать, типа включить в кластер и так далее

Denis
08.09.2017
06:51:21
Init containers?

Google

kiltum
08.09.2017
06:56:28
Init containers?
не, я про это https://coreos.com/blog/introducing-operators.html
Везде пишут, что вот-вот и ага. Но чего-то как неуверенно.

Let Eat
08.09.2017
08:03:58
оператор это просто название для концепции. никакой спациальной поддержки операторов от кубернетеса не треубется

Denis
08.09.2017
08:08:56
ну да, это просто обыкновенный deployment, который автоматизирует другие объекты куба

vladget
08.09.2017
12:19:58
А верно что я ингресс не могу повесить на 80 порт на bare metal?
Я же не могу использовать LoadBalancer не в клауде?

Alisa
08.09.2017
12:25:12
верно
https://fly.io
я сейчас вот это пробую на bare-metal
https://github.com/superfly/wormhole
у них там такая штука юзается, чтобы упростить жизнь людям по связки их балансера с подами

Mikhail
08.09.2017
12:26:47
Nginx plus запущенный в поде с nodeport не подойдёт?

Alisa
08.09.2017
12:27:23
если это мне вопрос, то незн(

Mikhail
08.09.2017
12:28:01
https://www.nginx.com/blog/nginx-plus-ingress-controller-kubernetes-load-balancing/

Mikhail
08.09.2017
12:28:17
Я не пробовал ещё, хочу попробовать как-нибудь
Увидел pin. У меня несколько кубер кластеров и движемся к максимальной кубернитизации. Я занимаюсь их эксплуатацией. Я из Москвы. Узнал из митапа. #whois

Anton
08.09.2017
12:34:29
теоретический вопрос, если на стороне nginx есть разного вида логика на lua, какой мне профит от ingress?
вместо этого планирую deployment + service с nodePort использовать для nginx и прочих зависимостей.
понятно что я могу свой nginx посадить внутри и настроить ingress. но есть ли в этом смысл?

Admin
ERROR: S client not available

Dmytro
08.09.2017
12:49:37
Подскажите, а на мастер ноды поды неподнимаются? только на воркер нодах?
*не поднимаются

vladget
08.09.2017
12:50:40
только на воркерах

Google

Maksim
08.09.2017
12:50:44
поды поднимаются там, где есть kubelet

Mikhail
08.09.2017
12:50:54
Настроишь - будут

vladget
08.09.2017
12:50:59
на мастере только kube-system namespace

Maksim
08.09.2017
12:51:09
поды поднимаются там где есть kubelet...и точка
дальше идёт работа контроллера...сопоставление желаний деплоймента с возможностью ноды + всякие селекторы по лейблам и афинити

vladget
08.09.2017
12:52:45
по умолчанию на мастере поднимаются только служебные

Mikhail
08.09.2017
12:54:48
Да как они поднимаются если нет там kubelet?

vladget
08.09.2017
12:55:30
как же нет? есть
# ps ax| grep -c kubelet
3
у меня есть точно :)

Maksim
08.09.2017
12:55:58

Mikhail
08.09.2017
12:56:10
у меня на мастере нет )

Dmytro
08.09.2017
12:56:23
по умолчанию на мастере поднимаются только служебные
а как разрешить все? а то у меня на данный момент 3 сервера в конфигурации 2 сонтролера и один воркер, с преспективой добавление воркеров до n штук. Но держать 2 сервака с пасивными аписерверами с 0 почти нагрузкой както не ахти

Maksim
08.09.2017
12:56:31
у меня то же) у меня три мастера) и 0 подов на них( ТОлько
nodeSelector
https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#step-two-add-a-nodeselector-field-to-your-pod-configuration

vladget
08.09.2017
12:58:08

Dmytro
08.09.2017
12:58:14
nodeSelector
это указывать каждому поду... хотелось бы выделить ресерсы по остаточному принципу на мастер нодах для любых подов,

Maksim
08.09.2017
12:58:38
Не просто почитай что это такое, и как оно работает, после этого сделай выводы

Google

vladget
08.09.2017
13:00:02
а ну если сер любит извращения...

Maksim
08.09.2017
13:00:38
Когда я начинал этого ничего не было)

Mikhail
08.09.2017
13:00:49
я качу паппетом