Khramov
02.11.2017
13:45:48
Народ, с помощью чего вы деплоили кластер куба в продакшене?
Нужно развернуть на виртуалках.
Я посмотреть kops/kubespray, они вроде в основном для cloud решений.
Посоветуйте с помощью чего лучше
Maksim
02.11.2017
13:49:59
Поделитесь болью
Если оно падает, то всему становится плохо.....вплоть до падения нод.
Mikhail
02.11.2017
13:50:26
Maksim
02.11.2017
13:50:59
Google
Khramov
02.11.2017
13:51:20
Я просто раньше через kubeadm делал, вроде нормально, но сейчас нужно поднять еще пару кластеров, и смотрю на альтернативы, как лучше.
Mikhail
02.11.2017
13:51:51
ну так оказалось намного проще понять, что, куда и зачем, чем пытаться понять, как переделать текущие скрипты\установщики под твои нужды
Anton
02.11.2017
13:51:54
kubespray точно лучше kubeadm
Mikhail
02.11.2017
13:52:25
а нужда стояла построить кластер с несколькими мастерами
Khramov
02.11.2017
13:53:05
Ну я просто через kubeadm поднимал ноды, а потом дополнительно несколько слейвов в мастера переделал
Сейчас 3 мастера и 24 слейва стоят на одном из кластеров
Anton
02.11.2017
13:53:32
а как же tls auth?
Khramov
02.11.2017
13:53:43
Все это имеется
Mikhail
02.11.2017
13:57:32
У меня кластер через паппет накатывается, пара моментов руками (все никак в паппет не запихну) , сам икомпоненты кубера работают через бинарники, через systemd. Единственное, пока приходится руками обновлять дебиан до 4.9+ ядра, т.к. пока 8-я версия стоит
Aleksey
02.11.2017
13:57:34
Aleksandra
02.11.2017
14:00:55
Aleksey
02.11.2017
14:02:03
или править много в group_vars?
Google
Anton
02.11.2017
14:02:59
все делает =)
недавно фиксы были
Aleksandra
02.11.2017
14:03:22
я с calico ставила, calico с RBAC не дружит вроде, поэтому не пробовала, но это было три месяца назад
Aleksey
02.11.2017
14:03:23
Anton
02.11.2017
14:04:08
Khramov
02.11.2017
14:05:28
failover в kubespray есть?
Aleksandra
02.11.2017
14:10:35
как эт?
не могу сейчас найти. но где-то в доках было написано "не поддерживается" и я просто не стала разбираться дальше. Возможно речь шла о том что network policy в calico не были синтегрированы с rbac в kubernetes. и возможно это уже исправлено.
Anton
02.11.2017
14:17:49
failover в kubespray есть?
apiserver знает всех etcd.
kubelet и остальные через nginx подключаются, который знает о всех api.
не помню только как kubernetes.svc выглядит внутри, сколько там endpoints
Mikhail
02.11.2017
14:28:01
Mikhail
02.11.2017
14:39:42
Не понял про модуль. Для чего?
Mikhail
02.11.2017
15:43:06
Mikhail
02.11.2017
15:51:39
Написал классы под мастер-воркер, в манифесте хоста подключаю его
Oleg
02.11.2017
16:48:46
пост на тему задания конфигурации nginx через ConfigMap https://medium.com/@olegsmetanin/kubernetes-receipt-reverse-proxy-to-your-github-page-using-configmap-1b81ec31cbd1
Igor
02.11.2017
21:15:35
Ребята, хочу поднять кластер на хетзнер(да,да, знаю что говно) и следовательно нет возможности засетапить отказоустойчивый лоад балансер. Собственно какие есть способы чтобы в случае смерти мастера или etcd, можно было быстро восстановить работу кластера?
Paul
02.11.2017
21:29:36
Igor
02.11.2017
21:33:07
@not_logan каким образом можно использовать балансер локально на каждом мастере?
Paul
02.11.2017
21:35:09
В каждый балансёр прописать ip всех etcd. В kube-apiserver прописать 127.0.0.1 и порт балансера
Как вариант - прописать в балансёр апи-сервера а в каждый апи прописать свой локальный етцд. Посмотрите кукбук от ЗлыхМарсиан, это хороший пример
Igor
02.11.2017
22:16:35
Какой балансер можно так использовать? И кто такие марсиане?
Paul
02.11.2017
22:17:17
https://github.com/evilmartians/chef-kubernetes
марсиане используют haproxy. Он вполне эффективен
Google
Igor
02.11.2017
22:42:10
А разве haproxy не нужно ставить на отдельную машину и с нее уже балансить на мастера?
Let Eat
02.11.2017
22:59:43
Anton
03.11.2017
06:10:17
Igor
03.11.2017
06:27:34
Правильно ли я понял что вы имеете ввиду поставить пару независимых haproxy?
Anton
03.11.2017
06:36:31
предлагают поставить балансер на каждую из нод для локальных клиентов
Let Eat
03.11.2017
07:48:17
но вообще по хорошему, go-client должен бы уметь ходить на несколько apiserver сам
Anton
03.11.2017
07:50:31
так apiserver умеет же
--etcd-servers stringSlice List of etcd servers to connect with (scheme://ip:port), comma separated.
Let Eat
03.11.2017
07:51:05
kubelet использует client-go для этого дела
если бы client-go научился знать о нескольких apiservers было б круто и костыли не нужны
Anton
03.11.2017
07:56:58
чет не думаю что там будет меняться что то, недавно вроде на --kubeconfig переехали для указания контекста для подключения.
может он сможет когда нить контексты перебирать?
vladget
03.11.2017
08:11:21
привет!
не отрабатывает cronjob:
Unable to mount volumes for pod "name-microservice-cronjob-1509696000-ls346_stage(fda5f04b-c06c-11e7-9813-021930a0ab96)": timeout expired waiting for volumes to attach/mount for pod "stage"/"name-microservice-cronjob-1509696000-ls346". list of unattached/unmounted volumes=[default-token-rxx06]
никто не сталкивался?
Alexey
03.11.2017
08:13:59
ну тут не в кроне дело, а в конфиге пода, диск указанный не может примонтироваться
Maksim
03.11.2017
08:17:21
default-token-rxx06
Нет ответа от api сервера
который должен поду выдать токен
скорее всего косяк в настройке апи сервера и/или сети
Admin
Maksim
03.11.2017
08:18:11
так же стоит смотреть на kube-proxy/kube-router
Google
vladget
03.11.2017
08:41:00
Anton
03.11.2017
09:24:37
а кто нить сравнивал
https://github.com/nginxinc/kubernetes-ingress
и
https://github.com/kubernetes/ingress-nginx
pros\cons?
и то и другое реализация ingress controller с nginx внутри
vladget
03.11.2017
09:25:30
берите от nginxinc
там нет баги с upstream keepalive
Vlad
03.11.2017
09:26:27
А ещё лучше не использовать nginx для балансировки: https://thehftguy.com/2016/10/03/haproxy-vs-nginx-why-you-should-never-use-nginx-for-load-balancing/
Sergey
03.11.2017
09:27:44
кстати, какие еще норм ингрессы есть? :)
Anton
03.11.2017
09:29:58
берите от nginxinc
я думаю смысл есть только с nginx+ его брать. это круто что k8s не игнорят эти ребята, очень хорошо что мы все в одной направлении идем.
только вот на дефолтном nginx там нечего ловить в плане метрик, как правильно заметил @vadikgo (чет я слепой стал)
Alexey
03.11.2017
09:39:22
А вот чувак протестировал в сравнении производительности nginx и хапрокси
https://www.youtube.com/watch?v=yQvcHy_tPjI
тут преимущество у "отечественного" производителя)
Anton
03.11.2017
09:49:09
Lev
03.11.2017
09:51:39
на видео показывают как от запросов падает приложение?
Alexey
03.11.2017
09:52:20
нет, приложение падают принудительно и сколько пакетов теряется при переключении
Anton
03.11.2017
09:58:12
это несколько топорно было бы не выяснять кто из подов прячется за сервисом, просто кидая на сервисный адрес
Nomadic
03.11.2017
10:23:04
а ктото использует nginx-ingress в highload нагрузках для балансировки трафика между подами?
у нас сейчас в среднем 20000rps, сервисы пока на железе с отдельным nginx+ на входе, хотим это в кубер засунуть
Google
vladget
03.11.2017
10:23:27
Nomadic
03.11.2017
10:24:25
не, динамика больше
go-сервисы на десятке железных серверов
vladget
03.11.2017
10:26:34
норм.