
Khramov
02.11.2017
13:45:48
Народ, с помощью чего вы деплоили кластер куба в продакшене?
Нужно развернуть на виртуалках.
Я посмотреть kops/kubespray, они вроде в основном для cloud решений.
Посоветуйте с помощью чего лучше

Maksim
02.11.2017
13:49:59
Поделитесь болью
Если оно падает, то всему становится плохо.....вплоть до падения нод.

Mikhail
02.11.2017
13:50:26

Maksim
02.11.2017
13:50:59

Google

Khramov
02.11.2017
13:51:20
Я просто раньше через kubeadm делал, вроде нормально, но сейчас нужно поднять еще пару кластеров, и смотрю на альтернативы, как лучше.

Mikhail
02.11.2017
13:51:51
ну так оказалось намного проще понять, что, куда и зачем, чем пытаться понять, как переделать текущие скрипты\установщики под твои нужды

Anton
02.11.2017
13:51:54
kubespray точно лучше kubeadm

Mikhail
02.11.2017
13:52:25
а нужда стояла построить кластер с несколькими мастерами

Khramov
02.11.2017
13:53:05
Ну я просто через kubeadm поднимал ноды, а потом дополнительно несколько слейвов в мастера переделал
Сейчас 3 мастера и 24 слейва стоят на одном из кластеров

Anton
02.11.2017
13:53:32
а как же tls auth?

Khramov
02.11.2017
13:53:43
Все это имеется

Mikhail
02.11.2017
13:57:32
У меня кластер через паппет накатывается, пара моментов руками (все никак в паппет не запихну) , сам икомпоненты кубера работают через бинарники, через systemd. Единственное, пока приходится руками обновлять дебиан до 4.9+ ядра, т.к. пока 8-я версия стоит

Aleksey
02.11.2017
13:57:34

Aleksandra
02.11.2017
14:00:55

Aleksey
02.11.2017
14:02:03
или править много в group_vars?

Google

Anton
02.11.2017
14:02:59
все делает =)
недавно фиксы были

Aleksandra
02.11.2017
14:03:22
я с calico ставила, calico с RBAC не дружит вроде, поэтому не пробовала, но это было три месяца назад

Aleksey
02.11.2017
14:03:23

Anton
02.11.2017
14:04:08

Khramov
02.11.2017
14:05:28
failover в kubespray есть?

Aleksandra
02.11.2017
14:10:35
как эт?
не могу сейчас найти. но где-то в доках было написано "не поддерживается" и я просто не стала разбираться дальше. Возможно речь шла о том что network policy в calico не были синтегрированы с rbac в kubernetes. и возможно это уже исправлено.

Anton
02.11.2017
14:17:49
failover в kubespray есть?
apiserver знает всех etcd.
kubelet и остальные через nginx подключаются, который знает о всех api.
не помню только как kubernetes.svc выглядит внутри, сколько там endpoints

Mikhail
02.11.2017
14:28:01

Mikhail
02.11.2017
14:39:42
Не понял про модуль. Для чего?

Mikhail
02.11.2017
15:43:06

Mikhail
02.11.2017
15:51:39
Написал классы под мастер-воркер, в манифесте хоста подключаю его

Oleg
02.11.2017
16:48:46
пост на тему задания конфигурации nginx через ConfigMap https://medium.com/@olegsmetanin/kubernetes-receipt-reverse-proxy-to-your-github-page-using-configmap-1b81ec31cbd1

Igor
02.11.2017
21:15:35
Ребята, хочу поднять кластер на хетзнер(да,да, знаю что говно) и следовательно нет возможности засетапить отказоустойчивый лоад балансер. Собственно какие есть способы чтобы в случае смерти мастера или etcd, можно было быстро восстановить работу кластера?

Paul
02.11.2017
21:29:36

Igor
02.11.2017
21:33:07
@not_logan каким образом можно использовать балансер локально на каждом мастере?

Paul
02.11.2017
21:35:09
В каждый балансёр прописать ip всех etcd. В kube-apiserver прописать 127.0.0.1 и порт балансера
Как вариант - прописать в балансёр апи-сервера а в каждый апи прописать свой локальный етцд. Посмотрите кукбук от ЗлыхМарсиан, это хороший пример

Igor
02.11.2017
22:16:35
Какой балансер можно так использовать? И кто такие марсиане?

Paul
02.11.2017
22:17:17
https://github.com/evilmartians/chef-kubernetes
марсиане используют haproxy. Он вполне эффективен

Google

Igor
02.11.2017
22:42:10
А разве haproxy не нужно ставить на отдельную машину и с нее уже балансить на мастера?

Let Eat
02.11.2017
22:59:43

Anton
03.11.2017
06:10:17

Igor
03.11.2017
06:27:34
Правильно ли я понял что вы имеете ввиду поставить пару независимых haproxy?

Anton
03.11.2017
06:36:31
предлагают поставить балансер на каждую из нод для локальных клиентов

Let Eat
03.11.2017
07:48:17
но вообще по хорошему, go-client должен бы уметь ходить на несколько apiserver сам

Anton
03.11.2017
07:50:31
так apiserver умеет же
--etcd-servers stringSlice List of etcd servers to connect with (scheme://ip:port), comma separated.

Let Eat
03.11.2017
07:51:05
kubelet использует client-go для этого дела
если бы client-go научился знать о нескольких apiservers было б круто и костыли не нужны

Anton
03.11.2017
07:56:58
чет не думаю что там будет меняться что то, недавно вроде на --kubeconfig переехали для указания контекста для подключения.
может он сможет когда нить контексты перебирать?

vladget
03.11.2017
08:11:21
привет!
не отрабатывает cronjob:
Unable to mount volumes for pod "name-microservice-cronjob-1509696000-ls346_stage(fda5f04b-c06c-11e7-9813-021930a0ab96)": timeout expired waiting for volumes to attach/mount for pod "stage"/"name-microservice-cronjob-1509696000-ls346". list of unattached/unmounted volumes=[default-token-rxx06]
никто не сталкивался?

Alexey
03.11.2017
08:13:59
ну тут не в кроне дело, а в конфиге пода, диск указанный не может примонтироваться

Maksim
03.11.2017
08:17:21
default-token-rxx06
Нет ответа от api сервера
который должен поду выдать токен
скорее всего косяк в настройке апи сервера и/или сети
так же стоит смотреть на kube-proxy/kube-router

vladget
03.11.2017
08:41:00

Google

vladget
03.11.2017
08:41:26

Anton
03.11.2017
09:24:37
а кто нить сравнивал
https://github.com/nginxinc/kubernetes-ingress
и
https://github.com/kubernetes/ingress-nginx
pros\cons?
и то и другое реализация ingress controller с nginx внутри

vladget
03.11.2017
09:25:30
берите от nginxinc
там нет баги с upstream keepalive

Vlad
03.11.2017
09:26:27
А ещё лучше не использовать nginx для балансировки: https://thehftguy.com/2016/10/03/haproxy-vs-nginx-why-you-should-never-use-nginx-for-load-balancing/

Sergey
03.11.2017
09:27:44
кстати, какие еще норм ингрессы есть? :)

Anton
03.11.2017
09:29:58
берите от nginxinc
я думаю смысл есть только с nginx+ его брать. это круто что k8s не игнорят эти ребята, очень хорошо что мы все в одной направлении идем.
только вот на дефолтном nginx там нечего ловить в плане метрик, как правильно заметил @vadikgo (чет я слепой стал)

Alexey
03.11.2017
09:39:22
А вот чувак протестировал в сравнении производительности nginx и хапрокси
https://www.youtube.com/watch?v=yQvcHy_tPjI
тут преимущество у "отечественного" производителя)

Anton
03.11.2017
09:49:09

Lev
03.11.2017
09:51:39
на видео показывают как от запросов падает приложение?

Alexey
03.11.2017
09:52:20
нет, приложение падают принудительно и сколько пакетов теряется при переключении

Anton
03.11.2017
09:58:12
это несколько топорно было бы не выяснять кто из подов прячется за сервисом, просто кидая на сервисный адрес

Nomadic
03.11.2017
10:23:04
а ктото использует nginx-ingress в highload нагрузках для балансировки трафика между подами?
у нас сейчас в среднем 20000rps, сервисы пока на железе с отдельным nginx+ на входе, хотим это в кубер засунуть

vladget
03.11.2017
10:23:27

Google

vladget
03.11.2017
10:24:10

Nomadic
03.11.2017
10:24:25
не, динамика больше
go-сервисы на десятке железных серверов

vladget
03.11.2017
10:26:34
норм.