@kubernetes_ru

Страница 312 из 958
Khramov
02.11.2017
13:45:48
Народ, с помощью чего вы деплоили кластер куба в продакшене? Нужно развернуть на виртуалках. Я посмотреть kops/kubespray, они вроде в основном для cloud решений. Посоветуйте с помощью чего лучше

Maksim
02.11.2017
13:49:59
Поделитесь болью
Если оно падает, то всему становится плохо.....вплоть до падения нод.

Google
Khramov
02.11.2017
13:51:20
Я просто раньше через kubeadm делал, вроде нормально, но сейчас нужно поднять еще пару кластеров, и смотрю на альтернативы, как лучше.

Mikhail
02.11.2017
13:51:51
ну так оказалось намного проще понять, что, куда и зачем, чем пытаться понять, как переделать текущие скрипты\установщики под твои нужды

Anton
02.11.2017
13:51:54
kubespray точно лучше kubeadm

Mikhail
02.11.2017
13:52:25
а нужда стояла построить кластер с несколькими мастерами

Khramov
02.11.2017
13:53:05
Ну я просто через kubeadm поднимал ноды, а потом дополнительно несколько слейвов в мастера переделал

Сейчас 3 мастера и 24 слейва стоят на одном из кластеров

Anton
02.11.2017
13:53:32
а как же tls auth?

Khramov
02.11.2017
13:53:43
Все это имеется

Mikhail
02.11.2017
13:57:32
У меня кластер через паппет накатывается, пара моментов руками (все никак в паппет не запихну) , сам икомпоненты кубера работают через бинарники, через systemd. Единственное, пока приходится руками обновлять дебиан до 4.9+ ядра, т.к. пока 8-я версия стоит

Aleksandra
02.11.2017
14:00:55
Народ, с помощью чего вы деплоили кластер куба в продакшене? Нужно развернуть на виртуалках. Я посмотреть kops/kubespray, они вроде в основном для cloud решений. Посоветуйте с помощью чего лучше
kubespray отлично все ставит на виртуалки, облака там опциональны. Только лучше его как набор ansible playbooks применять. а не черех cli-утилиту которая там все только захламляет

Google
Anton
02.11.2017
14:02:59
все делает =)

недавно фиксы были

Aleksandra
02.11.2017
14:03:22
я с calico ставила, calico с RBAC не дружит вроде, поэтому не пробовала, но это было три месяца назад

Aleksey
02.11.2017
14:03:23
недавно фиксы были
ок, спасибо - будем посмотреть!

Khramov
02.11.2017
14:05:28
failover в kubespray есть?

Aleksandra
02.11.2017
14:10:35
как эт?
не могу сейчас найти. но где-то в доках было написано "не поддерживается" и я просто не стала разбираться дальше. Возможно речь шла о том что network policy в calico не были синтегрированы с rbac в kubernetes. и возможно это уже исправлено.

Anton
02.11.2017
14:17:49
failover в kubespray есть?
apiserver знает всех etcd. kubelet и остальные через nginx подключаются, который знает о всех api. не помню только как kubernetes.svc выглядит внутри, сколько там endpoints

Mikhail
02.11.2017
14:39:42
Не понял про модуль. Для чего?

Mikhail
02.11.2017
15:43:06
Не понял про модуль. Для чего?
Как вы настраиваете через паппет?

Mikhail
02.11.2017
15:51:39
Написал классы под мастер-воркер, в манифесте хоста подключаю его

Oleg
02.11.2017
16:48:46
пост на тему задания конфигурации nginx через ConfigMap https://medium.com/@olegsmetanin/kubernetes-receipt-reverse-proxy-to-your-github-page-using-configmap-1b81ec31cbd1

Igor
02.11.2017
21:15:35
Ребята, хочу поднять кластер на хетзнер(да,да, знаю что говно) и следовательно нет возможности засетапить отказоустойчивый лоад балансер. Собственно какие есть способы чтобы в случае смерти мастера или etcd, можно было быстро восстановить работу кластера?

Paul
02.11.2017
21:29:36
Igor
02.11.2017
21:33:07
@not_logan каким образом можно использовать балансер локально на каждом мастере?

Paul
02.11.2017
21:35:09
В каждый балансёр прописать ip всех etcd. В kube-apiserver прописать 127.0.0.1 и порт балансера

Как вариант - прописать в балансёр апи-сервера а в каждый апи прописать свой локальный етцд. Посмотрите кукбук от ЗлыхМарсиан, это хороший пример

Igor
02.11.2017
22:16:35
Какой балансер можно так использовать? И кто такие марсиане?

Paul
02.11.2017
22:17:17
https://github.com/evilmartians/chef-kubernetes марсиане используют haproxy. Он вполне эффективен

Google
Igor
02.11.2017
22:42:10
А разве haproxy не нужно ставить на отдельную машину и с нее уже балансить на мастера?

Let Eat
02.11.2017
22:59:43
А разве haproxy не нужно ставить на отдельную машину и с нее уже балансить на мастера?
ничего не мешает его запускать на каждой машине, откуда необходим доступ к api server, жрет он всего ничего

Anton
03.11.2017
06:10:17
В каждый балансёр прописать ip всех etcd. В kube-apiserver прописать 127.0.0.1 и порт балансера
kube-apiserver может знать сразу о всех etcd серверах, тоесть можно прописать списком ему и клиент сам будет управлять куда подключаться

Igor
03.11.2017
06:27:34
Правильно ли я понял что вы имеете ввиду поставить пару независимых haproxy?

Anton
03.11.2017
06:36:31
предлагают поставить балансер на каждую из нод для локальных клиентов

Let Eat
03.11.2017
07:48:17
предлагают поставить балансер на каждую из нод для локальных клиентов
я тут тоже своим железом занялся. хочу попробывать ipvs на каждой ноде для хождения к apiserver прикрутить

но вообще по хорошему, go-client должен бы уметь ходить на несколько apiserver сам

Anton
03.11.2017
07:50:31
так apiserver умеет же --etcd-servers stringSlice List of etcd servers to connect with (scheme://ip:port), comma separated.

Let Eat
03.11.2017
07:51:05
kubelet использует client-go для этого дела

если бы client-go научился знать о нескольких apiservers было б круто и костыли не нужны

Anton
03.11.2017
07:56:58
чет не думаю что там будет меняться что то, недавно вроде на --kubeconfig переехали для указания контекста для подключения. может он сможет когда нить контексты перебирать?

vladget
03.11.2017
08:11:21
привет! не отрабатывает cronjob: Unable to mount volumes for pod "name-microservice-cronjob-1509696000-ls346_stage(fda5f04b-c06c-11e7-9813-021930a0ab96)": timeout expired waiting for volumes to attach/mount for pod "stage"/"name-microservice-cronjob-1509696000-ls346". list of unattached/unmounted volumes=[default-token-rxx06] никто не сталкивался?

Alexey
03.11.2017
08:13:59
ну тут не в кроне дело, а в конфиге пода, диск указанный не может примонтироваться

Maksim
03.11.2017
08:17:21
default-token-rxx06

Нет ответа от api сервера

который должен поду выдать токен

скорее всего косяк в настройке апи сервера и/или сети

Admin


Maksim
03.11.2017
08:18:11
так же стоит смотреть на kube-proxy/kube-router

Google
Anton
03.11.2017
09:24:37
а кто нить сравнивал https://github.com/nginxinc/kubernetes-ingress и https://github.com/kubernetes/ingress-nginx pros\cons?

и то и другое реализация ingress controller с nginx внутри

vladget
03.11.2017
09:25:30
берите от nginxinc

там нет баги с upstream keepalive

Vlad
03.11.2017
09:26:27
А ещё лучше не использовать nginx для балансировки: https://thehftguy.com/2016/10/03/haproxy-vs-nginx-why-you-should-never-use-nginx-for-load-balancing/

Sergey
03.11.2017
09:27:44
кстати, какие еще норм ингрессы есть? :)

Anton
03.11.2017
09:29:58
там нет баги с upstream keepalive
это не бага ж =)) прост есть сложности с ws & keepalive

А ещё лучше не использовать nginx для балансировки: https://thehftguy.com/2016/10/03/haproxy-vs-nginx-why-you-should-never-use-nginx-for-load-balancing/
видели vts exporter для prometheus для метрик из nginx-ingress? я думал будет бомбическое сравнение по методам балансировки, прилипанию по куке, обработка кук и тд. а тут фигня

берите от nginxinc
я думаю смысл есть только с nginx+ его брать. это круто что k8s не игнорят эти ребята, очень хорошо что мы все в одной направлении идем. только вот на дефолтном nginx там нечего ловить в плане метрик, как правильно заметил @vadikgo (чет я слепой стал)

Alexey
03.11.2017
09:39:22
А ещё лучше не использовать nginx для балансировки: https://thehftguy.com/2016/10/03/haproxy-vs-nginx-why-you-should-never-use-nginx-for-load-balancing/
для ingressa не имеет значения, там в качестве апстрима только 1 сервис кубернетеса, который на самом деле просто iptables правило, которое рандомом распределяет пакеты м/у другими подами. Да и сама статья плохая, которую в 3 слова можно было сказать.

А вот чувак протестировал в сравнении производительности nginx и хапрокси https://www.youtube.com/watch?v=yQvcHy_tPjI тут преимущество у "отечественного" производителя)

Lev
03.11.2017
09:51:39
на видео показывают как от запросов падает приложение?

Alexey
03.11.2017
09:52:20
нет, приложение падают принудительно и сколько пакетов теряется при переключении

у которого именно ингресса так? в nginx-ingress адреса подов попадают в upstreams и балансировка по адресам подов происходит
хм, я использую ха, и всё таки похоже балансировка между подами) почему-то был уверен, что к сервису привязан, т.к. конфигурация ингресов указывает на сервиснэйм

Anton
03.11.2017
09:58:12
это несколько топорно было бы не выяснять кто из подов прячется за сервисом, просто кидая на сервисный адрес

Nomadic
03.11.2017
10:23:04
а ктото использует nginx-ingress в highload нагрузках для балансировки трафика между подами? у нас сейчас в среднем 20000rps, сервисы пока на железе с отдельным nginx+ на входе, хотим это в кубер засунуть

Google
Nomadic
03.11.2017
10:24:25
не, динамика больше

go-сервисы на десятке железных серверов

vladget
03.11.2017
10:26:34
норм.

Страница 312 из 958