
Alisa
31.07.2017
13:41:04
https://artillery.io/
вот еще нашел

Let Eat
31.07.2017
14:09:12

kvaps
31.07.2017
14:09:45
он самый, спасибо

Let Eat
31.07.2017
14:10:05
но учтите, что ABC-IP под не переедет сам, когда ABC разбегуться на другие ноды со временем

Google

kvaps
31.07.2017
14:11:50
а вот это плохо.
Но что если ABC и ABC-IP будет описан в одном yaml и будут апдейтиться одновременно?
или это не имеет значения?

Let Eat
31.07.2017
14:13:01
поможет, но не гарантирует
в теории ABC-IP может прилететь к поду ABC, который вот вот будет убит :)

kvaps
31.07.2017
14:13:59
а kubernetes сам двигает podы, если нода не умерла?

Let Eat
31.07.2017
14:14:15
может вам ABC-IP запустить, как еще один контейнер в ABC?
ну они пытаются сделать preemtion,т.е. будет уметь вскоре, пока вроде нет. но поды двигаются при передеплое же
если вы гарантируете , что сначала полностью деплоите ABC , потом когда оно все устоялось, запускаете ABC-IP, то ОК. но ведь тогда будет период, где ABC работает без ABC-ip
незнаю насколько вам это важно

kvaps
31.07.2017
14:15:35

Let Eat
31.07.2017
14:15:40
ну и что
а нет

kvaps
31.07.2017
14:16:33

Google

Let Eat
31.07.2017
14:16:44
ха, тогда вам все равно
пускайте его где угодно
хоть отдельно от ABC
этот ExternalIP он как NodePort , трафик отправится в поды, даже если они на других нодах

Maksim
31.07.2017
14:17:40
там не ExternalIP

kvaps
31.07.2017
14:17:42
да, потому я и думаю что podAffinity хорошо здесь подойдет
не, там как раз ExternalIP

Maksim
31.07.2017
14:18:39
ты же его через ip addr вешаешь на интерфейс) Это уже не extrnalIP
это вариант совсем из другой оперы

Let Eat
31.07.2017
14:19:03

kvaps
31.07.2017
14:19:15
ну у сервис создается с ExternalIP, а контейнер этот ExternalIP на интерфейс одной из нод ассигнит

Let Eat
31.07.2017
14:19:36

kvaps
31.07.2017
14:20:47
в целом да, но как бы не получилось так, что одна из нод является роутером для всех остальных, и все дико тупит из-за этого
или kubernetes умеет еще net load учитывать?
и опять же, даже если и умеет, он никак не сможет связать что внешний трафик из-за этого dummy контейнера возникает
лучше гарантировать что все точки входа будут размазаны вместе с основными pod (которые делают основную работу)
еще вариант просто размазать все ABC-IP максимально друг от друга, но опять же это не так то и просто, потому что количества нод может быть меньше чем таких контейнеров
а не, там preferredDuringSchedulingIgnoredDuringExecution есть, где можно веса выставлять, ух ты

Maksim
31.07.2017
14:41:05
мне прсто да же любопытно, сколько ты хочешь пустит трафика, что бы iptables загнулось

kvaps
31.07.2017
14:44:03
ну, у меня очень много нод, и я хочу размазать трафик равномерно между ними

Google

Let Eat
31.07.2017
14:44:55
сделайте несколько externalIP

kvaps
31.07.2017
14:45:21
externalIP у меня будет тоже много
их то и хочу размазать по нодам

Alisa
31.07.2017
14:52:02
немного нубский вопрос
http://blog.lwolf.org/post/going-open-source-in-monitoring-part-i-deploying-prometheus-and-grafana-to-kubernetes/
у меня прометей крутится как внутренний сервис и могу к нему подключаться напрямую через внутренний адрес, но я бы хотел, чтобы https://prometheus.example.com редиректил меня на внутренний сервис, если я подключен через впн и на 403, если стучусь просто из инета
такое возможно вообще?

Maksim
31.07.2017
15:04:56

kvaps
31.07.2017
15:05:45
у нод есть свой IP, который в случае если нода упадет потеряется тоже

Maksim
31.07.2017
15:06:11
дык у тебя же ряд IP будет работать

kvaps
31.07.2017
15:06:15
в случае если IP назначается контейнером, он передет на другую ноду

Maksim
31.07.2017
15:06:44
или все твои 2-3-5 ip должным быть 100% uptime
,,
??

kvaps
31.07.2017
15:07:03
ага, в том то и фишка

kvaps
31.07.2017
15:07:21
и внешний балансер получается не нужен

Maksim
31.07.2017
15:07:45
А где вообще балансировка идёт?
если у тебя ряд ip смотрит наружу, то где-то должна быть балансировка, или ты хочешь это решать чисто управленчиским ресурсом? (типо отдел А работает по ip А, отдел Б по ip Б)??
как то же мир доллжен узнать, что сервис работает по нескольких ip

kvaps
31.07.2017
15:10:46
Ну допустим есть 20 нод, у каждой есть два интерфейса, внешний (смотрит сразу наружу) и внутренний,
на внутреннем у каждой ноды свой ip-адрес: 192.168.100.{1..20}
Я хочу создавать сервис в этом кластере и вешать на внешний IP.
много сервисов
то есть что бы ExternalIP не был привязан к какой-то конкретной ноде, а был привязан к конкретному сервису

Maksim
31.07.2017
15:12:21
ну тебе впринцепе пофиг где и какой ip весит

Google

kvaps
31.07.2017
15:12:30
верно

Maksim
31.07.2017
15:12:31
главное, что бы все были routeable

kvaps
31.07.2017
15:12:58
все routable, т.к. находятся в одном L2-сегменте

Maksim
31.07.2017
15:14:14
ты боишься что нода с externalIP загнётся под напором трафика?

kvaps
31.07.2017
15:14:39
просто было желание все эти внешение IP равномерно размазывать по нодам, что бы не получилось так, что одна нода проксирует весь трафик из-за чего все начнет тупить

Maksim
31.07.2017
15:15:08
ты хочешь что бы на нодах запускался только один под с IP ?

Admin
ERROR: S client not available

kvaps
31.07.2017
15:15:17
на самом деле я уже нашел решение

Maksim
31.07.2017
15:16:28
Копать здесь Node Affinity/Anti-Affinity
-)

kvaps
31.07.2017
15:17:29
ага, это как раз и есть podAntiAffinity с preferredDuringSchedulingIgnoredDuringExecution
чуть попозже попробую и приведу готовый yaml, если интересно
ну в общем да, таким образом все внешние IP прекрассно размазываются по всему кластеру:
https://gist.github.com/kvaps/889fe2b9eeab9f205c818ab1d1af56a9

Max
31.07.2017
16:43:45
Приветствую, заранее извиняюсь за возможно нубский вопрос, но как сейчас правильно поднимать k8s кластер на убунте?
Взял потестить новый ovn/ovs плагтн, вроде все собралось, но вот возник вопрос в поднятии кластера, чтобы указать верный cni
В документации ничего актуального найти не удалось

Alisa
31.07.2017
16:46:02

Max
31.07.2017
16:46:44
environment следующий, 3 x ubuntu 16.04.2 каждая virtualbox vm, master/node/node, cni ovs/ovn 2.7.2

Google

kvaps
31.07.2017
16:47:08
через ansible не завелось

Max
31.07.2017
16:47:54
Не нашёл, как kubeadm сказать использовать cni ovs
На сайте нет этого
Цель завести плагин ovn-kubernetes

kvaps
31.07.2017
16:49:09
ток там нюанс один, пока конфиг в /etc/cni/net.d не положишь, ноды будут NotReady

Max
31.07.2017
16:51:27
#whois извините не представился, Максим, где работаю есть в linkedin, профиль сети и виртуализация, посоветовали в ru_devops, текущий проект k8s+ovs
Где вообще подробнее познакомится с этим, документация на сайте становится неактуальной на стадии написания по ходу

kvaps
31.07.2017
16:56:41
Для начала установи на ноды kubeadm
потом сделай кластер с помощью kubeadm init и kubeadm join

Max
31.07.2017
16:57:34
Такая же фигня, я тыкал его раньше, но что-то там так сильно все изменилось, специфика работы основная не очень связана с этим просто

kvaps
31.07.2017
16:58:03
потом когда ты сделаешь кластер ноды у тебя будут NotReady

Max
31.07.2017
16:58:11
А как быть с тем что kubeadm бета и не рекомендовано для прода?

kvaps
31.07.2017
16:58:51
потом тебе нужно будет установить твой network плагин

Max
31.07.2017
16:58:59
С фланелью он у меня завелся, через kubeadm