@kubernetes_ru

Страница 225 из 958
Alisa
31.07.2017
13:41:04
https://artillery.io/ вот еще нашел

kvaps
31.07.2017
14:09:45
он самый, спасибо

Let Eat
31.07.2017
14:10:05
но учтите, что ABC-IP под не переедет сам, когда ABC разбегуться на другие ноды со временем

Google
kvaps
31.07.2017
14:11:50
а вот это плохо. Но что если ABC и ABC-IP будет описан в одном yaml и будут апдейтиться одновременно?

или это не имеет значения?

Let Eat
31.07.2017
14:13:01
поможет, но не гарантирует

в теории ABC-IP может прилететь к поду ABC, который вот вот будет убит :)

kvaps
31.07.2017
14:13:59
а kubernetes сам двигает podы, если нода не умерла?

Let Eat
31.07.2017
14:14:15
может вам ABC-IP запустить, как еще один контейнер в ABC?

ну они пытаются сделать preemtion,т.е. будет уметь вскоре, пока вроде нет. но поды двигаются при передеплое же

если вы гарантируете , что сначала полностью деплоите ABC , потом когда оно все устоялось, запускаете ABC-IP, то ОК. но ведь тогда будет период, где ABC работает без ABC-ip

незнаю насколько вам это важно

kvaps
31.07.2017
14:15:35
может вам ABC-IP запустить, как еще один контейнер в ABC?
это был бы идеальный вариант, но он должен быть запушен с hostNetwork: true

Let Eat
31.07.2017
14:15:40
ну и что

а нет

Google
Let Eat
31.07.2017
14:16:44
ха, тогда вам все равно

пускайте его где угодно

хоть отдельно от ABC

этот ExternalIP он как NodePort , трафик отправится в поды, даже если они на других нодах

Maksim
31.07.2017
14:17:40
там не ExternalIP

kvaps
31.07.2017
14:17:42
да, потому я и думаю что podAffinity хорошо здесь подойдет

не, там как раз ExternalIP

Maksim
31.07.2017
14:18:39
ты же его через ip addr вешаешь на интерфейс) Это уже не extrnalIP

это вариант совсем из другой оперы

Let Eat
31.07.2017
14:19:03
ты же его через ip addr вешаешь на интерфейс) Это уже не extrnalIP
externlIP это просто правило в iptables, все нормально

kvaps
31.07.2017
14:19:15
ну у сервис создается с ExternalIP, а контейнер этот ExternalIP на интерфейс одной из нод ассигнит

kvaps
31.07.2017
14:20:47
в целом да, но как бы не получилось так, что одна из нод является роутером для всех остальных, и все дико тупит из-за этого

или kubernetes умеет еще net load учитывать?

и опять же, даже если и умеет, он никак не сможет связать что внешний трафик из-за этого dummy контейнера возникает

лучше гарантировать что все точки входа будут размазаны вместе с основными pod (которые делают основную работу)

еще вариант просто размазать все ABC-IP максимально друг от друга, но опять же это не так то и просто, потому что количества нод может быть меньше чем таких контейнеров

а не, там preferredDuringSchedulingIgnoredDuringExecution есть, где можно веса выставлять, ух ты

Maksim
31.07.2017
14:41:05
мне прсто да же любопытно, сколько ты хочешь пустит трафика, что бы iptables загнулось

kvaps
31.07.2017
14:44:03
ну, у меня очень много нод, и я хочу размазать трафик равномерно между ними

Google
Let Eat
31.07.2017
14:44:55
сделайте несколько externalIP

kvaps
31.07.2017
14:45:21
externalIP у меня будет тоже много

их то и хочу размазать по нодам

Alisa
31.07.2017
14:52:02
немного нубский вопрос http://blog.lwolf.org/post/going-open-source-in-monitoring-part-i-deploying-prometheus-and-grafana-to-kubernetes/ у меня прометей крутится как внутренний сервис и могу к нему подключаться напрямую через внутренний адрес, но я бы хотел, чтобы https://prometheus.example.com редиректил меня на внутренний сервис, если я подключен через впн и на 403, если стучусь просто из инета такое возможно вообще?

Maksim
31.07.2017
15:04:56
их то и хочу размазать по нодам
а смысл писать отдельный под с поднятием нужного ip если у нод и так есть ip и его можно назначить как externalIP?

kvaps
31.07.2017
15:05:45
у нод есть свой IP, который в случае если нода упадет потеряется тоже

Maksim
31.07.2017
15:06:11
дык у тебя же ряд IP будет работать

kvaps
31.07.2017
15:06:15
в случае если IP назначается контейнером, он передет на другую ноду

Maksim
31.07.2017
15:06:44
или все твои 2-3-5 ip должным быть 100% uptime

,,

??

kvaps
31.07.2017
15:07:03
ага, в том то и фишка

kvaps
31.07.2017
15:07:21
и внешний балансер получается не нужен

Maksim
31.07.2017
15:07:45
А где вообще балансировка идёт?

если у тебя ряд ip смотрит наружу, то где-то должна быть балансировка, или ты хочешь это решать чисто управленчиским ресурсом? (типо отдел А работает по ip А, отдел Б по ip Б)??

как то же мир доллжен узнать, что сервис работает по нескольких ip

kvaps
31.07.2017
15:10:46
Ну допустим есть 20 нод, у каждой есть два интерфейса, внешний (смотрит сразу наружу) и внутренний, на внутреннем у каждой ноды свой ip-адрес: 192.168.100.{1..20} Я хочу создавать сервис в этом кластере и вешать на внешний IP.

много сервисов

то есть что бы ExternalIP не был привязан к какой-то конкретной ноде, а был привязан к конкретному сервису

Maksim
31.07.2017
15:12:21
ну тебе впринцепе пофиг где и какой ip весит

Google
kvaps
31.07.2017
15:12:30
верно

Maksim
31.07.2017
15:12:31
главное, что бы все были routeable

kvaps
31.07.2017
15:12:58
все routable, т.к. находятся в одном L2-сегменте

Maksim
31.07.2017
15:14:14
ты боишься что нода с externalIP загнётся под напором трафика?

kvaps
31.07.2017
15:14:39
просто было желание все эти внешение IP равномерно размазывать по нодам, что бы не получилось так, что одна нода проксирует весь трафик из-за чего все начнет тупить

Maksim
31.07.2017
15:15:08
ты хочешь что бы на нодах запускался только один под с IP ?

Admin
ERROR: S client not available

kvaps
31.07.2017
15:15:17
ты боишься что нода с externalIP загнётся под напором трафика?
ну да, и в случае если откажет, минимизировать downtime для остальных сервисов тоже

ты хочешь что бы на нодах запускался только один под с IP ?
в идеале да, но теоретически podов с IP может быть больше чем нод

на самом деле я уже нашел решение

Maksim
31.07.2017
15:16:28
Копать здесь Node Affinity/Anti-Affinity

-)

kvaps
31.07.2017
15:17:29
ага, это как раз и есть podAntiAffinity с preferredDuringSchedulingIgnoredDuringExecution

чуть попозже попробую и приведу готовый yaml, если интересно

ну в общем да, таким образом все внешние IP прекрассно размазываются по всему кластеру: https://gist.github.com/kvaps/889fe2b9eeab9f205c818ab1d1af56a9

Max
31.07.2017
16:43:45
Приветствую, заранее извиняюсь за возможно нубский вопрос, но как сейчас правильно поднимать k8s кластер на убунте?

Взял потестить новый ovn/ovs плагтн, вроде все собралось, но вот возник вопрос в поднятии кластера, чтобы указать верный cni

В документации ничего актуального найти не удалось

Max
31.07.2017
16:46:44
environment следующий, 3 x ubuntu 16.04.2 каждая virtualbox vm, master/node/node, cni ovs/ovn 2.7.2

Google
kvaps
31.07.2017
16:47:08
через ansible не завелось

Max
31.07.2017
16:47:54
Не нашёл, как kubeadm сказать использовать cni ovs

На сайте нет этого

Цель завести плагин ovn-kubernetes

kvaps
31.07.2017
16:49:09
ток там нюанс один, пока конфиг в /etc/cni/net.d не положишь, ноды будут NotReady

Max
31.07.2017
16:51:27
#whois извините не представился, Максим, где работаю есть в linkedin, профиль сети и виртуализация, посоветовали в ru_devops, текущий проект k8s+ovs

Где вообще подробнее познакомится с этим, документация на сайте становится неактуальной на стадии написания по ходу

kvaps
31.07.2017
16:56:41
Не нашёл, как kubeadm сказать использовать cni ovs
Дя начала скажу что я kubernetes только начинаю изучать, и хоть у меня конфигурация похожа на твою, учти мои советы не претендуют на правильность.

Для начала установи на ноды kubeadm

потом сделай кластер с помощью kubeadm init и kubeadm join

Max
31.07.2017
16:57:34
Такая же фигня, я тыкал его раньше, но что-то там так сильно все изменилось, специфика работы основная не очень связана с этим просто

kvaps
31.07.2017
16:58:03
потом когда ты сделаешь кластер ноды у тебя будут NotReady

Max
31.07.2017
16:58:11
А как быть с тем что kubeadm бета и не рекомендовано для прода?

kvaps
31.07.2017
16:58:51
потом тебе нужно будет установить твой network плагин

Max
31.07.2017
16:58:59
С фланелью он у меня завелся, через kubeadm

Страница 225 из 958