
Andor
19.04.2018
07:55:49
так у тебя ж адрес будет только на одном хосте?

kvaps
19.04.2018
07:55:50

Andor
19.04.2018
07:56:12
или у тебя входящий трафик влезает в одну ноду?

kvaps
19.04.2018
07:56:34
Ну по сути да, твоя нода становится some kind роутером для этого сервиса

Google

Andor
19.04.2018
07:56:50
а где ж тут HA?

kvaps
19.04.2018
07:57:33
Если нода падает, vip перезапустится на другой ноде

Andor
19.04.2018
07:57:51
сколько времени это займёт?

kvaps
19.04.2018
07:58:03
Автоматически выбираются годы с подами сервиса, что бы избежать оверхеда

Andor
19.04.2018
07:58:04
кажется это зависит от скорости поднятия сервиса, так?

kvaps
19.04.2018
07:58:16

Andor
19.04.2018
07:58:30
ну и так и так ты сможешь нагрузить не выше скорости интерфейса отдельно взятой ноды

Andrey
19.04.2018
07:59:32

Andor
19.04.2018
07:59:36
правильно я понимаю?

kvaps
19.04.2018
08:00:07

Andor
19.04.2018
08:00:29
ну то есть metallb всё равно имеет смысл если у тебя трафика больше гигабита
ну или десятки

Google

kvaps
19.04.2018
08:00:35

Andor
19.04.2018
08:00:37
в зависимости от железа

kvaps
19.04.2018
08:03:01

Andor
19.04.2018
08:03:27
ну понятно что какие-то задачи она решает, иначе бы ей вообще никто не пользовался

kvaps
19.04.2018
08:04:00

Andor
19.04.2018
08:04:38
он вроде очень в бете
хотя и металлб тоже

kvaps
19.04.2018
08:05:02
если допустим у вас две ноды из кластера (роутеры) торчат в интернет, то они будут как metallb работать, с балансировкой и прочими куртизанками :)

Andor
19.04.2018
08:05:04
на прошлой работе было подобие металлб поднимаемое в полуручном режиме
ну это taint'ами надо выбираь
но да, это логично

kvaps
19.04.2018
08:07:10
любой ip объявленный в сервисах (external-ip или cluster-ip) - он сразу же появляется на ВСЕХ нодах и роутит куда нужно
но снаружи кластера это выглядит немного странно
отправляешь ему who-has XX.YY.ZZ.AA
а оно тебе в ответ 100500 arp reply присылает, но это в L2 опять же
Будь у меня маленький кластер, я бы его с радостью использовал. Но в большом немного страшно, так что подожду релиза :)

Andrey
19.04.2018
08:16:53
За такое хостер по шапке не надает?)

kvaps
19.04.2018
08:18:29
ну зависит от сети хостера конечно, плюс не будешь же ты чужые айпишники анонсить
хотя cluster-ip эт даа

Andor
19.04.2018
08:18:46
запросто :)

Andrey
19.04.2018
08:21:18
Для плавающего ip в hetzner - норм

Banschikov
19.04.2018
08:23:38
подскажите а можно как-то сервис выстовить наружу? Т.е. дать фиксированный порт

Google

Andrey
19.04.2018
08:24:01
NodePort?

Banschikov
19.04.2018
08:25:12
NodePort?
Да, но как я понимаю он открывает один порт из диапазона 30000-32767

Stanislav
19.04.2018
08:25:32
host network

Andrey
19.04.2018
08:28:16
Кстати, а loadBalancerIP работает на bare metal?

Andor
19.04.2018
08:29:10
пока нет
ну то есть да но в альфе

Andrey
19.04.2018
08:32:01

Andrey
19.04.2018
08:49:14
господа, вот допустим я сгенерил новый ключ для kube-apiserver, добавив туда дополнительные SAN, и этот же ключ используется в —service-account-key-file. Соответственно, как я понимаю, старые токены для сервисаккаунтов станут недействительны и их нужно будет удалить для перегенерации, но уже запущенные поды, которые их используют, будут пытаться примонтировать старые и не мочь достучаться до аписервера. Как надежно удалить все поды, которые используют старые токены?
Или это все из пушки по воробьям и есть способы получше?

Andrey
19.04.2018
10:19:15
Раз так удачно ответили по поводу раздачи ip из подсетей, напомню про вопрос с iptables и закрытием всего на сервере по умолчанию, не трогая при этом правила куба

Valentin
19.04.2018
10:26:58
а в чём вопрос?

Sergey
19.04.2018
10:27:19
Подписываюсь, тоже интересует вопрос

Valentin
19.04.2018
10:28:02
как добавить правило в iptables на убунте, чтобы оно сохранилось, но не зааффектило роута кубика?

Sergey
19.04.2018
10:29:40
что то вроде того, закрыть на вход выход все чтобы ничего не сломалось:)

Fike
19.04.2018
10:30:33

Valentin
19.04.2018
10:43:46
я например правки делаю прямо в /etc/iptables/rules.v4 (v6). Более гуманного способа не нашёл

Banschikov
19.04.2018
10:49:15

Fike
19.04.2018
10:50:53
If you want a specific port number, you can specify a value in the nodePort field, and the system will allocate you that port or else the API transaction will fail (i.e. you need to take care about possible port collisions yourself). The value you specify must be in the configured range for node ports.
https://kubernetes.io/docs/concepts/services-networking/service/#type-nodeport

Stanislav
19.04.2018
10:53:27

Google

Alexey
19.04.2018
10:57:01

Vasilyev
19.04.2018
10:58:49

Stanislav
19.04.2018
10:59:23

Vasilyev
19.04.2018
11:00:04
? ну да. У нас, пока, все еще только начинается))

M
19.04.2018
11:01:22

Valentin
19.04.2018
12:48:49
кто-нибудь кеш для гитлаб-раннеров настраивал? (не в облаке)

Banschikov
19.04.2018
12:53:03

Valentin
19.04.2018
12:55:29

Banschikov
19.04.2018
12:56:29
кстать еще нет

Let Eat
19.04.2018
13:07:10

Valentin
19.04.2018
13:07:43
умеют. У меня только с дефолтовым бакетом проблема осталась

Maksim
19.04.2018
13:29:05
для поднятия кубер на coreos сам coreos надо собирать в кластер ?

Andor
19.04.2018
13:30:22
а что означает "собрать кореось в кластер"?

Maksim
19.04.2018
13:30:53
минутку
Вот это
https://coreos.com/os/docs/latest/cluster-architectures.html
когда мы имеем несколько серверов с coreos на которые натянут etcd2 и fleet