
Alexey
01.04.2018
18:22:49
ENI - была идея, но оставил это на крайний случай
@hatemosphere еще если не секрет, у вас кластер большой? Я не смог собрать кластер более 100 нод, вив сказал, что требуется доп настройка (типа рефлектора в калико)

Let Eat
01.04.2018
18:24:59

Ihor
01.04.2018
18:25:45
у нас много маленьких кластеров с жирными нодами, и вот ни одной из ваших проблем у нас нет)

Google

Yuriy
01.04.2018
18:25:53

Ihor
01.04.2018
18:26:49
но weave encryption пробовали для соединения нод в разных регионах и оно лагало дико

Yuriy
01.04.2018
18:27:18

Ihor
01.04.2018
18:27:52
для энкрипшна из коробки лучше какой-нибудь сервис меш юзать и по TLS гонять трафик

Alexey
01.04.2018
18:27:57
Да, я тоже склоняюсь к мысли с тлс
Даже без меша пока может

Ihor
01.04.2018
18:28:56
ну тогда же в каждый под придется проксю совать как сайдкар? (если не хотите в код пихать)

Alexey
01.04.2018
18:30:08
У нас можно проще включить тлс, каждый сервис конфигурится в принципе, в коде это уже есть так или иначе
На будущее - меш
Меш в принципе тот же сайдкар

Ihor
01.04.2018
18:32:09
ага, но конфигурации меньше и другие фичи бесплатно

Let Eat
01.04.2018
18:32:20

Google

Alexey
01.04.2018
18:32:53

Let Eat
01.04.2018
18:33:55
Нет, но если б сказали шифровать всю сеть, делал бы так

Ihor
01.04.2018
18:34:23
вы предлагаете гонять весь трафик по vpn?

Let Eat
01.04.2018
18:34:43
да

Ihor
01.04.2018
18:34:44
это какой-то bare metal подход)

Let Eat
01.04.2018
18:35:40
зато один раз сделал и забыл

Alexey
01.04.2018
18:37:01
Ну нормально, вив подобное пытается сделать

Ihor
01.04.2018
18:37:34
у вива на бумаге должно быть быстрее vpn, особенно udp

Alexey
01.04.2018
18:38:14
Ipsec + vxlan

Ihor
01.04.2018
18:38:41
хотяя, ядерный vpn - это заявка на скорость)

Alexey
01.04.2018
18:38:52
А wireduard - надо смотреть
Я не помню так

Roman
01.04.2018
18:43:38

Let Eat
01.04.2018
19:07:03

Roman
01.04.2018
19:13:13

Let Eat
01.04.2018
19:21:10
не понял вопроса
ваш мониторинг навешивает taint на ноду с нужным эффектом

Roman
01.04.2018
19:56:08
Понял, получается мне надо заставить прометеус вешать тэинт

Let Eat
01.04.2018
20:06:31
не, такого он не может

Google

Roman
01.04.2018
20:13:30

Let Eat
01.04.2018
20:53:58
вам надо будет самому кусок кода который по значениям из мониторинга развешивает тейнты

Anton
01.04.2018
20:55:38
Надо будет самому кусок кода что?
(Я случайно два литра Колы.)

Roman
01.04.2018
20:57:35
Спасибо, теперь все ясно
Я до последнего надеялся, что самому не придётся балалаек писать никаких :)

Stanislav
01.04.2018
22:58:10

Alex
01.04.2018
23:02:46

Виталий
02.04.2018
07:46:45
Всем привет. Покажите плиз где смотреть версии зависимостей для релиза кубера? Например хочу знать какую версию etcd и flannel поддерживает kub 1.10 или любой другой релиз.

Let Eat
02.04.2018
08:29:12
https://github.com/imgix/prometheus-am-executor
Но такие вещи я бы локально проверял и запускал kubectl taint с ноды же . node-problem-detector скажем уже проверяет что докер жив

Roman
02.04.2018
08:54:50
Неплохо, даже проще чем думал. Спасибо!

sbog
02.04.2018
10:12:39
Коллеги, а подскажите, что делать, если под крашится, а мне нужно зайти в него и починить. Ситуация такая - есть redis с pvc, в нем поломался aof. Надо зайти, сказать —fix и ситуация улучшится (но это неточно). Вопрос - можно ли это сделать, временно запустив под с command не по умолчанию, а потом перезапустить заново? Или мне надо идти, ставить где-то новый редис, тащить туда aof, фиксить, тащить его назад?

Let Eat
02.04.2018
10:17:37
Коллеги, а подскажите, что делать, если под крашится, а мне нужно зайти в него и починить. Ситуация такая - есть redis с pvc, в нем поломался aof. Надо зайти, сказать —fix и ситуация улучшится (но это неточно). Вопрос - можно ли это сделать, временно запустив под с command не по умолчанию, а потом перезапустить заново? Или мне надо идти, ставить где-то новый редис, тащить туда aof, фиксить, тащить его назад?
чинить собираетесь модифицируя файлы на PVC? Можете стартануть c /bin/sleep infinity и зайти по kubectl exec туда.

sbog
02.04.2018
10:18:43

Let Eat
02.04.2018
10:20:59
Ну деплоймент, поправьте его, поправьте файлы, поправьте деплоймент обратно. Но это если срочно. По уму фикс должен быть в entry point контейнера, чтобы рукам не лазить
На будущее можете завести еще один контейнер в том же поде. В этом контейнере положите все нужные утилиты, подмонтируйте нужные PVC и запускайте с /bin/sleep infinity
Есть еще альфа фича debug container чтобы стартовать их не прописывая заранее, но я не пользовался,

Google

sbog
02.04.2018
10:23:26
?

Gleb
02.04.2018
10:43:20
можно через sysdig падение отдебажить

sbog
02.04.2018
10:48:47
@rossmohax, спасибо большое. Руками поправил деплой, пофиксил, поправил назад - все взлетело.
@ga_rus у меня сам факт, почему сломано, уже был отдебажен

noname
02.04.2018
11:29:08
всем привет. кто нибудь сталкивался с проблемами кубернетес в плане его garbage collector. в выходные на сервере он увидел, что объем свободного места меньше 85% процентов и удалил один большой контейнер. я его начал заново скачивать и как только скачал то проверил поды и кубер удалил вообще все. и системные контейнеры и даже имэджи. можно ли как то отключить этот garbage collecotr ?
удалились и образы и кэш и имэджи

Anton
02.04.2018
11:37:21
k8s следит за местом и может удалять имейджи устаревшие, если есть такая возможность
это все настраивается, но реально нужно запас свободного места иметь

noname
02.04.2018
11:38:08
странно что он удалил даже из kube-system все образы с днс, апи и прочее. ща нет ни 1 контейнера

Anton
02.04.2018
11:38:09
и gc нельзя отключить, он за здоровье ноды отвечает
ну пробил уровень, noschedule ноде выставил и эвакуировал поды оттуда

Igor
02.04.2018
11:39:13

noname
02.04.2018
11:39:23
а что за опция с првоеркой этого свободного места? просто на диске есть около 1тб но это меньше чем 15% от всего имеющеегося объема дисков

Anton
02.04.2018
11:40:01
там можно в абсолютных единицах указать, если я помню


Детсад
02.04.2018
13:17:31
Господа у меня есть проблема и я надеюсь, что кто-то из вас поможет мне в ее решении или хотя бы пнет в нужном направлении - вы же в этом специалисты.
Итак у нас есть приложение, которое обрабатывает HTTP траффик. Запросы и ответы маленькие (порядка килобайта), время запроса маленькое (порядка 50 мс), число запросов в секунду большое. Сервер асинхронный - java + netty - когда запущен как отдельное приложение, то держит QPS порядка 30к если время запроса 50мс и порядка 60-65к если время ответов для половины запросов 50мс, а на вторую половину отвечает сразу. Число соединений можно прикинуть - порядка 640. Клиент - java асинхронное приложение использующее async-http-client - внутри использует netty. Казалось бы живи и радуйся, но нет. Когда я запустил сервер в docker контейнере, то максимально я его могу нагрузить в районе 18к. Запускаю сервер через кубернетис и даже настроил его на использование сетевых интерфейсов хоста - то есть к сети сервер "как бы" напрямую рубится без всяких бриджей и прочего гомна. И вот при 18к QPS сеть периодически замирает секунд на 7. Вся сеть хоста - это заметно на ssh соединениях, везде. CPU load сервера где-то в районе нуля. Как думаете что бы это такое могло быть и как можно понять что именно. Может буфера какие переполняются. Может какую статистику с ядра можно собрать?


Gleb
02.04.2018
13:23:32
Товарищи, я хотел бы порекламить немного митап по куберу в СПБ.
12 апреля с 19 до 22 в офисе компании Селектел(м. Московские ворота, ул. Цветочная 21) будет проходить kubernetes spb meetup.
Темы
* Современная архитектура и инфраструктура на примере Last.Backend(докладчик Александр Калошин, Last.Backend)
* Kubernetes на bare metal и CNI на примере weave (докладчик Максим Филатов, EvilMartians)
Запасной доклад
* Особенности разработки софта в k8s(Афонинский Андрей, FullDive)
Timepad
https://selectel.timepad.ru/event/695549/
Meetup
https://www.meetup.com/St-Petersburg-Kubernetes-Meetup/events/249348270/
Трансляция будет как начнется мероприятие. Запись так же будет.

Mikhail
02.04.2018
13:27:48


Roman
02.04.2018
13:33:29


Stas
02.04.2018
13:34:30

Детсад
02.04.2018
13:35:25

Google

Roman
02.04.2018
13:36:21

Navern
02.04.2018
13:37:21
неочевидная


Let Eat
02.04.2018
14:04:18
Господа у меня есть проблема и я надеюсь, что кто-то из вас поможет мне в ее решении или хотя бы пнет в нужном направлении - вы же в этом специалисты.
Итак у нас есть приложение, которое обрабатывает HTTP траффик. Запросы и ответы маленькие (порядка килобайта), время запроса маленькое (порядка 50 мс), число запросов в секунду большое. Сервер асинхронный - java + netty - когда запущен как отдельное приложение, то держит QPS порядка 30к если время запроса 50мс и порядка 60-65к если время ответов для половины запросов 50мс, а на вторую половину отвечает сразу. Число соединений можно прикинуть - порядка 640. Клиент - java асинхронное приложение использующее async-http-client - внутри использует netty. Казалось бы живи и радуйся, но нет. Когда я запустил сервер в docker контейнере, то максимально я его могу нагрузить в районе 18к. Запускаю сервер через кубернетис и даже настроил его на использование сетевых интерфейсов хоста - то есть к сети сервер "как бы" напрямую рубится без всяких бриджей и прочего гомна. И вот при 18к QPS сеть периодически замирает секунд на 7. Вся сеть хоста - это заметно на ssh соединениях, везде. CPU load сервера где-то в районе нуля. Как думаете что бы это такое могло быть и как можно понять что именно. Может буфера какие переполняются. Может какую статистику с ядра можно собрать?
Приложение ходит куда-нибудь еще? java, jar и опции на хосте и в докере 100% одинаковые ?


Fike
02.04.2018
14:11:14


Yuriy
02.04.2018
14:12:06
Всем доброе утро. Возник вопрос. После инициализации первого мастера в кластере мастеров, если посмотреть на некоторые гайды, видно, что нужно сделать копию всех сертификатов /kubernetes/pki/* на другие мастера и там производить init уже с этими данными ? Вопрос в следующем в связи с чем такая необходимость так как по сути kubelet делает самоподписанные сертификаты и на других хостах они не подойдут по причине разных записей SAN, ?

Fike
02.04.2018
14:12:12
(в любом случае хотелось бы услышать комментарий по поводу количества выданных приложению ресурсов)

Gleb
02.04.2018
14:12:29

Stas
02.04.2018
14:12:47
локального - в рашке

Gleb
02.04.2018
14:13:15
Ну дык это, можно запустить локально в рашке на своем железе. Об этом Максим расскажет

Let Eat
02.04.2018
14:13:26

Stas
02.04.2018
14:15:28