
bebebe
05.07.2018
08:41:31
коллеги, немного не профильный вопрос
на ubuntu:16.04 хоств. докер 18.x утекают файловые дескрипторы на /var/run/docker.sock при интенисвном использовании dind
никто не встречался?

Игорь
05.07.2018
08:42:26

Сергей
05.07.2018
08:43:07
стикер не актуальный, он ща пиздец поправился

Juriy
05.07.2018
08:48:20

Google

Juriy
05.07.2018
08:49:03

Andrey
05.07.2018
08:55:33
несекурная тачка небось зубило

Игорь
05.07.2018
08:58:04

Juriy
05.07.2018
08:58:13

Игорь
05.07.2018
09:01:28

Alexey
05.07.2018
09:12:55
Почувствовать эпоху

Amet
05.07.2018
09:14:04
Ребят. Кто-нибудь прикручивал к куберу Single-Sign-On? Идея состоит в том, чтобы логиниться в дашборд или консоль с помощью гуглового аккаунта, в котором будет разделение ролей для юзеров. В какую сторону лучше смотреть? Dex/keycloack/etc? Можно ли интегрировать это как-то без подобного посредника, или непосредственно крутить его в самом кубере?

Игорь
05.07.2018
09:27:53

Amet
05.07.2018
09:35:11
мы используем okta
Я правильно понял, что это саасная штука, которая позволяет не хостить у себя условный dex, при этом за это надо платить деньги? И если да, то как тарификация идет, за счет количества юзеров или fix-price?

Игорь
05.07.2018
09:37:08

Google

Игорь
05.07.2018
09:37:14
но она офигенна

Igor
05.07.2018
09:37:53
Мы используем
https://github.com/cloudposse/charts/tree/master/incubator/portal
https://docs.cloudposse.com/kubernetes-platform-services/dashboard/cluster-portal/
Github как Single Sign On
Правда нет разделения по группам - просто способ сделать аутентификацию для dashboards.

Amet
05.07.2018
09:37:58
а сколько если не секрет за юзера выходит? я у них на сайте только contact sales нашел без прайсов

Igor
05.07.2018
09:39:05
под капотом используем вот эту штуку https://github.com/bitly/oauth2_proxy

Amet
05.07.2018
09:41:34

Alexey
05.07.2018
09:42:32
Крутяк. Ещё должны быть кастомные oauth2 авторизаторы и будет то, что нужно. Давно такое искал.

Igor
05.07.2018
09:42:34
попробуй покопать отталкиваясь от oauth2_proxy - может есть решения которые реализуют прям то что вам нужно
oauth2_proxy поддерживает
Google default
Azure
Facebook
GitHub
GitLab
LinkedIn
OpenID Connect Provider
из коробки
еще есть форки всякие которые добавляют другие провайдеры

Alexey
05.07.2018
09:44:55
Сейчас у меня просто
https://nginx.ru/ru/docs/http/ngx_http_auth_request_module.html
auth_request /path/to/auth/page;
напрягает только то, что нет ролей и тп.
(это вдруг кому интересно самое простое решение)

Igor
05.07.2018
09:46:32
oauth2_proxy так и работает
но там можно ограничивать только участникам команды в github org
думаю можно через это реализовать роли
но подумать прийдется как это сделать

Prezident
05.07.2018
09:47:36

Alexey
05.07.2018
09:47:38
тут нужно, чтобы прокси на каждый url спрашивал "а сюда можно?". У auth_request проблема, что это только 1 запрос первый раз.
Сейчас думаю может через это
auth_request_set $переменная значение;
передавать X-User-Role
его из вне нельзя переопределить, а в самом приложении if (role !== 'admin') и тп.
А вообще решал кто-то проблему авторизацию по микросервисам централизованно?
Есть https://nginx.ru/ru/docs/http/ngx_http_auth_jwt_module.html
Но форму авторизации некому выдавать.

Igor
05.07.2018
09:54:24

Google

Andor
05.07.2018
09:54:46

Igor
05.07.2018
09:59:04
из документации aut_request
The module may be combined with other access modules, such as ngx_http_access_module, ngx_http_auth_basic_module, and ngx_http_auth_jwt_module, via the satisfy directive.
Before version 1.7.3, responses to authorization subrequests could not be cached (using proxy_cache, proxy_store, etc.).
так что на каждый запрос отправляется подзапрос - сюда можно?

ptchol
05.07.2018
10:04:41
А как сертификатиками в кубере управлять, с учётом того что у нас nginx ingress ?
Хочется подцепить letsencrypt и чтобы оно само всё двигалось

Alexey
05.07.2018
10:04:49
cert manager

ptchol
05.07.2018
10:04:53
kube-lego пишет что они unsupported

Alexey
05.07.2018
10:05:10
https://cert-manager.readthedocs.io/en/latest/

Igor
05.07.2018
10:05:31
мы до сих пор на kube-lego
как нибуть на cert-manager переедем

Arslanbekov
05.07.2018
10:27:17
есть эксперты helm? ?
два вопроса:
1. Как вы чистите (и чистите ли вообще) конфигмапы релизов, если он разростается - хелм начинает подтормаживать.
2. Как деплоите большое кол-во подов разом, он сильно просаживается по производительности (особенно если имеется configmap-mount в деплойке)
большое кол-во - от 100 и выше.
все что до 100 он вроде как прожевывает более-менее.

Andrey
05.07.2018
10:28:44

Arslanbekov
05.07.2018
10:29:17
о, про историю не знал, спасибо!

Andrey
05.07.2018
10:30:06
Что с производительностью, собираете метрики с tiller пода? По CPU в лимит упирается или OOM летят постоянные? С какими параметрами запускаете helm?

Arslanbekov
05.07.2018
10:31:11
стандартный helm upgrade --install ...
но мы грешим на большое кол-во конфигмапов который маунтятся в каждый под
потому что когда прилетает не мало на 1 ноду - кубелет еле пережевывает все
и куча ошибок типа du ... в kubelet

Andrey
05.07.2018
10:32:40
Это да, kubelet не самый быстрый, если очень много подов на ноду.

Google

Andrey
05.07.2018
10:33:00
Из практики лучше больше сотни подов не деплоить на одну машину.

Arslanbekov
05.07.2018
10:33:22
ага, у нас просто изначально несовсем правильно сделано - жирные тачки и их не много

Andrey
05.07.2018
10:33:23
Что с CPU лимитами, что по графикам соотношение container_cpu_cfs_throttled_periods_total к container_cpu_cfs_periods_total? Как себя чувствует etcd и apiserver?

Arslanbekov
05.07.2018
10:33:31
задрали для кубелета ресурсы и пока живем
> Как себя чувствует etcd и apiserver
etcd увеличивается на запись/чтение, на api cpu растет

Andrey
05.07.2018
10:41:07
Надо всё мониторить, тюнить, скейлить вертикально и т.д.
У нас в самом Helm не было проблем с производительностью никогда. Только окружение лагало.

Admin
ERROR: S client not available

Sergey
05.07.2018
10:41:29

Andrey
05.07.2018
10:42:05
>с производительностью
А с самим Helm'ом проблем хоть отбавляй.

Pavel
05.07.2018
10:49:42

Sergey
05.07.2018
11:07:33
Господа, стоит ли смотреть на ALB-ingress-controller?
или забить и использовать нджинкс исключительно?

Валентин
05.07.2018
11:19:12

66271
05.07.2018
11:31:46

Arslanbekov
05.07.2018
11:38:59
если нужна надежность

Alexey
05.07.2018
11:39:56
железку сложнее скопировать на соседний серв (у меня все на железе, это я так)

Валентин
05.07.2018
11:40:04

Arslanbekov
05.07.2018
11:40:15

Volodimir Fedorov
05.07.2018
11:41:33
на днях наблюдал diskpressure на ноде, при этом места/инодов полно и ио почти на нуле.. через минут 15 статус поменялся на "все норм".. как такое подебажить?

Google

Валентин
05.07.2018
11:43:07
в основном на kvm
Какие? Можно в личку, реально интересно. У меня нагрузка не очень высокая пока, может потому проблем не встречал

Alexey
05.07.2018
11:44:34
Мы ранее говорили про авторизацию на микросервисы, это же умеет https://konghq.com/kong-community-edition/
Тут пару раз проскакивало. Есть у кого опыт?

Gleb
05.07.2018
12:19:49
мне как-то не очень нравится, что мой сервис при билде выплевывает 2 артефакта - хелм чарт и контейнер
кто как с этим живет?

Alexey
05.07.2018
12:24:32
что значит выплевывает контейнер? docker push же

Gleb
05.07.2018
12:25:21
ну, результатом билда моего сервиса является контейнер (в репозитории) и хелм чарт, получается
обновлённый

Alexey
05.07.2018
12:26:02
контейнер или image?

Gleb
05.07.2018
12:26:12
image, простите

Alexey
05.07.2018
12:26:21
и прям image в репу git? или вы про registry?

Gleb
05.07.2018
12:27:27
про реджистри, да
и хелм чарт тоже в реджистри должен пушиться

Alexey
05.07.2018
12:28:27
я бы не называл это артефактом. Это больше собрали коробку и отправили по почте.
Чем коробка, которая стоит под боком и все берут оттуда что нужно (это артефакты в моём понимании).
грубо говоря у gitlab артефакты удаляются через месяц по-умолчанию. С image так нельзя совсем.

Pavel
05.07.2018
12:33:33

Anton
05.07.2018
12:45:21