
Maksim
28.07.2017
13:06:34
или через cni вешать сеть на поды, и давать им адреса, то имхо совсем грусто из-за кол-ва адрессов

kvaps
28.07.2017
13:07:03

Maksim
28.07.2017
13:07:25

kvaps
28.07.2017
13:07:27
thank you guys!

Google

Maksim
28.07.2017
13:09:42

Роман
28.07.2017
13:27:19

Maksim
28.07.2017
13:27:51
Перенос данных сработает
я уже так делал
Не работает отствие etcd в процессе.

Роман
28.07.2017
13:30:49
Он(нода), как бы, начал отображать все. Но задеплоить ничего с неё не могу.
Есть какое-то руководство по кластеру etcd?

Пашкин
29.07.2017
09:09:33
Господа, никто не встречался с проблемой резолва dns имен в подах под alpine-glibc. У меня есть три суффикса на ноде. Соответственно в поде добавляется еще 3 суффикса - ns, svc, cluster.local. Судя по strace он нормально делает запрос на первые 4 днс имени (прибавляя первые 4 суффикса), а потом косячит, отправляет одно и то же, получает таймауты и отваливается. Не уверен в чем проблема. То ли днс сервер как то неправильно работает и не отвечает нормально если часто спрашивать, то ли resolv неправильно реализован. Было у кого такое? Ltrace, кстати вообще ничего не показывает.

Alisa
29.07.2017
09:12:30
такой вопрос, а вы к мониторингу через vpn пускаете?

Eugene
29.07.2017
09:14:20
У алпайна проблемы с днс
Особенно если их несколько

Alisa
29.07.2017
10:22:59
вообще vpn в кластер это же хорошая практика? но только тип на какие-то определенные внутренние сервисы

Google

Andrey
29.07.2017
10:38:09
У меня впн в кластер, мегаудобно
В есть кто юзает istio/linkerd ? Очень хочется экспириенс получить

Роман
29.07.2017
10:43:41
Кто юзает kubespray? Там ноду просто добавить же? Просто прописать её одну в prepare и сделать deploy?

bebebe
29.07.2017
10:44:40

Роман
29.07.2017
10:46:21

bebebe
29.07.2017
10:46:50
Да, но лучше глазом проверить

Роман
29.07.2017
10:47:21
Спасибо.

bebebe
29.07.2017
10:55:42

Роман
29.07.2017
11:22:55

Александр
29.07.2017
11:38:32
если снимешь тейнты с мастеров и начнеешь запускать на них поды, то заимеешь проблемы с динамическим провижинингом вольюмов
будут проблемы с hpa и autoscaler

Alisa
29.07.2017
12:00:47

Andrey
29.07.2017
12:06:34
Хз что там в практисес, из хелм чартов впн норм по мне

Vitaliy
29.07.2017
16:43:57

Александр
29.07.2017
16:53:35
про проблемы с динамическим провижинингом вольюмов можно посмтреть мой тред https://kubernetes.slack.com/messages/C3QUFP0QM/convo/C3QUFP0QM-1499372693.903314/
а автоскейлер работает тока с ASG https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/cloudprovider/aws/README.md#deployment-specification


Andrey
30.07.2017
07:05:17
господа, поковырял я все эти linkerd и другие istio, и задался вопросом: зачем они могут быть именно мне нужны в кубере (см ниже)?
1) все киллер-фичи есть в той или иной мере в кубере из коробки (балансировка по раундробину, дискавери через днс, циркут брекинг через хелсчеки)
2) вещи типа дебаг-трасировок и метрик решаются отдельно (все равно встроеного функционала не будет хватать)
3) остальные фичи заточены чисто под http (маршрутизация, ретраи, шифрование трафика внутри сети): но ведь amqp дает гораздо больше свободы (все что выше описал + подписка на события, схемы переноса недоставленых сообщений в очередях и тп)
я к тому что архитектору при выборе структуры не проще ли вместо того чтобы завязываться на сторонние инструменты которые пытаются решать проблемы устаревшего протокола, использовать идеологически более правильный протокол с самого начала?
это немного философский вопрос, поразмышляем?

bebebe
30.07.2017
07:54:31


Let Eat
30.07.2017
08:19:05
балансировка по раундробину, дискавери через днс, циркут брекинг через хелсчеки
это все не риалтайм в кубе, в itsio вроде как отзывчивее (теоретизирую). circuit breaker вообще нет

Google

Роман
30.07.2017
08:40:18

Александр
30.07.2017
08:53:34

Роман
30.07.2017
08:55:29
ну зарегайся
If you have an @get-an-invite-at.slack.kubernetes.io email address, you can create an account
Другого способа зарегаться нет.

Александр
30.07.2017
08:57:58
и?
короче с тобой всё понятно. если ты зарегаться в слаке кубернетеса не могешь, то об чем говорить)

Роман
30.07.2017
09:18:12

Alisa
30.07.2017
11:12:46
почему это неправильный ответ?
чяднт??
решил: все ответы правильные

Александр
30.07.2017
11:24:23
дай ссыль потыкать

Alisa
30.07.2017
11:24:55
https://courses.edx.org/courses/course-v1:LinuxFoundationX+LFS158x+2T2017/course/
много полезного для себя нашел в этом курсе btw

Александр
30.07.2017
11:26:42
спасибо, будем посмотреть

Fike
30.07.2017
11:33:06
если выбран четвертый ответ, то и третий не выбирать нет смысла

Alisa
30.07.2017
11:33:54
видимо хотели акцентировать на этом внимание

vladget
30.07.2017
15:48:22
привет, у кого получилось сделать кластеризацию etcd на 1.7?
вот тут описано: https://kubernetes.io/docs/admin/high-availability/
но оно судя по всему для 1.6 или ранее, там даже image etcd в yaml какой-то старый...
или заинититься с 1.6 и не морочить голову?

Denis
30.07.2017
15:49:12
а как кластеризация etcd связана с версией k8s?

vladget
30.07.2017
16:11:06
ну это же часть его?

Google

vladget
30.07.2017
16:12:02
или я чето не так понимаю?

Fike
30.07.2017
16:12:53
etcd это вообще отдельный сервис, который релизится и управляется без каких-либо кивков в сторону куба
как мускуль в любом приложении

Роман
30.07.2017
16:18:12

Mikhail
30.07.2017
16:24:57
или я чето не так понимаю?
https://coreos.com/etcd/docs/latest/op-guide/clustering.html
Вот есть офф дока как закластерить етсд. По сути это база данных, в которых кубер хранит инфу о своем кластере.

vladget
30.07.2017
16:26:26

Admin
ERROR: S client not available

vladget
30.07.2017
16:26:37

Alisa
30.07.2017
16:44:06
а как ограничить vpn доступ к внутренним сервисам кластера, чтобы пускал только на whitelist внутренних адресов? кто-то решал эту проблему?

Pavel
30.07.2017
16:51:04

Alisa
30.07.2017
16:52:44
Не совсем понял вопрос, пустить подключение только с некоторых ip?
нет, я могу сейчас по vpn зайти в кластер и перейти на любой внутренний сервис (kubernetes dashboard, database, backend сервисы и всякие службы мониторинга)
так вот я хочу, чтобы впн пускал только на всякие службы мониторинга (grafana, metabase), это мне в какую сторону смотреть?

Pavel
30.07.2017
16:53:06
В сторону впн, думаю
Опенвпн например может пускать только в подсеть, тогда вопрос упирается в изначальное планирование сети0. Типа мониторинг в этой, а остальное в этой
Мож, это и не правильно

Alisa
30.07.2017
16:56:54
что-то типа того, но ладно, попробую разобраться как-то с этим, спасибо!
а то мне что-то совсем не нравится, что получив впн можно случайно зайти в kube dashboard и уронить весь кластер

Pavel
30.07.2017
16:57:37
Ну дели изначально на функциональные сегменты
Опять же, предпологается что впн юзают доверенные лица

Fike
30.07.2017
16:59:43

Pavel
30.07.2017
17:00:06
В кубах есть средства разграничения рдоступа по ролям

Google

Pavel
30.07.2017
17:00:40
Зачем это взваливать на более низкий уровень?
Врядли чуваки с доступом по впн начнут пытаться взломать ваш дашборд:)

Alisa
30.07.2017
17:02:35
https://kubernetes.io/docs/admin/authorization/rbac/
о, ого, спасибо, возможно это именно то что нужно)

Pavel
30.07.2017
17:03:35
Политики обновления ключей и т.п.

Fike
30.07.2017
17:03:54
нет

Pavel
30.07.2017
17:04:13
Так можно и до токенов дойти)

Fike
30.07.2017
17:04:16
это попытки спихнуть реальную авторизацию на провайдера )

Pavel
30.07.2017
17:05:24
Весь вопрос в том, насколько секурно надо делать

Alisa
30.07.2017
17:06:07
ну вот допустим, наймем аналитика снимать данные через внутренние сервисы, а он возьмет и бд сольет себе например, и всё: утечка, скандал, а кто виноват? я виноват

Pavel
30.07.2017
17:06:08
Мне вот хватает басик ауса для большинства вещей
А как он ее сольет?

Fike
30.07.2017
17:07:28
получив лишние привилегии

bebebe
30.07.2017
17:07:33
надеюсь по https? басик аус передается в base64

Pavel
30.07.2017
17:08:06
Я просто не вижу особого смысла в разделении прав на уровне сети. В большинстве случаев

Alisa
30.07.2017
17:12:26
а если например вышла 0day уязвимость на какой-то сервис к которому есть сетевой доступ ?