Maksim
Перенос данных сработает
Maksim
я уже так делал
Maksim
Не работает отствие etcd в процессе.
Роман
Он(нода), как бы, начал отображать все. Но задеплоить ничего с неё не могу.
Роман
Есть какое-то руководство по кластеру etcd?
🪰
Господа, никто не встречался с проблемой резолва dns имен в подах под alpine-glibc. У меня есть три суффикса на ноде. Соответственно в поде добавляется еще 3 суффикса - ns, svc, cluster.local. Судя по strace он нормально делает запрос на первые 4 днс имени (прибавляя первые 4 суффикса), а потом косячит, отправляет одно и то же, получает таймауты и отваливается. Не уверен в чем проблема. То ли днс сервер как то неправильно работает и не отвечает нормально если часто спрашивать, то ли resolv неправильно реализован. Было у кого такое? Ltrace, кстати вообще ничего не показывает.
Anonymous
такой вопрос, а вы к мониторингу через vpn пускаете?
Eugene
У алпайна проблемы с днс
Eugene
Особенно если их несколько
Anonymous
вообще vpn в кластер это же хорошая практика? но только тип на какие-то определенные внутренние сервисы
Anonymous
У меня впн в кластер, мегаудобно
Anonymous
В есть кто юзает istio/linkerd ? Очень хочется экспириенс получить
Роман
Кто юзает kubespray? Там ноду просто добавить же? Просто прописать её одну в prepare и сделать deploy?
bebebe
bebebe
Да, но лучше глазом проверить
Роман
Спасибо.
Александр
если снимешь тейнты с мастеров и начнеешь запускать на них поды, то заимеешь проблемы с динамическим провижинингом вольюмов
будут проблемы с hpa и autoscaler
Anonymous
Хз что там в практисес, из хелм чартов впн норм по мне
Vitaliy
Александр
про проблемы с динамическим провижинингом вольюмов можно посмтреть мой тред https://kubernetes.slack.com/messages/C3QUFP0QM/convo/C3QUFP0QM-1499372693.903314/
Александр
а автоскейлер работает тока с ASG https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/cloudprovider/aws/README.md#deployment-specification
Anonymous
господа, поковырял я все эти linkerd и другие istio, и задался вопросом: зачем они могут быть именно мне нужны в кубере (см ниже)?
1) все киллер-фичи есть в той или иной мере в кубере из коробки (балансировка по раундробину, дискавери через днс, циркут брекинг через хелсчеки)
2) вещи типа дебаг-трасировок и метрик решаются отдельно (все равно встроеного функционала не будет хватать)
3) остальные фичи заточены чисто под http (маршрутизация, ретраи, шифрование трафика внутри сети): но ведь amqp дает гораздо больше свободы (все что выше описал + подписка на события, схемы переноса недоставленых сообщений в очередях и тп)
я к тому что архитектору при выборе структуры не проще ли вместо того чтобы завязываться на сторонние инструменты которые пытаются решать проблемы устаревшего протокола, использовать идеологически более правильный протокол с самого начала?
это немного философский вопрос, поразмышляем?
bebebe
G72K
балансировка по раундробину, дискавери через днс, циркут брекинг через хелсчеки
это все не риалтайм в кубе, в itsio вроде как отзывчивее (теоретизирую). circuit breaker вообще нет
Роман
Александр
Роман
ну зарегайся
If you have an @get-an-invite-at.slack.kubernetes.io email address, you can create an account
Другого способа зарегаться нет.
Александр
и?
Александр
короче с тобой всё понятно. если ты зарегаться в слаке кубернетеса не могешь, то об чем говорить)
Anonymous
Anonymous
почему это неправильный ответ?
Anonymous
в уроке вот такая теория дана
Anonymous
чяднт?🤔
Anonymous
решил: все ответы правильные
Александр
дай ссыль потыкать
Anonymous
https://courses.edx.org/courses/course-v1:LinuxFoundationX+LFS158x+2T2017/course/
Anonymous
много полезного для себя нашел в этом курсе btw
Александр
спасибо, будем посмотреть
Etki
если выбран четвертый ответ, то и третий не выбирать нет смысла
Anonymous
видимо хотели акцентировать на этом внимание
Volodymyr
привет, у кого получилось сделать кластеризацию etcd на 1.7?
вот тут описано: https://kubernetes.io/docs/admin/high-availability/
но оно судя по всему для 1.6 или ранее, там даже image etcd в yaml какой-то старый...
или заинититься с 1.6 и не морочить голову?
Denis
а как кластеризация etcd связана с версией k8s?
Volodymyr
ну это же часть его?
Volodymyr
или я чето не так понимаю?
Etki
etcd это вообще отдельный сервис, который релизится и управляется без каких-либо кивков в сторону куба
Etki
как мускуль в любом приложении
Роман
Knyage
или я чето не так понимаю?
https://coreos.com/etcd/docs/latest/op-guide/clustering.html
Вот есть офф дока как закластерить етсд. По сути это база данных, в которых кубер хранит инфу о своем кластере.
Volodymyr
Volodymyr
Anonymous
а как ограничить vpn доступ к внутренним сервисам кластера, чтобы пускал только на whitelist внутренних адресов? кто-то решал эту проблему?
Pavel
Anonymous
Не совсем понял вопрос, пустить подключение только с некоторых ip?
нет, я могу сейчас по vpn зайти в кластер и перейти на любой внутренний сервис (kubernetes dashboard, database, backend сервисы и всякие службы мониторинга)
так вот я хочу, чтобы впн пускал только на всякие службы мониторинга (grafana, metabase), это мне в какую сторону смотреть?
Pavel
В сторону впн, думаю
Pavel
Опенвпн например может пускать только в подсеть, тогда вопрос упирается в изначальное планирование сети0. Типа мониторинг в этой, а остальное в этой
Pavel
Мож, это и не правильно
Anonymous
что-то типа того, но ладно, попробую разобраться как-то с этим, спасибо!
а то мне что-то совсем не нравится, что получив впн можно случайно зайти в kube dashboard и уронить весь кластер
Pavel
Ну дели изначально на функциональные сегменты
Pavel
Опять же, предпологается что впн юзают доверенные лица
Etki
Pavel
В кубах есть средства разграничения рдоступа по ролям
Pavel
Зачем это взваливать на более низкий уровень?
Pavel
Врядли чуваки с доступом по впн начнут пытаться взломать ваш дашборд:)
Anonymous
https://kubernetes.io/docs/admin/authorization/rbac/
о, ого, спасибо, возможно это именно то что нужно)
Anonymous
Pavel
Pavel
Политики обновления ключей и т.п.
Etki
нет
Pavel
Так можно и до токенов дойти)
Etki
это попытки спихнуть реальную авторизацию на провайдера )
Pavel
Весь вопрос в том, насколько секурно надо делать