Danil
может нужно создать отдельно External endpoints?
kås
https://www.hashicorp.com/blog/hashicorp-vault-0-8-3/ вдруг кто не видел
спасибо! Kubernetes Auth Backend Vault 0.8.3 introduces native Kubernetes auth backend that allows Kubernetes pods to directly receive and use Vault auth tokens without additional integration components.
Etki
У нас дженкинс
а чем kubectl не подходит?
Aleksandra
а чем kubectl не подходит?
kubectl сам себя не запускает
Etki
угу, этим занимается дженкинс
Volodymyr
User "system:anonymous" cannot get path "/ui/". это из-за RBAC?
Knyage
вестимо )
Dmitriy
Всем, привет! Вопрос совсем немного не в тему, но по теме. У меня есть образ в котором поднимается rabbimq, который в свою очередь запускает epmd демон. Так вот при порождении потомков демоном epmd, эти самые потомки превращаются в зомби. Сообщение это пишу сюда лишь потому, что в кубере все родительские процессы порождаются процессом /pause, в а чистом докере нет. Так вот если запускать этот образ из чистого докера, то никаких зомби нет, а в случае с кубером - они создаются. У кого есть rabbitmq в проекте. Может кто-то сталкивался с этим?
Maksim
да
Alexey
Точно!
Artemiy
Gitlab CI может
а можно примерчик gitlab-ci.yml файлика? или пошлите меня куда-нибудь по ссылке, буду благодарен
Artemiy
спасибо!
Алексей
Там правда в автодеплое шаблон зверский. Сразу фиг поймёшь. Ещё вариант https://habrahabr.ru/company/flant/blog/332712/ тут попроще всё
Mikhail [azalio]
http://www.dasblinkenlichten.com/kubernetes-101-networking/ интересно про сеть.
Sergey
баян 15 года, но по факту еще актуален
Sergey
ну не во всех кейсах конечно
Mikhail [azalio]
Обесценивание как оно есть :)
Alex Sharov
Народ, а в к-ве best practice рекомендуется все-таки создавать Deployments, а не чисто pod?
Maksim
смотря чего ты хочешь добиться
Alex Sharov
смотря чего ты хочешь добиться
Как минимум хочу иметь auto healing у приложения
Alex Sharov
я просто попробовал и то, и то и не понял в чем фундаментальная разница
Alex Sharov
Разве что deployment в итоге создаст под
Maksim
как раз в ауто хилинге ))
Alex Sharov
-))) facepalm
Maksim
деплой это котроллер обновление пода)
Maksim
там пишется история изи rollback делается и т.п.
Maksim
плюс автоскелинг
Alex Sharov
спасибо за объяснение)
Volodymyr
User "system:anonymous" cannot get path "/ui/". это из-за RBAC?
А как сделать по человечески что бы не через kubectl proxy заходить?
Роман
Ребята, дайте совет. Я хочу внутри кластера собирать метрики с nginx-vts ингресс-контроллера. Контроллер у меня - это поды с hostNetwork=true. То есть, они смотрят прямо в интернет. Я, конечно, могу создать контейнер с експортером, который будет читать прямо с внешнего адреса, но я хочу через внутренний сервис. Как это сделать? Пробовал создать сервис, но он мне возвращает дефолтную страницу nginx...
Logan
это к аннтоациям
Роман
это к аннтоациям
А что именно? Пока что не понимаю.
Logan
А что именно? Пока что не понимаю.
вы не пробовали для начала гугл открыть?
Роман
вы не пробовали для начала гугл открыть?
Я пробовал это в первую очередь. Написал сюда, чтобы кто-то помог в нужную сторону направить - какой запрос в поисковик написать. Сейчас я просто не пойму, как аннотации с сервисами связаны.
Mikhail [azalio]
Хочу совета. У меня приложение деплоится через дженкинс, у него есть конфиг мап. Данные для него хранятся в хиере паппета. Как бы красиво организовать деплой?
Maksim
Maksim
это к аннтоациям
Это не к аннотациям
Maksim
мм я не мог)
Maksim
слушай если у тебя под вешается на host-net то его ip == ip ноды
Maksim
а сервис это же dnat по порту
Maksim
)
Роман
слушай если у тебя под вешается на host-net то его ip == ip ноды
Да. Именно. И сервис ему для этого не нужен. Но нужен сервис мне, чтобы экспортером с него метрики собирать.
Maksim
не вариант
Роман
Кстати, в конфиге allow 127.0.0.1))
Maksim
1. Тебе нужны метрики со всех сразу. Сервис будет давать только один
Maksim
2. Не уверен что сервис может рабоать с net=host
Maksim
у меня ктсати к nginx прикреплён экспортёр в prometheus )
Роман
Вот я это и хочу)
Maksim
там нужен экстрактор, потому как vts даёт данные, который прометес не понимает
Роман
там нужен экстрактор, потому как vts даёт данные, который прометес не понимает
Да. Я вот это хочу запустить: https://hub.docker.com/r/sophos/nginx-vts-exporter/
Maksim
я его прописал в том же поде
Роман
В том же - в каком?
Maksim
там же где nginx-ingress-controller
Anton
а разве .Values.controller.stats.enabled не запустит как раз quay.io/cy-play/vts-nginx-exporter? https://github.com/kubernetes/charts/blob/master/stable/nginx-ingress/values.yaml
Anton
Роман, в daemonSet подглядел https://github.com/kubernetes/charts/blob/master/stable/nginx-ingress/templates/controller-daemonset.yaml
Maksim
я его ручками запили, ибо чартами не пользуюсь
Anton
чет много слишком всего нужно учитывать, игнорируя чарты
Роман
Я тоже руками. Через конфигмап включается vts
Anton
ну лан. добавьте в ваш деплоймент\демонсет еще один контейнер. должно получится
Anton
очевидно что множество людей вложились знаниями и временем в создание чартов и мне кажется избыточным самостоятельно инвестировать столько же для решения той же задачи
Ivan
Всем привет! Подскажите как огранизовать деплой разных кластеров куба(prod/test/dev etc) через kube-aws в одном регионе амазона. На данный момент уже живет 1 кластер. Собственно вопрос, как задеплоить еще 1 кластер, и быть уверенным что он не затронет существующие ресурсы(vpc, sg, сети и тд)? Пока подозреваю что достаточно для второго кластера изменить имя кластера, днс, нод пулы и cidr для сетей.
Sergey
банально для каждого окружения в кубер кластере завести свой неймспейс
Sergey
и не плодить кластеры
Sergey
это чисто мое имхо
Ivan
для деплоя апликух внутрь кластера, да. А для апгрейда на новые версии кубера, тестирования автоскейлинга и тд, нужен деплой кластера рядом.
Mikhail [azalio]
$ kubectl apply -f deploy/kubernetes-dashboard.yaml deployment "kubernetes-dashboard" created Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply чего он ругается?
G72K
kube-aws version v0.9.7
мы тоже,вам надо указать vpcId и подсети
G72K
тогда оно все насоздает в существующих
Ivan
мы тоже,вам надо указать vpcId и подсети
а можно сделать для нового кластера без указания vpcid и сетей, новые ресурсы которые kube-aws протегирует под именем кластера? Т.е. не задовать имеющиеся vpc и сети?