Danil
может нужно создать отдельно External endpoints?
Антон
Mikhail [azalio]
Etki
угу, этим занимается дженкинс
Volodymyr
User "system:anonymous" cannot get path "/ui/".
это из-за RBAC?
Knyage
вестимо )
Dmitriy
Всем, привет! Вопрос совсем немного не в тему, но по теме. У меня есть образ в котором поднимается rabbimq, который в свою очередь запускает epmd демон. Так вот при порождении потомков демоном epmd, эти самые потомки превращаются в зомби. Сообщение это пишу сюда лишь потому, что в кубере все родительские процессы порождаются процессом /pause, в а чистом докере нет. Так вот если запускать этот образ из чистого докера, то никаких зомби нет, а в случае с кубером - они создаются. У кого есть rabbitmq в проекте. Может кто-то сталкивался с этим?
Maksim
да
Alexey
Точно!
Artemiy
Gitlab CI может
а можно примерчик gitlab-ci.yml файлика? или пошлите меня куда-нибудь по ссылке, буду благодарен
Алексей
Artemiy
спасибо!
Алексей
Там правда в автодеплое шаблон зверский. Сразу фиг поймёшь. Ещё вариант https://habrahabr.ru/company/flant/blog/332712/
тут попроще всё
Mikhail [azalio]
http://www.dasblinkenlichten.com/kubernetes-101-networking/ интересно про сеть.
Sergey
баян 15 года, но по факту еще актуален
Sergey
ну не во всех кейсах конечно
Mikhail [azalio]
Обесценивание как оно есть :)
Alex Sharov
Народ, а в к-ве best practice рекомендуется все-таки создавать Deployments, а не чисто pod?
Maksim
смотря чего ты хочешь добиться
Роман
Alex Sharov
я просто попробовал и то, и то и не понял в чем фундаментальная разница
Alex Sharov
Разве что deployment в итоге создаст под
Maksim
как раз в ауто хилинге ))
Alex Sharov
-))) facepalm
Maksim
деплой это котроллер обновление пода)
Maksim
там пишется история изи rollback делается и т.п.
Maksim
плюс автоскелинг
Alex Sharov
спасибо за объяснение)
Роман
Ребята, дайте совет. Я хочу внутри кластера собирать метрики с nginx-vts ингресс-контроллера. Контроллер у меня - это поды с hostNetwork=true. То есть, они смотрят прямо в интернет. Я, конечно, могу создать контейнер с експортером, который будет читать прямо с внешнего адреса, но я хочу через внутренний сервис. Как это сделать? Пробовал создать сервис, но он мне возвращает дефолтную страницу nginx...
Logan
это к аннтоациям
Роман
вы не пробовали для начала гугл открыть?
Я пробовал это в первую очередь. Написал сюда, чтобы кто-то помог в нужную сторону направить - какой запрос в поисковик написать. Сейчас я просто не пойму, как аннотации с сервисами связаны.
Mikhail [azalio]
Хочу совета. У меня приложение деплоится через дженкинс, у него есть конфиг мап. Данные для него хранятся в хиере паппета. Как бы красиво организовать деплой?
Maksim
Mikhail [azalio]
Роман
Maksim
мм я не мог)
Maksim
слушай если у тебя под вешается на host-net то его ip == ip ноды
Maksim
а сервис это же dnat по порту
Maksim
)
Maksim
не вариант
Роман
Кстати, в конфиге allow 127.0.0.1))
Maksim
1. Тебе нужны метрики со всех сразу. Сервис будет давать только один
Maksim
2. Не уверен что сервис может рабоать с net=host
Maksim
у меня ктсати к nginx прикреплён экспортёр в prometheus )
Роман
Вот я это и хочу)
Maksim
там нужен экстрактор, потому как vts даёт данные, который прометес не понимает
Maksim
я его прописал в том же поде
Роман
В том же - в каком?
Maksim
там же где nginx-ingress-controller
Anton
а разве .Values.controller.stats.enabled не запустит как раз quay.io/cy-play/vts-nginx-exporter?
https://github.com/kubernetes/charts/blob/master/stable/nginx-ingress/values.yaml
Anton
Роман, в daemonSet подглядел https://github.com/kubernetes/charts/blob/master/stable/nginx-ingress/templates/controller-daemonset.yaml
Maksim
Maksim
я его ручками запили, ибо чартами не пользуюсь
Anton
чет много слишком всего нужно учитывать, игнорируя чарты
Роман
Я тоже руками. Через конфигмап включается vts
Anton
ну лан. добавьте в ваш деплоймент\демонсет еще один контейнер. должно получится
Maksim
Anton
очевидно что множество людей вложились знаниями и временем в создание чартов и мне кажется избыточным самостоятельно инвестировать столько же для решения той же задачи
Ivan
Всем привет! Подскажите как огранизовать деплой разных кластеров куба(prod/test/dev etc) через kube-aws в одном регионе амазона.
На данный момент уже живет 1 кластер.
Собственно вопрос, как задеплоить еще 1 кластер, и быть уверенным что он не затронет существующие ресурсы(vpc, sg, сети и тд)?
Пока подозреваю что достаточно для второго кластера изменить имя кластера, днс, нод пулы и cidr для сетей.
Sergey
банально для каждого окружения в кубер кластере завести свой неймспейс
Sergey
и не плодить кластеры
Sergey
это чисто мое имхо
Ivan
для деплоя апликух внутрь кластера, да. А для апгрейда на новые версии кубера, тестирования автоскейлинга и тд, нужен деплой кластера рядом.
G72K
Ivan
Mikhail [azalio]
$ kubectl apply -f deploy/kubernetes-dashboard.yaml
deployment "kubernetes-dashboard" created
Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply чего он ругается?
G72K
тогда оно все насоздает в существующих
Ivan
мы тоже,вам надо указать vpcId и подсети
а можно сделать для нового кластера без указания vpcid и сетей, новые ресурсы которые kube-aws протегирует под именем кластера? Т.е. не задовать имеющиеся vpc и сети?