@kubernetes_ru

Страница 691 из 958
Артамонов Игорь
19.07.2018
09:59:27
к поду что запускается на node1 цепляется imageID с нужным секретом, а к поду на node2 нет
Зайдите на ноду и дропните уже сохраненный имедж. Оно, бывает, тупит, если вы латест версию тянете

Mikhail
19.07.2018
10:00:24
Зайдите на ноду и дропните уже сохраненный имедж. Оно, бывает, тупит, если вы латест версию тянете
не было ни одного. Помогло сделать docker login и docker pull [pause-image], после этого поехали другие автоматически

Konstantin
19.07.2018
10:04:02
Ребята, подскажите самый человечный способ заставить поды DaemonSet'a перечитать configMap

Google
Vadim
19.07.2018
10:07:49
скейлить до нуля и обратно

Andor
19.07.2018
10:09:46
daemonset скейлить?

Konstantin
19.07.2018
10:10:38
Я вот пока ничего, кроме удаления подов не придумал

Vadim
19.07.2018
10:12:51
daemonset скейлить?
меняешь ему nodeSelector, например

Dmytro
19.07.2018
10:30:48
удалить поды по label

Konstantin
19.07.2018
10:34:46
В общем без удаления пока никак, видимо

Ладно, всем спасибо

Dmytro
19.07.2018
10:35:40
если приложение умное и умеет по сигналу перечитывать конфиг - зайти в каждый контейнер послать сигнал

ну или зайти внутрь каждого контейнера рестатртануть приложение что по сути равноценно удалению пода. а какие еще варианты?

Denis
19.07.2018
10:36:28
Всем привет. Народ, подскажите, пожалуйста, кто как делает. Развернул себе мультимастер кластер (из 3 мастеров) на кубе, все на vps, кластер работает. Вопрос, кто как создает единую точку входа? Типа снаружи nginx как load balancer, а на его айпишник уже dns? Чет в голове не могу 2 + 2 сложить...

Igor
19.07.2018
10:37:32
nginx ingress controller поставь

Google
Denis
19.07.2018
10:38:16
Такс, он у меня уже есть, походу я что то не докурил)

Vadim
19.07.2018
10:38:17
Denis
19.07.2018
10:38:51
В общем, спасибо за наводку)

Valera
19.07.2018
10:59:32
Коллеги, такие 2 вопроса: На GKE, когда задаю в service (type:NodePort) externalTrafficPolicy: Local то на GLB backend начинает отображаться, как UNHEALTHY (красный) и если зайти в него там же в веб консоли, то написано 1 of 2 instances healthyПри этом deployment, на который указывает этот service всего 1. Вопрос 1: почему 1 of 2? Как только убираю externalTrafficPolicy: Local (т.е. оно становится дефолтным externalTrafficPolicy: Cluster), то backend сразу становится HEALTHY. Вопрос 2: как сделать backend HEALTHY с externalTrafficPolicy: Local? Deployment и Service такие: apiVersion: apps/v1 kind: Deployment metadata: name: example-app labels: app: example-app spec: replicas: 1 selector: matchLabels: app: example-app template: metadata: labels: app: example-app spec: nodeSelector: app: '1' containers: - image: registry.gitlab.example.com/example/example:latest imagePullPolicy: Always name: example-app readinessProbe: httpGet: path: /health port: 80 ports: - containerPort: 80 name: example-http env: - name: test value: '1' imagePullSecrets: - name: regcred --- apiVersion: v1 kind: Service metadata: name: example-app spec: externalTrafficPolicy: Local type: NodePort ports: - port: 80 targetPort: 80 protocol: TCP name: example-http selector: app: example-app

Кстати, те, которые HEALTHY (т.е. с externalTrafficPolicy: Cluster) тоже 2 of 2 instances healthy пишут.

Fike
19.07.2018
12:29:00
Купил я своим програмерам 3 одинаковых макбука. Два для работы и один запасной для командировок. Специфика нашего разработческого процесса требует установки и калибровки огромного количества разного софта и скриптов и занимает часов 12 на свежем компе. Алексею так хотелось скорее начать пользовать новую машинку, что сразу после окончания рабочего дня он засел за конфигурацию новой игрушки. Просидел он, видимо, всю ночь, его обнаружили спящим в кресле перед готовым к использованию ноутом. Ребята долго не думали, забрали компьютер и поставили перед ним "запасной" макбук, на экране которого светилось сообщение: "Форматирование диска окончено. Можно начать установку операционной системы", ну или примерно так. Когда Леша проснулся, сказать, что он удивился - ничего не сказать.
зачем вы тащите несмешной контент куда попало?

M
19.07.2018
13:20:13
здрасти, я подскажите как в маке поправить кьюб конфиг из уже имеющегося ? немогу вообще найти у себя конфиг в $HOME или ~/.kube или в /etc/local/bin/ тратата kubectl config view Отвечает показывает пустышку

Alexander
19.07.2018
13:47:35
создай в ~/.kube



Алексей
19.07.2018
13:53:35
Кто стакливался с тем, что prometheus в кубере видит сервис, но рядом с endpoint стоит dropped?



Andor
19.07.2018
13:54:21
потому что у тебя вписано чтобы этот таргет дропался?

это в /targets или в /service-discovery ?

Алексей
19.07.2018
13:54:42
Andor
19.07.2018
13:54:54
вроде в /targets

Алексей
19.07.2018
13:55:01
это SD

Andor
19.07.2018
13:55:06
хм, оно в таргетс вообще не должно появиться

Алексей
19.07.2018
13:55:17
в таргетс от не появляется из за того, что все таргеты dropped

Andor
19.07.2018
13:55:44
ну конфиг смотри

релейбелинг с keep/drop

Google
Andrey
19.07.2018
13:58:29
кто отключает на nginx-ingress hsts, поднимите руку

Gleb
19.07.2018
14:02:12
Andrey
19.07.2018
14:02:37
чтобы редиректа на https не было

Yevhen
19.07.2018
14:03:12
M
19.07.2018
14:03:29
создай в ~/.kube
создать директорию и туда все сложить ?

Vadim
19.07.2018
14:03:30
кто отключает на nginx-ingress hsts, поднимите руку
А можно сразу с адресами эндпоинтов?

Andrey
19.07.2018
14:03:54
разрешаю :)

Dmitryi
19.07.2018
14:04:33
Парни, а кто-то уже пробовал использовать PodPreset в рамках AWS EKS ?

Stas
19.07.2018
14:06:18
Коллеги, такие 2 вопроса: На GKE, когда задаю в service (type:NodePort) externalTrafficPolicy: Local то на GLB backend начинает отображаться, как UNHEALTHY (красный) и если зайти в него там же в веб консоли, то написано 1 of 2 instances healthyПри этом deployment, на который указывает этот service всего 1. Вопрос 1: почему 1 of 2? Как только убираю externalTrafficPolicy: Local (т.е. оно становится дефолтным externalTrafficPolicy: Cluster), то backend сразу становится HEALTHY. Вопрос 2: как сделать backend HEALTHY с externalTrafficPolicy: Local? Deployment и Service такие: apiVersion: apps/v1 kind: Deployment metadata: name: example-app labels: app: example-app spec: replicas: 1 selector: matchLabels: app: example-app template: metadata: labels: app: example-app spec: nodeSelector: app: '1' containers: - image: registry.gitlab.example.com/example/example:latest imagePullPolicy: Always name: example-app readinessProbe: httpGet: path: /health port: 80 ports: - containerPort: 80 name: example-http env: - name: test value: '1' imagePullSecrets: - name: regcred --- apiVersion: v1 kind: Service metadata: name: example-app spec: externalTrafficPolicy: Local type: NodePort ports: - port: 80 targetPort: 80 protocol: TCP name: example-http selector: app: example-app
а какая цель всего этогл упражнения? пробросить ип клиента или что?

M
19.07.2018
14:06:42
да
cgfcb,j gjghj,e.

спасибо попробую

Valera
19.07.2018
14:08:03
а какая цель всего этогл упражнения? пробросить ип клиента или что?
Да, пробросить IP внешнего клиента до приложения.

Алексей
19.07.2018
14:16:01
хм, оно в таргетс вообще не должно появиться
оказывается в новой версии прометея нужно добавлять в spec jobLabel: k8s-app

Banschikov
19.07.2018
14:18:37
Всем привет! Снова попытаюсь задать вопрос по Helm. Использую свой репозиторий с чартами на базе S3 ( https://github.com/hypnoglow/helm-s3) Проблема следующая: Есть devel релиз app-0.1.1-dev+30. На стадии CI пушится в репозиторий новый чарт с именем "app-0.1.1-dev+31. Далее делаю следующие шаги в CI на стадии деплоя: kubectl exec -it helm-deploy-0 -n deploy -- helm repo update kubectl exec -it helm-deploy-0 -n deploy -- helm s3 reindex repo kubectl exec -it helm-deploy-0 -n deploy -- helm upgrade --install --namespace develop dev-app -f /values/dev-app.yaml myrepo/app --devel --recreate-pods Делаю helm ls и вижу что текущая версия чарта app-0.1.1-dev+30, но по факту как я понимаю должна быть app-0.1.1-dev+31. Или я чего то не понимаю, или это нормальная работа helm?

Banschikov
19.07.2018
14:41:41
По хорошему, Вам надо указывать что-то типа —values image.tag=app-0.1.1-dev+31 при апгрейде чарта
Причем тут это?) Image с нужным образом правильно скачивается)

или imagepullpolicy=always
Тут проблема Хелма

Google
Andor
19.07.2018
14:42:02
*при чём

Artem
19.07.2018
14:42:25
Причем тут это?) Image с нужным образом правильно скачивается)
Если Вы используете хелм, то накатывать свежую версию следует через helm upgrade

Banschikov
19.07.2018
14:43:12
Если Вы используете хелм, то накатывать свежую версию следует через helm upgrade
Блин, а для кого я выше писал сообщение?) Что по вашему я еще использую)

*при чём
Смотря в каких случаях https://ru.m.wiktionary.org/wiki/%D0%BF%D1%80%D0%B8%D1%87%D1%91%D0%BC

Andor
19.07.2018
14:44:33
Artem
19.07.2018
14:44:33
Значит что-то Вы делаете не так

Stas
19.07.2018
14:46:13
Да, пробросить IP внешнего клиента до приложения.
ну все правильно происходит же. нод порт открывает тебе на каждой ноде порт для сервиса, но ендпоинт (то есть сам под с сервисом) есть не на каждрй ноде кластера. При выключенной политике локал разрешена балансировка между нодами, т.е. куб прокси отправит траффик на тут ноду на которой под есть, но при этом будет снат. Так как политика включена, то гугловый балансер чекает наличие эндпоинта на нодах и те на которых его нет помечает как зафейливших хелсчек

Banschikov
19.07.2018
14:46:21
Значит что-то Вы делаете не так
Артем, вы просто капитан очевидность! Если бы я делал все правильно, я бы не стал сюда писать)

Artem
19.07.2018
14:47:01
ЗАчем Вы пишите новый чарт?

Banschikov
19.07.2018
14:47:36
ЗАчем Вы пишите новый чарт?
Что? Не совсем понял, какой новый чарт?

Artem
19.07.2018
14:48:06
На стадии CI пушится в репозиторий новый чарт

Banschikov
19.07.2018
14:53:21
На стадии CI пушится в репозиторий новый чарт
К вопросу не имеет отношения, но объясню. Разработчик делает пуш с тегом. На стадит выше в пайплайне запускается сценарии на python с symver и вытягивает тег. Если тег новый он вставляет в чарт и добавляется этот тэг имейдж. И получается app-0-1.2. Если тег старый или пуш без тэга, то берется последниц тег, плюсуется к немут+1 и добовляем piplineID. Потом это дело пушим репу и переходим на стадию деплоя

Banschikov
19.07.2018
15:03:03
потому что пока вы в chart.yaml версию самого чарта не бампните у вас автоматом по имени чарта или по апп версии ничего не бампнится
Стэйджи в пайплане stages: - build - release - packaging - deploy На стадии packaging просиходит создание чарта. Версия, image tag и т.д. Потом делается пуш в репозитории и в конце helm s3 reindex. После этого этого начинается стадия deploy . Делаю helm repo search и вижу последняя версия app-0.1.1-dev+30 ? Дальше смотрю helm repo -l и вижу app-0.1.1-dev+31 и app-0.1.1-dev+30 есть. Вопрос почему он последней версией считает pp-0.1.1-dev+30 , а не app-0.1.1-dev+301 ? Есть подозрение что это бага плагина

Stas
19.07.2018
15:08:22
не уверен что туда думаю, но может попробовать плюсик на нижнее подчеркивание заменить?

Stas
19.07.2018
15:11:10
написано что он в лейблах меняет плюсы на нижнее подчеркивание

Banschikov
19.07.2018
15:12:19
написано что он в лейблах меняет плюсы на нижнее подчеркивание
Я знаю. Но лэйблы то тут причем? Не совсем просто понимаю

Google
Stas
19.07.2018
15:14:05
я не знаю как работает кухня плагинаи что он делает кроме хранения. я бы развернул чартмузеум и провел бы тот же самый эксперимент на нем

Banschikov
19.07.2018
15:15:36
Stas
19.07.2018
15:27:02
ну он и пробрасывается на ту ноду на которой есть под

а на ту на которой нет не пробрасывается потому что она хелчек фейлит

или у тебя обе ноды в одной инстанс группе и она же бекенд?

Valera
19.07.2018
15:34:39
Ноды в разных node-pools. Когда фейлится healthcheck, то красным в консоли весь бэкэнд горит. Не красиво. И разве в этом случае GLB не перестаёт роутить трафик туда и отдавать 500 клиенту?

Как сделать красиво-то? :)

Stas
19.07.2018
15:35:47
да не может у тебя быть бэкенд хэлси если там эндпоинта нет

сделай демонсет - будет красиво

будет эндпоинт на каждой ноде

Valera
19.07.2018
15:38:08
У меня есть ноды в кластере для других целей совсем, я не хочу, чтобы там app крутились вообще. Поэтому и разные node-pool'ы.

По сути разделение есть на app и db ноды.

Stas
19.07.2018
15:39:58
покажи конфиг балансировщика

Corleone
19.07.2018
16:01:43
Приветствую всех. Есть докер образ, который должен открывать много udp портов. Возможно ли в k8s через сервис сделать доступ к этому множеству портов (диапазон) что бы не описывать вручную?

Есть мысль сделать цикл и через helm это дело прогнать

Страница 691 из 958