
Артамонов Игорь
19.07.2018
09:59:27

Mikhail
19.07.2018
10:00:24

Артамонов Игорь
19.07.2018
10:01:12

Konstantin
19.07.2018
10:04:02
Ребята, подскажите самый человечный способ заставить поды DaemonSet'a перечитать configMap

Google

Vadim
19.07.2018
10:07:49
скейлить до нуля и обратно

Andor
19.07.2018
10:09:46
daemonset скейлить?

Konstantin
19.07.2018
10:10:38
Я вот пока ничего, кроме удаления подов не придумал

Vadim
19.07.2018
10:12:51

Dmytro
19.07.2018
10:30:48
удалить поды по label

Konstantin
19.07.2018
10:34:46
В общем без удаления пока никак, видимо
Ладно, всем спасибо

Dmytro
19.07.2018
10:35:40
если приложение умное и умеет по сигналу перечитывать конфиг - зайти в каждый контейнер послать сигнал
ну или зайти внутрь каждого контейнера рестатртануть приложение что по сути равноценно удалению пода.
а какие еще варианты?

Denis
19.07.2018
10:36:28
Всем привет. Народ, подскажите, пожалуйста, кто как делает. Развернул себе мультимастер кластер (из 3 мастеров) на кубе, все на vps, кластер работает. Вопрос, кто как создает единую точку входа? Типа снаружи nginx как load balancer, а на его айпишник уже dns? Чет в голове не могу 2 + 2 сложить...

Artem
19.07.2018
10:36:32
Вроде есть на это полиси

Igor
19.07.2018
10:37:32
nginx ingress controller поставь

Google

Denis
19.07.2018
10:38:16
Такс, он у меня уже есть, походу я что то не докурил)

Vadim
19.07.2018
10:38:17

Denis
19.07.2018
10:38:51
В общем, спасибо за наводку)


Valera
19.07.2018
10:59:32
Коллеги, такие 2 вопроса:
На GKE, когда задаю в service (type:NodePort) externalTrafficPolicy: Local то на GLB backend начинает отображаться, как UNHEALTHY (красный) и если зайти в него там же в веб консоли, то написано 1 of 2 instances healthyПри этом deployment, на который указывает этот service всего 1.
Вопрос 1: почему 1 of 2?
Как только убираю externalTrafficPolicy: Local (т.е. оно становится дефолтным externalTrafficPolicy: Cluster), то backend сразу становится HEALTHY.
Вопрос 2: как сделать backend HEALTHY с externalTrafficPolicy: Local?
Deployment и Service такие:
apiVersion: apps/v1
kind: Deployment
metadata:
name: example-app
labels:
app: example-app
spec:
replicas: 1
selector:
matchLabels:
app: example-app
template:
metadata:
labels:
app: example-app
spec:
nodeSelector:
app: '1'
containers:
- image: registry.gitlab.example.com/example/example:latest
imagePullPolicy: Always
name: example-app
readinessProbe:
httpGet:
path: /health
port: 80
ports:
- containerPort: 80
name: example-http
env:
- name: test
value: '1'
imagePullSecrets:
- name: regcred
---
apiVersion: v1
kind: Service
metadata:
name: example-app
spec:
externalTrafficPolicy: Local
type: NodePort
ports:
- port: 80
targetPort: 80
protocol: TCP
name: example-http
selector:
app: example-app
Кстати, те, которые HEALTHY (т.е. с externalTrafficPolicy: Cluster) тоже 2 of 2 instances healthy пишут.


Fike
19.07.2018
12:29:00


M
19.07.2018
13:20:13
здрасти, я подскажите как в маке поправить кьюб конфиг из уже имеющегося ? немогу вообще найти у себя конфиг в $HOME или ~/.kube или в /etc/local/bin/ тратата
kubectl config view Отвечает показывает пустышку

Alexander
19.07.2018
13:47:35
создай в ~/.kube

Алексей
19.07.2018
13:53:35
Кто стакливался с тем, что prometheus в кубере видит сервис, но рядом с endpoint стоит dropped?

Andor
19.07.2018
13:54:21
потому что у тебя вписано чтобы этот таргет дропался?
это в /targets или в /service-discovery ?

Алексей
19.07.2018
13:54:42

Andor
19.07.2018
13:54:54
вроде в /targets

Алексей
19.07.2018
13:55:01
это SD

Andor
19.07.2018
13:55:06
хм, оно в таргетс вообще не должно появиться

Алексей
19.07.2018
13:55:17
в таргетс от не появляется из за того, что все таргеты dropped

Andor
19.07.2018
13:55:44
ну конфиг смотри
релейбелинг с keep/drop

Google

Andrey
19.07.2018
13:58:29
кто отключает на nginx-ingress hsts, поднимите руку

Gleb
19.07.2018
14:02:12

Andrey
19.07.2018
14:02:37
чтобы редиректа на https не было

Yevhen
19.07.2018
14:03:12

M
19.07.2018
14:03:29

Vadim
19.07.2018
14:03:30

Andrey
19.07.2018
14:03:54
разрешаю :)

Dmitryi
19.07.2018
14:04:33
Парни, а кто-то уже пробовал использовать PodPreset в рамках AWS EKS ?

Stas
19.07.2018
14:06:18


Alexander
19.07.2018
14:06:29

M
19.07.2018
14:06:42
спасибо попробую

Valera
19.07.2018
14:08:03

Алексей
19.07.2018
14:16:01

Banschikov
19.07.2018
14:18:37
Всем привет! Снова попытаюсь задать вопрос по Helm.
Использую свой репозиторий с чартами на базе S3 ( https://github.com/hypnoglow/helm-s3)
Проблема следующая: Есть devel релиз app-0.1.1-dev+30. На стадии CI пушится в репозиторий новый чарт с именем "app-0.1.1-dev+31.
Далее делаю следующие шаги в CI на стадии деплоя:
kubectl exec -it helm-deploy-0 -n deploy -- helm repo update
kubectl exec -it helm-deploy-0 -n deploy -- helm s3 reindex repo
kubectl exec -it helm-deploy-0 -n deploy -- helm upgrade --install --namespace develop dev-app -f /values/dev-app.yaml myrepo/app --devel --recreate-pods
Делаю helm ls и вижу что текущая версия чарта app-0.1.1-dev+30, но по факту как я понимаю должна быть app-0.1.1-dev+31. Или я чего то не понимаю, или это нормальная работа helm?

Andor
19.07.2018
14:24:05

Artem
19.07.2018
14:39:23
или imagepullpolicy=always

Banschikov
19.07.2018
14:41:41

Google

Andor
19.07.2018
14:42:02
*при чём

Artem
19.07.2018
14:42:25

Banschikov
19.07.2018
14:43:12
*при чём
Смотря в каких случаях
https://ru.m.wiktionary.org/wiki/%D0%BF%D1%80%D0%B8%D1%87%D1%91%D0%BC

Andor
19.07.2018
14:44:33

Artem
19.07.2018
14:44:33
Значит что-то Вы делаете не так

Stas
19.07.2018
14:46:13
Да, пробросить IP внешнего клиента до приложения.
ну все правильно происходит же. нод порт открывает тебе на каждой ноде порт для сервиса, но ендпоинт (то есть сам под с сервисом) есть не на каждрй ноде кластера. При выключенной политике локал разрешена балансировка между нодами, т.е. куб прокси отправит траффик на тут ноду на которой под есть, но при этом будет снат. Так как политика включена, то гугловый балансер чекает наличие эндпоинта на нодах и те на которых его нет помечает как зафейливших хелсчек

Banschikov
19.07.2018
14:46:21

Artem
19.07.2018
14:47:01
ЗАчем Вы пишите новый чарт?

Banschikov
19.07.2018
14:47:36

Artem
19.07.2018
14:48:06
На стадии CI пушится в репозиторий новый чарт

Banschikov
19.07.2018
14:53:21
На стадии CI пушится в репозиторий новый чарт
К вопросу не имеет отношения, но объясню.
Разработчик делает пуш с тегом. На стадит выше в пайплайне запускается сценарии на python с symver и вытягивает тег. Если тег новый он вставляет в чарт и добавляется этот тэг имейдж.
И получается app-0-1.2.
Если тег старый или пуш без тэга, то берется последниц тег, плюсуется к немут+1 и добовляем piplineID. Потом это дело пушим репу и переходим на стадию деплоя

Stas
19.07.2018
14:54:53
потому что пока вы в chart.yaml версию самого чарта не бампните у вас автоматом по имени чарта или по апп версии ничего не бампнится

Banschikov
19.07.2018
15:03:03

Stas
19.07.2018
15:08:22
не уверен что туда думаю, но может попробовать плюсик на нижнее подчеркивание заменить?

Banschikov
19.07.2018
15:09:41

Stas
19.07.2018
15:11:10
написано что он в лейблах меняет плюсы на нижнее подчеркивание

Banschikov
19.07.2018
15:12:19

Google

Stas
19.07.2018
15:14:05
я не знаю как работает кухня плагинаи что он делает кроме хранения. я бы развернул чартмузеум и провел бы тот же самый эксперимент на нем

Banschikov
19.07.2018
15:15:36


Valera
19.07.2018
15:25:56
ну все правильно происходит же. нод порт открывает тебе на каждой ноде порт для сервиса, но ендпоинт (то есть сам под с сервисом) есть не на каждрй ноде кластера. При выключенной политике локал разрешена балансировка между нодами, т.е. куб прокси отправит траффик на тут ноду на которой под есть, но при этом будет снат. Так как политика включена, то гугловый балансер чекает наличие эндпоинта на нодах и те на которых его нет помечает как зафейливших хелсчек
То, что происходит правильно, т.е. так, как куб просили, я не сомневаюсь :) А как сделать так, как мне нужно-то? :) Т.е. чтобы пробросить трафик по доке для GKE с GLB на гугл ingress и далее, нужно для сервиса использовать NodePort + externalTrafficPolicy: Local..

Stas
19.07.2018
15:27:02
ну он и пробрасывается на ту ноду на которой есть под
а на ту на которой нет не пробрасывается потому что она хелчек фейлит
или у тебя обе ноды в одной инстанс группе и она же бекенд?

Valera
19.07.2018
15:34:39
Ноды в разных node-pools. Когда фейлится healthcheck, то красным в консоли весь бэкэнд горит. Не красиво. И разве в этом случае GLB не перестаёт роутить трафик туда и отдавать 500 клиенту?
Как сделать красиво-то? :)

Stas
19.07.2018
15:35:47
да не может у тебя быть бэкенд хэлси если там эндпоинта нет
сделай демонсет - будет красиво
будет эндпоинт на каждой ноде

Valera
19.07.2018
15:38:08
У меня есть ноды в кластере для других целей совсем, я не хочу, чтобы там app крутились вообще. Поэтому и разные node-pool'ы.
По сути разделение есть на app и db ноды.

Stas
19.07.2018
15:39:58
покажи конфиг балансировщика

Corleone
19.07.2018
16:01:43
Приветствую всех. Есть докер образ, который должен открывать много udp портов. Возможно ли в k8s через сервис сделать доступ к этому множеству портов (диапазон) что бы не описывать вручную?
Есть мысль сделать цикл и через helm это дело прогнать