
Banschikov
23.05.2018
09:54:07

Andor
23.05.2018
11:27:37
короче есть у меня деплоймент с replicas: 4 и рядом с ним я добавляю HorisontalPodAutoscaler с min: 2, max: 6
оно будет переключаться на 4 при каждом деплое, да?

Anton
23.05.2018
11:34:09
есть пользователи skipper ingress controller?
https://opensource.zalando.com/skipper/kubernetes/ingress-usage/
начал гуглить по поводу canary и весов для апстримов, чтобы отдавать маленький процент входящих запросов, а не долями по репликам, наткнулся на эту реализацию

Google

Stanislav
23.05.2018
11:36:29
кто нибудь сталкивался при деплое из гитлаба с помощью хелма?
User "system:serviceaccount:zalupa:default" cannot create pods/portforward in the namespace "kube-system"
у самого service accout админские права на свой namespace

Andor
23.05.2018
11:37:07
имя так себе

Anton
23.05.2018
11:37:22
ты делаешь helm init?

Andrey
23.05.2018
11:37:29
Тебе нужно засунуть туда тиллер и указывать —tiller-namespace или переменную TILLER_NAMESPACE

Stanislav
23.05.2018
11:37:30
похуй

Anton
23.05.2018
11:38:19
helm через port-foward общается с tiller?

Andrey
23.05.2018
11:38:32

Stanislav
23.05.2018
11:38:38

Andrey
23.05.2018
11:39:16
Вообще не надо, но это хороший способ ограничить его сферу деятельности отдельным неймспейсом

Stanislav
23.05.2018
11:39:30
А если не надо, то как получить к нему доступ?

Anton
23.05.2018
11:40:34
разрешить port-forward в kube-system?

Google

Konstantin
23.05.2018
11:40:36

Andrey
23.05.2018
11:40:36

Stanislav
23.05.2018
11:41:01
неужели к нему нельзя обратить по api как то? только доступ к NS ?

Konstantin
23.05.2018
11:43:24
клиент хельма при старте лезет в тиллер через туннель, без этого никак не обойтись, увы

Stanislav
23.05.2018
11:44:24
печаль беда(
А кто напомнит где посмотреть RBAC лог?

Konstantin
23.05.2018
11:45:13
можно сделать отдельный неймспейс под тиллер и все, успех будет

Stanislav
23.05.2018
11:45:15
Чтобы увидеть какие права запрашиваются
ааа, понял
и полный доступ дать, как вариант

Konstantin
23.05.2018
11:45:53
под каждый проект?*
нет жи. просто отдельный нс для тиллера и дать туда пермишен на порт-форвард

Stanislav
23.05.2018
11:46:24

Konstantin
23.05.2018
11:46:30

Stanislav
23.05.2018
12:05:41
велкам!
Зороботоло!
Может кому пригодится:
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: tiller-ops
rules:
- apiGroups: [""]
resources: ["pods"]
verbs: ["get", "list", "watch"]
- apiGroups: [""]
resources: ["pods/portforward"]
verbs: ["*"]
kubectl create clusterrolebinding thepit-tiller-ops —clusterrole=tiller-ops —serviceaccount=namespace:default —namespace=tiller

Andor
23.05.2018
12:06:07
почитал в Kubernetes in action главу про HPA и там тоже этот вопрос не раскрыт
короче есть у меня деплоймент с replicas: 4 и рядом с ним я добавляю HorisontalPodAutoscaler с min: 2, max: 6

Google

Andor
23.05.2018
12:06:07
оно будет переключаться на 4 при каждом деплое, да?
вопрос точнее в том, что с этим делать
например у меня в деплойменте было 2 реплики, а HPA мне их поднял до 6
вот я обновляю например сервис и оно мне снова делает 2 и какое-то время 2 штуки и будет висеть же? как сделать чтобы сохранялось старое значение?

Dmitriy
23.05.2018
12:13:17
Какие есть варианты шаблонизации деплоя, кроме Helm?

Andor
23.05.2018
12:13:42
тысячи их

Stanislav
23.05.2018
12:13:54
Все гавно, как не посмотри

Andor
23.05.2018
12:14:10
:'(
вот зачем ты сразу по больному?

Anton
23.05.2018
12:14:39

Stanislav
23.05.2018
12:15:31
Я даже подумываю реально чтото свое писать, ибо это вообще треш какой то
чтоб было 1001

Алексей
23.05.2018
12:16:35
ты обнаружил в них "критический недостаток"?

Stanislav
23.05.2018
12:18:19

Mikhail
23.05.2018
12:21:31
dapp?
Опять же, всегда можно пулреквестить

Andor
23.05.2018
12:56:26
во время деплоя если у тебя есть нагрузка, то будет много реплик, но HPA потом отдаунскейлит
ну то есть поведение очевидное

Mikhail
23.05.2018
13:00:20
Спасибо

Рустамыч
23.05.2018
13:22:40
коллеги кто нибудь знает как в ingress запроксировать tcp в данном случаи redis ?

Google

Andor
23.05.2018
13:23:42
https://github.com/kubernetes/contrib/tree/master/ingress/controllers/nginx/examples/tcp ?
и для UDP https://github.com/kubernetes/contrib/tree/master/ingress/controllers/nginx/examples/udp

Рустамыч
23.05.2018
13:27:56
что то я самого kind: ingress там вообще не вижу

Konstantin
23.05.2018
13:34:29
что то я самого kind: ingress там вообще не вижу
правильно, потому что ингресс очень специфичная штука) по сути это балансер который по некоторым правилам (http host:port, http path) определяет куда пустить запрос. и вот таки куда он его пустит, если это не http? ?

Рустамыч
23.05.2018
13:35:15

Konstantin
23.05.2018
13:36:19
https://github.com/kubernetes/ingress-nginx/blob/master/docs/examples/grpc/ingress.yaml
вообще я бы попробовал вот с такого чего-то начать)

Andor
23.05.2018
13:36:36

Рустамыч
23.05.2018
13:42:20
хорошо, можно и без ingress по сути я за него зацепился только потому что редис клиенты не могут достучаться до редис сервера потому что в service меняется метка которая указывает на мастер и соответственно меняется ip на pod у клиента остается ip В кэше и он так и продолжает на него стучаться. В общем надо что бы был один постоянный ip как единая точка входа. Можно ли на service повесить постоянный ip ?

Anton
23.05.2018
13:58:44

Andrey
23.05.2018
14:00:21

Konstantin
23.05.2018
14:02:28

Andrey
23.05.2018
14:02:50

Anton
23.05.2018
14:04:21
да

Andrey
23.05.2018
14:06:13
да
значит вам подойдет вернуть все взад и прописать адрес в списке, который я упомянул выше. Кстати, домены туда тоже вносить можно

Anton
23.05.2018
14:07:18
да, спасибо, пробую это сейчас

Рустамыч
23.05.2018
14:07:29

Anton
23.05.2018
14:09:37
есть ли (простой) способ научить kubespray самостоятельно отключать swap?

Andrey
23.05.2018
14:11:07

Google

Anton
23.05.2018
14:12:11
хм, как же оно у меня не загрепалось по "swapoff"... ок спасибо

Andrey
23.05.2018
14:13:00

Anton
23.05.2018
14:13:50
а, не обратил внимания не репозиторий

Andrey
23.05.2018
14:21:12
А кто-нибудь пробовал cri-o серьезно использовать? Как оно?

Yuri
23.05.2018
14:36:48
подскажите, пожалуйста, по поводу gce ingress.
настроен Pod и NodePort сервис. К ним подключен Ingress
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: my-ingress
annotations:
kubernetes.io/ingress.global-static-ip-name: my-ip
kubernetes.io/ingress.class: gce
labels:
app: mailhog
spec:
rules:
- host: mailhog.domain
http:
paths:
- path: /
backend:
serviceName: mailhog-backend
servicePort: 8025
при закуске HTML отлично отдаёт, а image/*, JS и CSS обрезаются 404

Dmytro
23.05.2018
16:19:46

Yuri
23.05.2018
16:49:11

Dmytro
23.05.2018
16:53:17
так я и говорю, а что в логах ингресса при запросе на .css? и что в логах самого контейнера?
или у gce ingress нет логов? у меня nginx который и там все можно продебажить, как обычный нжинкс

Yuri
23.05.2018
17:04:52
Контейнер mailhog не имеет логов. Видимо нужно подключить ещё nginx контейнер для отладки

Dmytro
23.05.2018
17:06:40
а что такое mailhog? он вообще умеет сам статику отдавать, может там еще нжинкс надо сбоку поставить?

zigmund
23.05.2018
17:11:22

Dmytro
23.05.2018
17:21:59
погуглил, нашел вот эту страницу
https://github.com/mailhog/MailHog/blob/master/docs/CONFIG.md
а что написано в MH_UI_WEB_PATH ?

Oleg
23.05.2018
21:10:15

Dmytro
23.05.2018
21:40:25
ах да, там же в гугловском ингресс звездочку надо везде пихать - это даже в дкоументации написано и куча срача была на эту тему в багтрекере что ингресс правила не унифицированы между ингресс контроллерами