@kubernetes_ru

Страница 577 из 958
Andor
23.05.2018
11:27:37
короче есть у меня деплоймент с replicas: 4 и рядом с ним я добавляю HorisontalPodAutoscaler с min: 2, max: 6

оно будет переключаться на 4 при каждом деплое, да?

Anton
23.05.2018
11:34:09
есть пользователи skipper ingress controller? https://opensource.zalando.com/skipper/kubernetes/ingress-usage/ начал гуглить по поводу canary и весов для апстримов, чтобы отдавать маленький процент входящих запросов, а не долями по репликам, наткнулся на эту реализацию

Google
Stanislav
23.05.2018
11:36:29
кто нибудь сталкивался при деплое из гитлаба с помощью хелма? User "system:serviceaccount:zalupa:default" cannot create pods/portforward in the namespace "kube-system"

у самого service accout админские права на свой namespace

Andor
23.05.2018
11:37:07
имя так себе

Anton
23.05.2018
11:37:22
ты делаешь helm init?

Andrey
23.05.2018
11:37:29
Тебе нужно засунуть туда тиллер и указывать —tiller-namespace или переменную TILLER_NAMESPACE

Stanislav
23.05.2018
11:37:30
ты делаешь helm init?
Делал и с ним и без него

похуй

Anton
23.05.2018
11:38:19
helm через port-foward общается с tiller?

Stanislav
23.05.2018
11:38:38
Тебе нужно засунуть туда тиллер и указывать —tiller-namespace или переменную TILLER_NAMESPACE
Так tiller у меня в kube-system, его надо в каждый namespace Отдельно ставить?

Andrey
23.05.2018
11:39:16
Вообще не надо, но это хороший способ ограничить его сферу деятельности отдельным неймспейсом

Stanislav
23.05.2018
11:39:30
А если не надо, то как получить к нему доступ?

Anton
23.05.2018
11:40:34
разрешить port-forward в kube-system?

Google
Konstantin
23.05.2018
11:40:36
А если не надо, то как получить к нему доступ?
расширить права юзера на неймспейс с тиллером

Andrey
23.05.2018
11:40:36
Stanislav
23.05.2018
11:41:01
расширить права юзера на неймспейс с тиллером
Ну это совсем не канает, это же kube-system

неужели к нему нельзя обратить по api как то? только доступ к NS ?

Konstantin
23.05.2018
11:43:24
Ну это совсем не канает, это же kube-system
необязательно ему давать права на создание и удаление подов. выше верно про порт-форвард права писали

клиент хельма при старте лезет в тиллер через туннель, без этого никак не обойтись, увы

Stanislav
23.05.2018
11:44:24
печаль беда(

А кто напомнит где посмотреть RBAC лог?

Konstantin
23.05.2018
11:45:13
можно сделать отдельный неймспейс под тиллер и все, успех будет

Stanislav
23.05.2018
11:45:15
Чтобы увидеть какие права запрашиваются

ааа, понял

и полный доступ дать, как вариант

Konstantin
23.05.2018
11:45:53
под каждый проект?*
нет жи. просто отдельный нс для тиллера и дать туда пермишен на порт-форвард

и полный доступ дать, как вариант
нет, не полный. только на порт-форвард и, кажется, гет подов

Stanislav
23.05.2018
11:46:24
Konstantin
23.05.2018
11:46:30
Stanislav
23.05.2018
12:05:41
велкам!
Зороботоло! Может кому пригодится: kind: ClusterRole apiVersion: rbac.authorization.k8s.io/v1 metadata: name: tiller-ops rules: - apiGroups: [""] resources: ["pods"] verbs: ["get", "list", "watch"] - apiGroups: [""] resources: ["pods/portforward"] verbs: ["*"] kubectl create clusterrolebinding thepit-tiller-ops —clusterrole=tiller-ops —serviceaccount=namespace:default —namespace=tiller

Andor
23.05.2018
12:06:07
почитал в Kubernetes in action главу про HPA и там тоже этот вопрос не раскрыт

короче есть у меня деплоймент с replicas: 4 и рядом с ним я добавляю HorisontalPodAutoscaler с min: 2, max: 6

Google
Andor
23.05.2018
12:06:07
оно будет переключаться на 4 при каждом деплое, да?

вопрос точнее в том, что с этим делать например у меня в деплойменте было 2 реплики, а HPA мне их поднял до 6 вот я обновляю например сервис и оно мне снова делает 2 и какое-то время 2 штуки и будет висеть же? как сделать чтобы сохранялось старое значение?

Dmitriy
23.05.2018
12:13:17
Какие есть варианты шаблонизации деплоя, кроме Helm?

Andor
23.05.2018
12:13:42
тысячи их

Stanislav
23.05.2018
12:13:54
тысячи их
И одновременно нихуя)

Все гавно, как не посмотри

Andor
23.05.2018
12:14:10
:'(

вот зачем ты сразу по больному?

Anton
23.05.2018
12:14:39
Stanislav
23.05.2018
12:15:31
Я даже подумываю реально чтото свое писать, ибо это вообще треш какой то

чтоб было 1001

Алексей
23.05.2018
12:16:35
ты обнаружил в них "критический недостаток"?

Stanislav
23.05.2018
12:18:19
ты обнаружил в них "критический недостаток"?
Да, ими совершенно невозможно пользоваться и неудобно автоматизировать

Mikhail
23.05.2018
12:21:31
dapp?

Опять же, всегда можно пулреквестить

Andor
23.05.2018
12:56:26
вопрос точнее в том, что с этим делать например у меня в деплойменте было 2 реплики, а HPA мне их поднял до 6 вот я обновляю например сервис и оно мне снова делает 2 и какое-то время 2 штуки и будет висеть же? как сделать чтобы сохранялось старое значение?
выяснил экспериментом: при применении манифеста деплоя стопудов будет применено то значение replicas которое указано, так что надо делать deployment.spec.replicas == HPA.spec.maxReplicas и всё будет ок

во время деплоя если у тебя есть нагрузка, то будет много реплик, но HPA потом отдаунскейлит

ну то есть поведение очевидное

Mikhail
23.05.2018
13:00:20
Спасибо

Рустамыч
23.05.2018
13:22:40
коллеги кто нибудь знает как в ingress запроксировать tcp в данном случаи redis ?

Google
Andor
23.05.2018
13:23:42
https://github.com/kubernetes/contrib/tree/master/ingress/controllers/nginx/examples/tcp ?

и для UDP https://github.com/kubernetes/contrib/tree/master/ingress/controllers/nginx/examples/udp

Рустамыч
23.05.2018
13:27:56
что то я самого kind: ingress там вообще не вижу

Konstantin
23.05.2018
13:34:29
что то я самого kind: ingress там вообще не вижу
правильно, потому что ингресс очень специфичная штука) по сути это балансер который по некоторым правилам (http host:port, http path) определяет куда пустить запрос. и вот таки куда он его пустит, если это не http? ?

Konstantin
23.05.2018
13:36:19
https://github.com/kubernetes/ingress-nginx/blob/master/docs/examples/grpc/ingress.yaml

вообще я бы попробовал вот с такого чего-то начать)

Рустамыч
23.05.2018
13:42:20
хорошо, можно и без ingress по сути я за него зацепился только потому что редис клиенты не могут достучаться до редис сервера потому что в service меняется метка которая указывает на мастер и соответственно меняется ip на pod у клиента остается ip В кэше и он так и продолжает на него стучаться. В общем надо что бы был один постоянный ip как единая точка входа. Можно ли на service повесить постоянный ip ?

Anton
23.05.2018
13:58:44
access_ip можно задать в ini. проверить можно в обратную сторону через чтение плейбука, думаю найти место где он генерит серты не сложно
добавил для 3-х нод из пяти, на каком-то этапе установка завалилась именно на этих трех нодах. Какая-то там проблема с доступностью

access_ip можно задать в ini. проверить можно в обратную сторону через чтение плейбука, думаю найти место где он генерит серты не сложно
добавил для 3-х нод из пяти, на каком-то этапе установка завалилась именно из-за этих трех нод. Какая-то проблема с их доступностью.

Andrey
23.05.2018
14:02:50
добавил для 3-х нод из пяти, на каком-то этапе установка завалилась именно на этих трех нодах. Какая-то там проблема с доступностью
access_ip менять не надо. Я же правильно понимаю, что изначально проблема с доступом к кластеру извне?

Anton
23.05.2018
14:04:21
да

Andrey
23.05.2018
14:06:13
да
значит вам подойдет вернуть все взад и прописать адрес в списке, который я упомянул выше. Кстати, домены туда тоже вносить можно

Anton
23.05.2018
14:07:18
да, спасибо, пробую это сейчас

Anton
23.05.2018
14:09:37
есть ли (простой) способ научить kubespray самостоятельно отключать swap?

Andrey
23.05.2018
14:11:07
есть ли (простой) способ научить kubespray самостоятельно отключать swap?
https://github.com/kubernetes/contrib/blob/master/ansible/roles/node/tasks/swapoff.yml

Google
Anton
23.05.2018
14:12:11
хм, как же оно у меня не загрепалось по "swapoff"... ок спасибо

Andrey
23.05.2018
14:13:00
хм, как же оно у меня не загрепалось по "swapoff"... ок спасибо
в kubespray этого и нет, но кто мешает добавить туда эту роль?

Anton
23.05.2018
14:13:50
а, не обратил внимания не репозиторий

Andrey
23.05.2018
14:21:12
А кто-нибудь пробовал cri-o серьезно использовать? Как оно?

Yuri
23.05.2018
14:36:48
подскажите, пожалуйста, по поводу gce ingress. настроен Pod и NodePort сервис. К ним подключен Ingress apiVersion: extensions/v1beta1 kind: Ingress metadata: name: my-ingress annotations: kubernetes.io/ingress.global-static-ip-name: my-ip kubernetes.io/ingress.class: gce labels: app: mailhog spec: rules: - host: mailhog.domain http: paths: - path: / backend: serviceName: mailhog-backend servicePort: 8025 при закуске HTML отлично отдаёт, а image/*, JS и CSS обрезаются 404

Yuri
23.05.2018
16:49:11
а в логах ингресса и контейнера что?
Ingress чтобы терминировать много сервисов, TLS и т.п. Просто тестирую пока на одном

Dmytro
23.05.2018
16:53:17
так я и говорю, а что в логах ингресса при запросе на .css? и что в логах самого контейнера?

или у gce ingress нет логов? у меня nginx который и там все можно продебажить, как обычный нжинкс

Yuri
23.05.2018
17:04:52
Контейнер mailhog не имеет логов. Видимо нужно подключить ещё nginx контейнер для отладки

Dmytro
23.05.2018
17:06:40
а что такое mailhog? он вообще умеет сам статику отдавать, может там еще нжинкс надо сбоку поставить?

zigmund
23.05.2018
17:11:22
а что такое mailhog? он вообще умеет сам статику отдавать, может там еще нжинкс надо сбоку поставить?
Это типа мок почтовика. smtp, принимает почту. Потом через веб или апи можно письма проверить.

Dmytro
23.05.2018
17:21:59
погуглил, нашел вот эту страницу https://github.com/mailhog/MailHog/blob/master/docs/CONFIG.md а что написано в MH_UI_WEB_PATH ?

Dmytro
23.05.2018
21:40:25
ах да, там же в гугловском ингресс звездочку надо везде пихать - это даже в дкоументации написано и куча срача была на эту тему в багтрекере что ингресс правила не унифицированы между ингресс контроллерами

Страница 577 из 958