@kubernetes_ru

Страница 567 из 958
Sergey
16.05.2018
10:21:14
ну и будут они те же кнопки штырить

только все будет секурна

Andrey
16.05.2018
10:49:00
Ребят, вопрос по nginx ingress (тот что кубовый), как к создаваемому конфигу ингресса добавить свой сниппет? У меня там секция с access_by_lua_file реализующая SSO через crowd. Или переписать логику и сделать через oauth-external-auth?

Anton
16.05.2018
11:48:33
или задать свой шаблон конфигурации через configmap

Google
Andrey
16.05.2018
11:56:30
для ingress сервиса? тогда получится что сам сервис должен иметь nginx прослойку и заботиться об авторизации. А есть, к примеру prometheus, который можно было бы так закрыть и было бы удобно

Andrey
16.05.2018
12:15:55
немного саморекламы. Написал ansible playbook для разворачивания rancher 2 (официальный только для 1.6) - кому интересно - пользуйтесь, пишите отзывы на github https://github.com/gorilych/rancher-ansible

Andrey
16.05.2018
12:19:31
https://github.com/kubernetes/ingress-nginx/blob/master/docs/user-guide/nginx-configuration/custom-template.md
И как мне это поможет создавая ingress для prometheus?

Anton
16.05.2018
12:23:21
берешь шаблон, добавляешь в него свою часть. деплоишь теперь с этим новым шаблоном в одном неймспейсе с мониторингом с привязкой к одной ноде или externalIP сервис пилишь для ингреса, в общем публикуешь как то его и удостоверяешься что он следит только за ресурсами в нужном неймспейсе. профит - у тебя ингресс, который слушает там, где ты хочешь и содержит нужную тебе конфигурацию.

Andrey
16.05.2018
13:20:21
Смахивает на велосипед)

Sergey
16.05.2018
13:20:46
ну если велосипед, значит гуглите:)

Anton
16.05.2018
13:50:10
Смахивает на велосипед)
имхо прямой способ модификации

раз вам нужен ваш велосипед с sso

Andrey
16.05.2018
13:50:46
Более прямым, имхо, выглядит использование oauth

Просто предварительно уточнил, что в аннотациях ingress нельзя указать include (или сделать что-то подобное)

Anton
16.05.2018
13:52:07
только то, что позволяет шаблон

Denis
16.05.2018
14:21:23
ребятки вопрос по ETCD - есть git репа в которой хранятся конфы сервера Х и Y ... , как можно заставить ETCD дергать репу раз в Х минут и обновлять конф ( или чтобы хук коммит дергал апдэйт)

Google
Denis
16.05.2018
14:23:41
ну я тереотически понимаю что можно или пушить или пулить - а бест практис что ?

может есть какой то готовый солюшн

bebebe
16.05.2018
14:25:40
ну я тереотически понимаю что можно или пушить или пулить - а бест практис что ?
вам оркестрация нужна, или сам метод заливки "гит репы" в etcd?

Denis
16.05.2018
14:26:50
не - куб уже есть и все почти ок ) хочу просто реюзать естд куба для заливки "гит репы"

Denis
16.05.2018
14:29:01
логичный вопрос - yml

bebebe
16.05.2018
14:34:01
логичный вопрос - yml
gem install https://github.com/blufor/etcd-tools curl -XPUT http://etcd/v2/keys/sync -d ttl=3600 while [ : ]; do curl http://etcd/v2/keys/sync?wait=true (cd gitrepo; git ls-files '*.yml' | xargs cat | yaml2etcd etcd_server) curl -XPUT http://etcd/v2/keys/sync -d ttl=3600 done

Denis
16.05.2018
14:35:19
ни чего себе

bebebe
16.05.2018
14:35:39
ни чего себе
мне тоже не нравится

Denis
16.05.2018
14:35:52
пошел читать репу ) спасибо

Harry
16.05.2018
14:40:17
Добрый день, коллеги. Встретился со странной проблемой Helm. При попытке установить плагин говорит: Error. Git is not installed. В интернете ничего об этом не нашел. На сервере гит установлен.

Valentin
16.05.2018
14:43:01
какой плагин?

Harry
16.05.2018
14:45:31
technosophos/helm-template Решил попробовать dapp

Ах, все, этот плагин с поздних версий поставляется вместе с Helm, отдельно ставить не надо, оказывается.

Stanislav
16.05.2018
15:10:13
Кто нить федерации юзал?

Или хотяб палочкой тыкал?

Anton
16.05.2018
15:13:50
установил кластер кубспреем (однонодный), потом на ноде изменился айпишник, как водится, все посыпалось. Есть простой способ починить?

Anton
16.05.2018
15:15:46
kubespray reset мне случайно не поможет?

Google
Andrey
16.05.2018
15:16:47
вернет ноды к исходному состоянию, плейбук то гляньте :)

bebebe
16.05.2018
15:16:51
Andrey
16.05.2018
15:17:25
исходное = деинсталирует всё что инсталлировал

Anton
16.05.2018
15:18:02
вернет ноды к исходному состоянию, плейбук то гляньте :)
ну это подойдет, в принципе, если при этом кластер будет работать

и конфиг перегенерится

мне ворклоады не жалко

Maksim
16.05.2018
15:31:56
А тут есть эксперты оп Опеншифту?)

Stanislav
16.05.2018
15:34:55
Посоны, кто знает что это и как это фиксить?

&{0xc420746b40 0xc420393b20 ingress-nginx nginx-ingress-controller nginx-ingress-deploy.yaml 0xc4200c9e68 3457620 false} for: "nginx-ingress-deploy.yaml": Operation cannot be fulfilled on deployments.extensions "nginx-ingress-controller": the object has been modified; please apply your changes to the latest version and try again

Pavel
16.05.2018
15:34:56
Всем привет, есть нубский вопрос. поднимаю с помощью vagrant и virtual box машину. У неё два сетевых интерфейса eth0 (NAT VB), eth1 (ip, который реально использую). Разворачиваю на ней kubernetes master. Делаю advertise_ip с eth1. Всё поднимается, ноды подсоединяются. Затем выполняю команду kubectl get pods —all-namespaces -o wide и вижу, что все системные поды висят на eth0_ip. Вопросы: 1. почему это плохо? 2. как можно поменять?

Oleg ?
16.05.2018
15:48:46
Ребят, подскажите. Поднял helm, сделал install stable/mongodb-replicaset при выводе get pods вижу следующее mongodb-dev-mongodb-replicaset-0 1/1 Running 0 18m mongodb-dev-mongodb-replicaset-1 1/1 Running 0 17m mongodb-dev-mongodb-replicaset-2 1/1 Running 2 16m openebs-provisioner-55ff5cd67f-qxc9v 1/1 Running 0 1d pvc-00ddbb70-591e-11e8-b467-9600000a8d06-ctrl-79ddfd59cb-pdxv5 2/2 Running 0 17m pvc-00ddbb70-591e-11e8-b467-9600000a8d06-rep-d499c4468-6ks22 0/1 Pending 0 17m pvc-00ddbb70-591e-11e8-b467-9600000a8d06-rep-d499c4468-cnl6k 0/1 Pending 0 17m pvc-00ddbb70-591e-11e8-b467-9600000a8d06-rep-d499c4468-j72l6 1/1 Running 0 17m pvc-266ca21a-591e-11e8-b467-9600000a8d06-ctrl-7c669b485-mswzd 2/2 Running 0 16m pvc-266ca21a-591e-11e8-b467-9600000a8d06-rep-6d89584fd4-5jl5l 0/1 Pending 0 16m pvc-266ca21a-591e-11e8-b467-9600000a8d06-rep-6d89584fd4-l6zf9 1/1 Running 0 16m pvc-266ca21a-591e-11e8-b467-9600000a8d06-rep-6d89584fd4-p7bs9 0/1 Pending 0 16m pvc-d5b0565c-591d-11e8-b467-9600000a8d06-ctrl-59ccccc54d-x4k7x 2/2 Running 0 18m pvc-d5b0565c-591d-11e8-b467-9600000a8d06-rep-6c6dd85b7b-2c6vp 0/1 Pending 0 18m pvc-d5b0565c-591d-11e8-b467-9600000a8d06-rep-6c6dd85b7b-lfktc 1/1 Running 0 18m pvc-d5b0565c-591d-11e8-b467-9600000a8d06-rep-6c6dd85b7b-pc758 0/1 Pending 0 18m почему здесь pvc? насколько понимаю их тут быть не должно.

Andor
16.05.2018
15:50:38
В чарт посмотри

Берут инструмент, хуярят в прод, а что этот инструмент делает - не знают :/

Stanislav
16.05.2018
15:54:26
Потому что Helm гавно

Это вам не rpm пакет накатить)

Anton
16.05.2018
16:00:12
volumeClaimTemplates: - metadata: name: data spec: accessModes: [ "ReadWriteOnce" ] resources: requests: storage: 1Giесли в statefulset вот такой template, откуда возьмется этот 1 гигабайт? в смысле нет привязки ни к какому storageClass

Vitaliy
16.05.2018
16:03:13
Потому что storageClass есть по-умолчанию (для aws это gp2)

Anton
16.05.2018
16:04:18
а для bm?

https://cloudyuga.guru/blog/kubernetes-storage/ — вот тут пишут, что куб будет просто искать в существующем пуле PV best match. То есть не похоже, что есть storageClass по умолчанию.

Oleg ?
17.05.2018
05:03:35
Берут инструмент, хуярят в прод, а что этот инструмент делает - не знают :/
Кто сказал про прод? Я изучаю куб, делаю все на деве, в чем проблема?

Google
Anton
17.05.2018
05:18:55
Берут инструмент, хуярят в прод, а что этот инструмент делает - не знают :/
так если в прод не зафигарить, никогда не узнаешь, что он делает :)

Vasilyev
17.05.2018
05:24:39
Не прод для слабаков

Сергей
17.05.2018
08:52:02
так если в прод не зафигарить, никогда не узнаешь, что он делает :)
это как с женщинами, сколько не изучай их в песочнице, в жизни все намного веселее

Andor
17.05.2018
08:53:14
Кто сказал про прод? Я изучаю куб, делаю все на деве, в чем проблема?
проблема в том что ты не понимаешь что делает хельм и спрашиваешь у нас это

аналогия с женщинами не в тему

Oleg ?
17.05.2018
08:54:42
верно, я не пытался разобратся в этом чарте и спросил сразу. думал что тех (небольших) знаний о кубе мне хватит понять что оно делает, но нет

Andor
17.05.2018
08:55:11
ну короче просто погрепай по слову volume по чарту который ты применил и я думаю многое сразу станет понятнее

Oleg ?
17.05.2018
08:56:04
а вот если я ставлю как helm install ( а не через клон репки чартов), как то можно все равно посмотреть какой чарт применяется ?

Anton
17.05.2018
08:56:09
еще можно использовать --debug и --dry-run

Oleg ?
17.05.2018
08:56:18
не знаю правильно ли задал вопрос)))

Anton
17.05.2018
08:56:33
чтобы увидеть что там за описание ресурсов в итоге

Oleg ?
17.05.2018
08:56:50
окей, спасибо

Anton
17.05.2018
08:57:12
ну тоесть достаточно было сделать helm install --help

и ведь там написано To check the generated manifests of a release without installing the chart, the '--debug' and '--dry-run' flags can be combined. This will still require a round-trip to the Tiller server.

Oleg ?
17.05.2018
08:59:18
?

Anton
17.05.2018
09:01:30
и еще из полезного helm template --help

Dmytro
17.05.2018
09:44:32
В общем сделал в лоб ❗️Прописал Retain Policy в сам StorageClass (((
Так именно так и надо, как ещё защититься если девы будут pvc и могут что угодно там прописать

Stanislav
17.05.2018
10:17:50
Да, чтото такое и буду пилить

Dmytro
17.05.2018
10:22:12
Ребят, вопрос по nginx ingress (тот что кубовый), как к создаваемому конфигу ингресса добавить свой сниппет? У меня там секция с access_by_lua_file реализующая SSO через crowd. Или переписать логику и сделать через oauth-external-auth?
Там через конфигмап есть несколько extension points, типа вот этот ключ задаёшь и в него кусок конфига нжинкс который вставится в блок сервера, location, ещё какие то - гляньте документацию. Это чтобы не делать совсем кастомныц конфиг нжинкс у ингресса

Google
Дмитрий
17.05.2018
12:33:06
Такой вопрос. На 2-х серверах настроен плавающий айпишник. Как лучше всего натравить на него порт из сервиса? будет ли работать externalIP?

Grigory
17.05.2018
12:34:13
скорее всего будет, сервис это же vip

Дмитрий
17.05.2018
12:35:05
при переезде айпишника kube-proxy сразу перепишет iptables?

Stanislav
17.05.2018
12:36:03
Народ, есть у вас какие то наработки по такой штуке: Хочу чтобы пользователь с правами на уровне кластера имел возможность создавать Namespace, и соответственно быть в них админом по дефолту, но не иметь возможности управлять другими Namespace, не созданные им.

?

Grigory
17.05.2018
12:36:35
насколько я помню он и так на всех нодах поддерживает iptables со всеми externalIP

Дмитрий
17.05.2018
12:36:59
кароче, нужно пробовать)

Grigory
17.05.2018
12:39:48
по идее даже если каким-то чудом на ноду придет пакет с externalIP чужой ноды в том же кластере, он все равно уйдет в нужный под)

так что попробуй, да

Mik
17.05.2018
13:06:02
Народ, есть у вас какие то наработки по такой штуке: Хочу чтобы пользователь с правами на уровне кластера имел возможность создавать Namespace, и соответственно быть в них админом по дефолту, но не иметь возможности управлять другими Namespace, не созданные им.
Дайте пользователю возможность запускать джоб с параметром 'namespace-name', который будет админскими правами добавлять неймспейс и давать пермишшны на вызывающего пользователя. Пользователю права на кластер не давайте.

Stanislav
17.05.2018
13:07:53
Дайте пользователю возможность запускать джоб с параметром 'namespace-name', который будет админскими правами добавлять неймспейс и давать пермишшны на вызывающего пользователя. Пользователю права на кластер не давайте.
Ды вот всетаки хотелось бы это как то средствами кубика добится, без костылей, костыли можно всегда нагородить :) А если я создам SA в default и дам ему права создавать NS, то в этом NS этот SA будет иметь полные права?

Mik
17.05.2018
13:08:59
Не будет

Stanislav
17.05.2018
13:09:14
Не будет
Печалько, по сути это и надо

Страница 567 из 958