
Sergey
16.05.2018
10:21:14
ну и будут они те же кнопки штырить
только все будет секурна

Andrey
16.05.2018
10:49:00
Ребят, вопрос по nginx ingress (тот что кубовый), как к создаваемому конфигу ингресса добавить свой сниппет? У меня там секция с access_by_lua_file реализующая SSO через crowd.
Или переписать логику и сделать через oauth-external-auth?

Anton
16.05.2018
11:48:33
или задать свой шаблон конфигурации через configmap

Google

Andrey
16.05.2018
11:56:30
для ingress сервиса? тогда получится что сам сервис должен иметь nginx прослойку и заботиться об авторизации. А есть, к примеру prometheus, который можно было бы так закрыть и было бы удобно

Andrey
16.05.2018
12:15:55
немного саморекламы. Написал ansible playbook для разворачивания rancher 2 (официальный только для 1.6) - кому интересно - пользуйтесь, пишите отзывы на github
https://github.com/gorilych/rancher-ansible

Anton
16.05.2018
12:17:31

Andrey
16.05.2018
12:19:31

Anton
16.05.2018
12:23:21
берешь шаблон, добавляешь в него свою часть. деплоишь теперь с этим новым шаблоном в одном неймспейсе с мониторингом с привязкой к одной ноде или externalIP сервис пилишь для ингреса, в общем публикуешь как то его и удостоверяешься что он следит только за ресурсами в нужном неймспейсе.
профит - у тебя ингресс, который слушает там, где ты хочешь и содержит нужную тебе конфигурацию.

Andrey
16.05.2018
13:20:21
Смахивает на велосипед)

Sergey
16.05.2018
13:20:46
ну если велосипед, значит гуглите:)

Anton
16.05.2018
13:50:10
раз вам нужен ваш велосипед с sso

Andrey
16.05.2018
13:50:46
Более прямым, имхо, выглядит использование oauth
Просто предварительно уточнил, что в аннотациях ingress нельзя указать include (или сделать что-то подобное)

Anton
16.05.2018
13:52:07
только то, что позволяет шаблон

Denis
16.05.2018
14:21:23
ребятки вопрос по ETCD - есть git репа в которой хранятся конфы сервера Х и Y ... , как можно заставить ETCD дергать репу раз в Х минут и обновлять конф ( или чтобы хук коммит дергал апдэйт)

Google

Sergey
16.05.2018
14:22:13

Denis
16.05.2018
14:23:41
ну я тереотически понимаю что можно или пушить или пулить - а бест практис что ?
может есть какой то готовый солюшн

bebebe
16.05.2018
14:25:40

Denis
16.05.2018
14:26:50
не - куб уже есть и все почти ок ) хочу просто реюзать естд куба для заливки "гит репы"

bebebe
16.05.2018
14:28:08

Denis
16.05.2018
14:29:01
логичный вопрос - yml

bebebe
16.05.2018
14:34:01
логичный вопрос - yml
gem install https://github.com/blufor/etcd-tools
curl -XPUT http://etcd/v2/keys/sync -d ttl=3600
while [ : ]; do
curl http://etcd/v2/keys/sync?wait=true
(cd gitrepo; git ls-files '*.yml' | xargs cat | yaml2etcd etcd_server)
curl -XPUT http://etcd/v2/keys/sync -d ttl=3600
done

Denis
16.05.2018
14:35:19
ни чего себе

bebebe
16.05.2018
14:35:39

Denis
16.05.2018
14:35:52
пошел читать репу ) спасибо

Harry
16.05.2018
14:40:17
Добрый день, коллеги. Встретился со странной проблемой Helm. При попытке установить плагин говорит: Error. Git is not installed. В интернете ничего об этом не нашел. На сервере гит установлен.

Valentin
16.05.2018
14:43:01
какой плагин?

Harry
16.05.2018
14:45:31
technosophos/helm-template
Решил попробовать dapp
Ах, все, этот плагин с поздних версий поставляется вместе с Helm, отдельно ставить не надо, оказывается.

Stanislav
16.05.2018
15:10:13
Кто нить федерации юзал?
Или хотяб палочкой тыкал?

Anton
16.05.2018
15:13:50
установил кластер кубспреем (однонодный), потом на ноде изменился айпишник, как водится, все посыпалось. Есть простой способ починить?

Stanislav
16.05.2018
15:14:38

Anton
16.05.2018
15:15:46
kubespray reset мне случайно не поможет?

Google

Andrey
16.05.2018
15:16:47
вернет ноды к исходному состоянию, плейбук то гляньте :)

bebebe
16.05.2018
15:16:51

Andrey
16.05.2018
15:17:25
исходное = деинсталирует всё что инсталлировал

Anton
16.05.2018
15:18:02
и конфиг перегенерится
мне ворклоады не жалко

Maksim
16.05.2018
15:31:56
А тут есть эксперты оп Опеншифту?)

Stanislav
16.05.2018
15:34:55
Посоны, кто знает что это и как это фиксить?
&{0xc420746b40 0xc420393b20 ingress-nginx nginx-ingress-controller nginx-ingress-deploy.yaml 0xc4200c9e68 3457620 false}
for: "nginx-ingress-deploy.yaml": Operation cannot be fulfilled on deployments.extensions "nginx-ingress-controller": the object has been modified; please apply your changes to the latest version and try again

Pavel
16.05.2018
15:34:56
Всем привет, есть нубский вопрос. поднимаю с помощью vagrant и virtual box машину. У неё два сетевых интерфейса eth0 (NAT VB), eth1 (ip, который реально использую). Разворачиваю на ней kubernetes master. Делаю advertise_ip с eth1. Всё поднимается, ноды подсоединяются.
Затем выполняю команду
kubectl get pods —all-namespaces -o wide
и вижу, что все системные поды висят на eth0_ip.
Вопросы:
1. почему это плохо?
2. как можно поменять?


Oleg ?
16.05.2018
15:48:46
Ребят, подскажите. Поднял helm, сделал install stable/mongodb-replicaset
при выводе get pods вижу следующее
mongodb-dev-mongodb-replicaset-0 1/1 Running 0 18m
mongodb-dev-mongodb-replicaset-1 1/1 Running 0 17m
mongodb-dev-mongodb-replicaset-2 1/1 Running 2 16m
openebs-provisioner-55ff5cd67f-qxc9v 1/1 Running 0 1d
pvc-00ddbb70-591e-11e8-b467-9600000a8d06-ctrl-79ddfd59cb-pdxv5 2/2 Running 0 17m
pvc-00ddbb70-591e-11e8-b467-9600000a8d06-rep-d499c4468-6ks22 0/1 Pending 0 17m
pvc-00ddbb70-591e-11e8-b467-9600000a8d06-rep-d499c4468-cnl6k 0/1 Pending 0 17m
pvc-00ddbb70-591e-11e8-b467-9600000a8d06-rep-d499c4468-j72l6 1/1 Running 0 17m
pvc-266ca21a-591e-11e8-b467-9600000a8d06-ctrl-7c669b485-mswzd 2/2 Running 0 16m
pvc-266ca21a-591e-11e8-b467-9600000a8d06-rep-6d89584fd4-5jl5l 0/1 Pending 0 16m
pvc-266ca21a-591e-11e8-b467-9600000a8d06-rep-6d89584fd4-l6zf9 1/1 Running 0 16m
pvc-266ca21a-591e-11e8-b467-9600000a8d06-rep-6d89584fd4-p7bs9 0/1 Pending 0 16m
pvc-d5b0565c-591d-11e8-b467-9600000a8d06-ctrl-59ccccc54d-x4k7x 2/2 Running 0 18m
pvc-d5b0565c-591d-11e8-b467-9600000a8d06-rep-6c6dd85b7b-2c6vp 0/1 Pending 0 18m
pvc-d5b0565c-591d-11e8-b467-9600000a8d06-rep-6c6dd85b7b-lfktc 1/1 Running 0 18m
pvc-d5b0565c-591d-11e8-b467-9600000a8d06-rep-6c6dd85b7b-pc758 0/1 Pending 0 18m
почему здесь pvc? насколько понимаю их тут быть не должно.


Andor
16.05.2018
15:50:38
В чарт посмотри
Берут инструмент, хуярят в прод, а что этот инструмент делает - не знают :/

Stanislav
16.05.2018
15:54:26
Потому что Helm гавно
Это вам не rpm пакет накатить)

Anton
16.05.2018
16:00:12
volumeClaimTemplates:
- metadata:
name: data
spec:
accessModes: [ "ReadWriteOnce" ]
resources:
requests:
storage: 1Giесли в statefulset вот такой template, откуда возьмется этот 1 гигабайт? в смысле нет привязки ни к какому storageClass

Vitaliy
16.05.2018
16:03:13
Потому что storageClass есть по-умолчанию (для aws это gp2)

Anton
16.05.2018
16:04:18
а для bm?
https://cloudyuga.guru/blog/kubernetes-storage/ — вот тут пишут, что куб будет просто искать в существующем пуле PV best match. То есть не похоже, что есть storageClass по умолчанию.

Oleg ?
17.05.2018
05:03:35

Google

Anton
17.05.2018
05:18:55

Vasilyev
17.05.2018
05:24:39
Не прод для слабаков

Сергей
17.05.2018
08:52:02

Andor
17.05.2018
08:53:14
аналогия с женщинами не в тему

Oleg ?
17.05.2018
08:54:42
верно, я не пытался разобратся в этом чарте и спросил сразу. думал что тех (небольших) знаний о кубе мне хватит понять что оно делает, но нет

Andor
17.05.2018
08:55:11
ну короче просто погрепай по слову volume по чарту который ты применил и я думаю многое сразу станет понятнее

Oleg ?
17.05.2018
08:56:04
а вот если я ставлю как helm install ( а не через клон репки чартов), как то можно все равно посмотреть какой чарт применяется ?

Anton
17.05.2018
08:56:09
еще можно использовать --debug и --dry-run

Oleg ?
17.05.2018
08:56:18
не знаю правильно ли задал вопрос)))

Anton
17.05.2018
08:56:33
чтобы увидеть что там за описание ресурсов в итоге

Oleg ?
17.05.2018
08:56:50
окей, спасибо

Anton
17.05.2018
08:57:12
ну тоесть достаточно было сделать helm install --help
и ведь там написано
To check the generated manifests of a release without installing the chart,
the '--debug' and '--dry-run' flags can be combined. This will still require a
round-trip to the Tiller server.

Oleg ?
17.05.2018
08:59:18
?

Anton
17.05.2018
09:01:30
и еще из полезного helm template --help

Dmytro
17.05.2018
09:44:32

Stanislav
17.05.2018
10:17:50
Да, чтото такое и буду пилить

Dmytro
17.05.2018
10:22:12

Google

Andrey
17.05.2018
10:22:56

Дмитрий
17.05.2018
12:33:06
Такой вопрос. На 2-х серверах настроен плавающий айпишник. Как лучше всего натравить на него порт из сервиса?
будет ли работать externalIP?

Grigory
17.05.2018
12:34:13
скорее всего будет, сервис это же vip

Дмитрий
17.05.2018
12:35:05
при переезде айпишника kube-proxy сразу перепишет iptables?

Stanislav
17.05.2018
12:36:03
Народ, есть у вас какие то наработки по такой штуке:
Хочу чтобы пользователь с правами на уровне кластера имел возможность создавать Namespace, и соответственно быть в них админом по дефолту, но не иметь возможности управлять другими Namespace, не созданные им.
?

Grigory
17.05.2018
12:36:35
насколько я помню он и так на всех нодах поддерживает iptables со всеми externalIP

Дмитрий
17.05.2018
12:36:59
кароче, нужно пробовать)

Grigory
17.05.2018
12:39:48
по идее даже если каким-то чудом на ноду придет пакет с externalIP чужой ноды в том же кластере, он все равно уйдет в нужный под)
так что попробуй, да

Mik
17.05.2018
13:06:02

Stanislav
17.05.2018
13:07:53

Mik
17.05.2018
13:08:59
Не будет

Stanislav
17.05.2018
13:09:14

Andrey
17.05.2018
13:16:31