
Dmitry
19.09.2018
12:34:14
Почему ?

kvaps
19.09.2018
12:34:19
так там и нет никаких частей
там только ceph client который общается с мониторами напрямую
тут собственно два варианта in-tree или out-of-tree provisioner, оба в контейнерах, а первый вроде как уже deprecated

Google

Roman
19.09.2018
12:40:27
kubectl delete -f ceph-vc.yml --namespace=kubecloud
persistentvolumeclaim "claim" deleted
висит полчаса )
как пнуть?

kvaps
19.09.2018
12:43:27
смотри логи твоего провижионера

Roman
19.09.2018
12:44:21
не знаю кт омой провижинер

Valera
19.09.2018
12:54:15
Всем привет. По GKE и Cloud SQL вопрос: как дать доступ только к определённому инстансу? В роли быть разрешения на cloudsql.instances.connect, но это даст разрешение на подключение к любому инстансу, насколько понимаю?

Ivan
19.09.2018
14:02:15
а , блин... не туда написал )) сорри ))

Andre
19.09.2018
14:19:08
чуваки, как можно запихнуть в под файлы с конфигами, если они лежат в поддиректориях?
configs/
* main.json
* subdir/
* lol.json
* kek.json
я хочу всю вот эту папору сделать доступной в поде, в докере я бы её примонтировал, а в кубах — хз как правильно
попытался создать конфигмап из файлов, указал директорию, но он не стал её рекурсивно обходить, в итоге там оказался только файл main.json

Stanislav
19.09.2018
14:22:33
Можешь так же примонтировать как том.

Andre
19.09.2018
14:23:01

Google

Stanislav
19.09.2018
14:23:11
Если хочешь, чтоб мигрировали - да

Andre
19.09.2018
14:23:14
или откуда он будет их брать?

Stanislav
19.09.2018
14:23:53
А чтоб брал из одного места - либо извращаться с общим хранилищем, либо извращаться с несколькими конфигмапами и projected томом

Andre
19.09.2018
14:24:24

Stanislav
19.09.2018
14:24:27
И, кстати, в каком докере мог создать каталог с файлами и монтировать его на соседней ноде?

Andre
19.09.2018
14:25:28

Stanislav
19.09.2018
14:25:36
Тогда тебе пофиг
Просто у кубернетеса по-умолчанию нижний уровень контейнеризации обеспечивает докер, так что по факту всё как там + ещё сервис кубернетеса.
Остальное (общее хранилище и т.п.) - добавляется отдельно.

Andre
19.09.2018
14:30:26
спасибо, буду курить

Roman
19.09.2018
14:50:46
Всем привет, прошу прощения за мега нубский вопрос. Я правильно понимаю, что ReplicationController уже неактуален и надо описывать Deployment?

Maxim
19.09.2018
14:54:08

Roman
19.09.2018
14:54:34
благодарю


Valera
19.09.2018
17:21:15
по проектам привязанным к одному биллинг аккаунту, пртчины: тупой гугловый иам, который не интегрирован с кубовым рбаком нормально, тупой биллинг который не интегрирован с кубовой моделью, рпзделение прав доступа нормальное, все что нужно общее для проектов в отдельном проекте, который пирится с остальными
Ваша правда насчёт тупого гугловского iam, хотя и понятно, почему так. В iam создал кастомную роль с правами на container.clusters.getCredentials и раздал всем права внутрикластерным rbac'ом
Однако, например, для подключения разработчиков к cloud sql, на котором у нас базы для разных окружений (на разных инстансах, конечно) нужна роль Cloud SQL client, а это даёт право на подключение к любому инстансу :( Конечно credentials разные, но тем не менее.
Ещё возникла проблема, что если накатывать nat gateway по доке gke (https://cloud.google.com/solutions/using-a-nat-gateway-with-kubernetes-engine), то он накатывается в единственном экземпляре и опять же ничего не знает про мультикластерность. Соответственно, если передеплоить нацелив на другой кластер, то перестаёт работать для первого.
Это всё, возможно, решаемо, но быстрее создать другой проект (в рамках того же биллингового аккаунта) и накатить другой кластер туда и всё заработает "из коробки" :(


Stas
19.09.2018
17:31:57
Ваша правда насчёт тупого гугловского iam, хотя и понятно, почему так. В iam создал кастомную роль с правами на container.clusters.getCredentials и раздал всем права внутрикластерным rbac'ом
Однако, например, для подключения разработчиков к cloud sql, на котором у нас базы для разных окружений (на разных инстансах, конечно) нужна роль Cloud SQL client, а это даёт право на подключение к любому инстансу :( Конечно credentials разные, но тем не менее.
Ещё возникла проблема, что если накатывать nat gateway по доке gke (https://cloud.google.com/solutions/using-a-nat-gateway-with-kubernetes-engine), то он накатывается в единственном экземпляре и опять же ничего не знает про мультикластерность. Соответственно, если передеплоить нацелив на другой кластер, то перестаёт работать для первого.
Это всё, возможно, решаемо, но быстрее создать другой проект (в рамках того же биллингового аккаунта) и накатить другой кластер туда и всё заработает "из коробки" :(
ну проблема с гетвеем решается добавление в роутинг рул еще одного нетворг тега для нод из другого кластера скорее всего, но как я и говорил проще все делить проектами, с биллингом история такая, что он отчет строит по инстансам компьюта, вы там будете потом всякимм скриптами формировать нормальный отчет по кластерам для планировпния нагрузки и профилированию порогов аутоскейла, а когда отдельные проекты то можно отфильтровать по проекту и ску,


Valera
19.09.2018
17:35:37

Stas
19.09.2018
17:55:52

Let Eat
19.09.2018
19:28:44

Andre
20.09.2018
04:15:22

Google

Roman
20.09.2018
04:50:31
Всем привет, второй день не могу удалить pvc, kubectl delete -f завистает
kubectl get pvc --all-namespaces
NAMESPACE NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
kubecloud claim Terminating pvc-a35fe65c-bbff-11e8-a3cd-0050569975f5 0 fast 17h
STATUS
Terminating

Владимир
20.09.2018
04:53:18
У меня была такая проблема, по моему дело было в "старом" клиенте RBD
Ты взял готовую сборку с поддержкой RBD или сам собирал?

Roman
20.09.2018
05:38:49

Владимир
20.09.2018
05:40:44

Roman
20.09.2018
05:41:01
quay.io/attcomdev/kube-controller-manager:v1.6.1 этот использовал

Владимир
20.09.2018
05:45:16
К сожалению не помню на каком споткнулся. В итоге собрал свой на базе оригинала. И все заработало.

Roman
20.09.2018
05:52:34
я так еще не делал

Alexander N.
20.09.2018
06:02:39
коллеги, помогите traefik одолеть
No certificate provided dynamically can check the domain "kubernetes.default.svc.cluster.local", a per default certificate will be used.
весь заваливает вот такими ошибками
а если закладку health смотреть - сплошные 404
при обращении к этому хосту
CertAuthFilePath, certfile keyfile для https подкладываю, без них сразу на x509 error ссылается
до бэкендов проксирует, и так то работает все, но счетчик ошибочных 404 постоянно растет
до 1к в минуту и более
endpoint для обращения в кубик на 6443 порту

Google

Alexander N.
20.09.2018
06:07:46
весь лог в дебаге заваливает вот такой херней

Andrey
20.09.2018
06:11:01
у тебя LE используется где-нибудь?

Alexander N.
20.09.2018
06:11:56

Andrey
20.09.2018
06:12:07
letsencrypt

Alexander N.
20.09.2018
06:12:32
есть wc полученный от него
в качестве CA подкладываю куберовский CA.crt
в секции кубера

Andrey
20.09.2018
06:14:48
и нахера? сертификаты кубера никакого отношения к сертификатам приложения не имеют
у тебя зачем то LE пытается сертификат для внутреннего домена kubernetes.default.svc.cluster.local выписать

Alexander N.
20.09.2018
06:16:00
да, если секцию tls убиваешь в https то ошибка уходит
если выкинуть раздел tls из конфигов-ингреса для сервисов - ошибка в консоли уходит, но счетчик 404 все равно растет

Артем
20.09.2018
06:39:40
поднимал свой провиженер rbd, у него кстати завязка под конкретный релиз ceph

Roman
20.09.2018
06:41:39
вообще какая хорошая практика в этом плане? каким способом лучше обеспечивать ноды одной хранилкой?
просто хорошо ли вообще юзать цев в связке с кубером?

Alexander N.
20.09.2018
06:42:16
https://github.com/kubernetes-incubator/external-storage/tree/master/ceph/rbd
вот по этой инструкции можно поднять отдельный rbd-provisioner
настроил его на связку с ceph (что в последнем proxmox идет), вполне себе шустро работает

Google

mio
20.09.2018
06:43:14
проблема с тем, что там старый ceph 10 версии

Alexander N.
20.09.2018
06:43:22

mio
20.09.2018
06:43:32
внутри манагер контейнера
и это жопа