@kubernetes_ru

Страница 833 из 958
Dmitry
19.09.2018
12:34:14
Почему ?

kvaps
19.09.2018
12:34:19
так там и нет никаких частей

там только ceph client который общается с мониторами напрямую

тут собственно два варианта in-tree или out-of-tree provisioner, оба в контейнерах, а первый вроде как уже deprecated

Google
Roman
19.09.2018
12:40:27
kubectl delete -f ceph-vc.yml --namespace=kubecloud persistentvolumeclaim "claim" deleted

висит полчаса )

как пнуть?

kvaps
19.09.2018
12:43:27
смотри логи твоего провижионера

Roman
19.09.2018
12:44:21
не знаю кт омой провижинер

Valera
19.09.2018
12:54:15
Всем привет. По GKE и Cloud SQL вопрос: как дать доступ только к определённому инстансу? В роли быть разрешения на cloudsql.instances.connect, но это даст разрешение на подключение к любому инстансу, насколько понимаю?

Ivan
19.09.2018
14:02:15
а , блин... не туда написал )) сорри ))

Andre
19.09.2018
14:19:08
чуваки, как можно запихнуть в под файлы с конфигами, если они лежат в поддиректориях?

configs/ * main.json * subdir/ * lol.json * kek.json

я хочу всю вот эту папору сделать доступной в поде, в докере я бы её примонтировал, а в кубах — хз как правильно

попытался создать конфигмап из файлов, указал директорию, но он не стал её рекурсивно обходить, в итоге там оказался только файл main.json

Stanislav
19.09.2018
14:22:33
Можешь так же примонтировать как том.

Andre
19.09.2018
14:23:01
Можешь так же примонтировать как том.
и тогда эти конфиги придётся хранить на каждой ноде кластера?

Google
Stanislav
19.09.2018
14:23:11
Если хочешь, чтоб мигрировали - да

Andre
19.09.2018
14:23:14
или откуда он будет их брать?

Stanislav
19.09.2018
14:23:53
А чтоб брал из одного места - либо извращаться с общим хранилищем, либо извращаться с несколькими конфигмапами и projected томом

Stanislav
19.09.2018
14:24:27
И, кстати, в каком докере мог создать каталог с файлами и монтировать его на соседней ноде?

Andre
19.09.2018
14:25:28
И, кстати, в каком докере мог создать каталог с файлами и монтировать его на соседней ноде?
эм, ни в каком, у меня на докере просто нет соседней ноды, только моя дев машина :D

Stanislav
19.09.2018
14:25:36
Тогда тебе пофиг

Просто у кубернетеса по-умолчанию нижний уровень контейнеризации обеспечивает докер, так что по факту всё как там + ещё сервис кубернетеса.

Остальное (общее хранилище и т.п.) - добавляется отдельно.

Andre
19.09.2018
14:30:26
спасибо, буду курить

Roman
19.09.2018
14:50:46
Всем привет, прошу прощения за мега нубский вопрос. Я правильно понимаю, что ReplicationController уже неактуален и надо описывать Deployment?

Roman
19.09.2018
14:54:34
благодарю

Valera
19.09.2018
17:21:15
по проектам привязанным к одному биллинг аккаунту, пртчины: тупой гугловый иам, который не интегрирован с кубовым рбаком нормально, тупой биллинг который не интегрирован с кубовой моделью, рпзделение прав доступа нормальное, все что нужно общее для проектов в отдельном проекте, который пирится с остальными
Ваша правда насчёт тупого гугловского iam, хотя и понятно, почему так. В iam создал кастомную роль с правами на container.clusters.getCredentials и раздал всем права внутрикластерным rbac'ом Однако, например, для подключения разработчиков к cloud sql, на котором у нас базы для разных окружений (на разных инстансах, конечно) нужна роль Cloud SQL client, а это даёт право на подключение к любому инстансу :( Конечно credentials разные, но тем не менее. Ещё возникла проблема, что если накатывать nat gateway по доке gke (https://cloud.google.com/solutions/using-a-nat-gateway-with-kubernetes-engine), то он накатывается в единственном экземпляре и опять же ничего не знает про мультикластерность. Соответственно, если передеплоить нацелив на другой кластер, то перестаёт работать для первого. Это всё, возможно, решаемо, но быстрее создать другой проект (в рамках того же биллингового аккаунта) и накатить другой кластер туда и всё заработает "из коробки" :(

Stas
19.09.2018
17:31:57
Ваша правда насчёт тупого гугловского iam, хотя и понятно, почему так. В iam создал кастомную роль с правами на container.clusters.getCredentials и раздал всем права внутрикластерным rbac'ом Однако, например, для подключения разработчиков к cloud sql, на котором у нас базы для разных окружений (на разных инстансах, конечно) нужна роль Cloud SQL client, а это даёт право на подключение к любому инстансу :( Конечно credentials разные, но тем не менее. Ещё возникла проблема, что если накатывать nat gateway по доке gke (https://cloud.google.com/solutions/using-a-nat-gateway-with-kubernetes-engine), то он накатывается в единственном экземпляре и опять же ничего не знает про мультикластерность. Соответственно, если передеплоить нацелив на другой кластер, то перестаёт работать для первого. Это всё, возможно, решаемо, но быстрее создать другой проект (в рамках того же биллингового аккаунта) и накатить другой кластер туда и всё заработает "из коробки" :(
ну проблема с гетвеем решается добавление в роутинг рул еще одного нетворг тега для нод из другого кластера скорее всего, но как я и говорил проще все делить проектами, с биллингом история такая, что он отчет строит по инстансам компьюта, вы там будете потом всякимм скриптами формировать нормальный отчет по кластерам для планировпния нагрузки и профилированию порогов аутоскейла, а когда отдельные проекты то можно отфильтровать по проекту и ску,

Let Eat
19.09.2018
19:28:44
попытался создать конфигмап из файлов, указал директорию, но он не стал её рекурсивно обходить, в итоге там оказался только файл main.json
Все это в tar, его в конфигмап и распаковать из конфигмапа в initcontainer туда куда надо, потом стартанет обычный контейнер и все найдет как привык

Google
Roman
20.09.2018
04:50:31
Всем привет, второй день не могу удалить pvc, kubectl delete -f завистает kubectl get pvc --all-namespaces NAMESPACE NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE kubecloud claim Terminating pvc-a35fe65c-bbff-11e8-a3cd-0050569975f5 0 fast 17h

STATUS Terminating

Владимир
20.09.2018
04:53:18
У меня была такая проблема, по моему дело было в "старом" клиенте RBD

Ты взял готовую сборку с поддержкой RBD или сам собирал?

Владимир
20.09.2018
05:40:44
ты про kube-controller-manager ?
Да. Если с его помощью делал

Roman
20.09.2018
05:41:01
quay.io/attcomdev/kube-controller-manager:v1.6.1 этот использовал

Владимир
20.09.2018
05:45:16
К сожалению не помню на каком споткнулся. В итоге собрал свой на базе оригинала. И все заработало.

Roman
20.09.2018
05:52:34
я так еще не делал

Alexander N.
20.09.2018
06:02:39
коллеги, помогите traefik одолеть

No certificate provided dynamically can check the domain "kubernetes.default.svc.cluster.local", a per default certificate will be used.

весь заваливает вот такими ошибками

а если закладку health смотреть - сплошные 404

при обращении к этому хосту

CertAuthFilePath, certfile keyfile для https подкладываю, без них сразу на x509 error ссылается

до бэкендов проксирует, и так то работает все, но счетчик ошибочных 404 постоянно растет

до 1к в минуту и более

endpoint для обращения в кубик на 6443 порту



Google
Alexander N.
20.09.2018
06:07:46
весь лог в дебаге заваливает вот такой херней

Andrey
20.09.2018
06:11:01
у тебя LE используется где-нибудь?

Alexander N.
20.09.2018
06:11:56
Andrey
20.09.2018
06:12:07
letsencrypt

Alexander N.
20.09.2018
06:12:32
есть wc полученный от него

в качестве CA подкладываю куберовский CA.crt

в секции кубера

Andrey
20.09.2018
06:14:48
и нахера? сертификаты кубера никакого отношения к сертификатам приложения не имеют

у тебя зачем то LE пытается сертификат для внутреннего домена kubernetes.default.svc.cluster.local выписать

Alexander N.
20.09.2018
06:16:00
да, если секцию tls убиваешь в https то ошибка уходит

и нахера? сертификаты кубера никакого отношения к сертификатам приложения не имеют
не, в секцию кубера, рядом с токеном. иначе он при обращении к апи по https выпишет хрен



если выкинуть раздел tls из конфигов-ингреса для сервисов - ошибка в консоли уходит, но счетчик 404 все равно растет

Артем
20.09.2018
06:39:40
Всем привет, второй день не могу удалить pvc, kubectl delete -f завистает kubectl get pvc --all-namespaces NAMESPACE NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE kubecloud claim Terminating pvc-a35fe65c-bbff-11e8-a3cd-0050569975f5 0 fast 17h
Недавно обкуривал эту тему, пытался подружить куб с ceph (RBD), как я понял подменять кубеменеждер не очень хорошая затея

поднимал свой провиженер rbd, у него кстати завязка под конкретный релиз ceph

Roman
20.09.2018
06:41:39
вообще какая хорошая практика в этом плане? каким способом лучше обеспечивать ноды одной хранилкой?

просто хорошо ли вообще юзать цев в связке с кубером?

Alexander N.
20.09.2018
06:42:16
https://github.com/kubernetes-incubator/external-storage/tree/master/ceph/rbd

вот по этой инструкции можно поднять отдельный rbd-provisioner

настроил его на связку с ceph (что в последнем proxmox идет), вполне себе шустро работает

Google
mio
20.09.2018
06:43:14
проблема с тем, что там старый ceph 10 версии

Alexander N.
20.09.2018
06:43:22
mio
20.09.2018
06:43:32
внутри манагер контейнера

и это жопа

Страница 833 из 958