@kubernetes_ru

Страница 169 из 958
Vladimir
05.05.2017
14:32:21
в деве да, но в проде будет на calico скорее всего. в этом есть разница?

Let Eat
05.05.2017
14:36:09
в flannel трафик из контейнера поднимается в flanneld , где он оборачивается по дефолту в vxlan , и отправляется на ноду где находится под назначения, там он принимается flanneld и извлекается оригинальный пакет из vxlan и отдается локальному поду

Vladimir
05.05.2017
14:39:40
а что значит "отправляется на ноду где находится под назначения"? это значит там кто-то слушает какой-то порт?

Google
M
07.05.2017
13:06:48
а кто-нибудь использует rbd с hyperkube? как вы прописываете PATH, чтобы controller-manager увидел rbd ?

Artem
07.05.2017
17:33:31
https://kubernetes.io/docs/concepts/storage/persistent-volumes/#ceph-rbd

Andrey
07.05.2017
18:55:25
сорян за оффтоп (хотя и не совсем оффтоп): кубернетес -> вся эта девопвсокая фигня на блидинг эдж а есть актуальные ресурсы на русском про прометеусу, или как обычно?

Paul
07.05.2017
19:04:10
Английский, в перспективе - китайский. Если нужно работать с промышленностью - имеет смысл учить немецкий и итальянский

Andrey
07.05.2017
19:05:46
ну как обычно, раньше русский запаздывал просто потому что позже доходило а щас уже последние лет 5 я смотрю и смысла нет на русском искать, все равно те кому надо перешли давно на английские материалы это норм, просто решил че-нить на канале спросить для поддержания флейма :)

про китайский тема кстати :)

Rustem
08.05.2017
01:40:31
Японский тоже ничего

Dmitry
09.05.2017
06:34:31
кто нибудь использует PodSecurityPolicy?

Let Eat
09.05.2017
08:35:20
кто нибудь использует PodSecurityPolicy?
Нет, но планируем. Расскажите, как оно? :)

Dmitry
09.05.2017
09:09:19
вкратце - оно не работает) вся суть раскрыта в последнем абзаце тут https://kubernetes.io/docs/concepts/policy/pod-security-policy/ PodSecurityPolicy authorization uses the union of all policies available to the user creating the pod and the service account specified on the pod. When pods are created via a Deployment, ReplicaSet, etc, it is Controller Manager that creates the pod… Access to given PSP policies for a user will be effective only when deploying Pods directly.

непонятно зачем вообще это тогда. надеюсь придумают что нибудь в следующих версиях

Google
Let Eat
09.05.2017
09:23:52
это разве не про доступ к PodSecurityPolicy Objects?

т..е абзац не про то, что полиси не будет применима для подов запущенных из deployment

Dmitry
09.05.2017
09:26:15
по моему как раз про это

Let Eat
09.05.2017
10:30:30
кажется, что про доступ, потому что "Access to given PSP policies", ну легко проверить, попробую на недел

Dmitry
09.05.2017
13:16:03
но начинается со слов authorization uses the union of all **policies available to the user**

а так да, лучше проверить

Jev
09.05.2017
14:20:58
Дамы и Господа добрый день с Boston Openstack Summit

Если у кого-то есть специфический интерес в определённом решении Kubernetes могу от вас поговорить тут с кем надо

Artem
09.05.2017
14:57:36
вопрос из другой оперы немного, мурано совсем закопали или коммунити забрала?

Jev
09.05.2017
19:43:57
https://kubernetes.io/docs/getting-started-guides/ubuntu/

Друзья из Мирантис придут спрошу

Andrey
09.05.2017
21:04:32
halp А если в kubectl describe pvc есть евент 7m 7m 1 {persistentvolume-controller } Warning ProvisioningFailed Failed to provision volume with StorageClass "standard": rbd: create volume failed, err: exit status 1 где можно найти логи с причиной ошибки?

Paul
09.05.2017
21:53:46
halp А если в kubectl describe pvc есть евент 7m 7m 1 {persistentvolume-controller } Warning ProvisioningFailed Failed to provision volume with StorageClass "standard": rbd: create volume failed, err: exit status 1 где можно найти логи с причиной ошибки?
а нигде. Но с 90% вероятностью это классический баг автопровижнинга в ceph, и в 1.6.2 его вроде как не починили. Проще всего прокрутить все команды провижнинга вручную и посмотреть коды выхода

багов с провижнингом там два: - если у вас включен страйпинг - том не монтируется. Проверяется просто - создайте том и подмонтируйте. - в любом случае при монтировании тома появляется warning, о том у вас используется устаревший формат rbd. Это не лечится, есть патч, но в mainline его нет.

Andrey
09.05.2017
22:00:34
хм, спасибо »все команды провижнинга а их где найти?

Paul
09.05.2017
22:03:53
rbd же просто бинарник в образе? пересобрать hyperkube с нужным не поможет разве?
а разве он не отдельно пакетом идет? Я с hypercube почти не общался просто

но проблема там общая

Andrey
09.05.2017
22:43:58
https://github.com/kubernetes/kubernetes/blob/83846e3a6ad9baab92c266d2fbf086a87f110b9e/pkg/volume/rbd/rbd_util.go#L359 попробовал так создать, в выводе rbd protocol feature mismatch, my fffffffffff < peer 4000fffefdfffff missing 400000000000000 ну и действительно, в hyperkube у меня неправильный rbd с ceph version 0.80.7

Google
Artem
10.05.2017
15:09:15
Вопрос есть по кластеру версии 1.6.2 в gke Есть pv который маунтится с nfs шары, на кластере версии 1.5.2 все отлично работает, на тестовом версии выше почему то с этим жи конфигами вместо pv из nfs куб нарезает диски в gcp, в чем может быть проблема? Конфиг примерно такой: apiVersion: v1 kind: PersistentVolume metadata: name: nfsshare spec: capacity: storage: 20Gi accessModes: - ReadWriteMany persistentVolumeReclaimPolicy: Recycle nfs: path: "/storage" server: 10.x.x.x --- apiVersion: v1 kind: PersistentVolumeClaim metadata: name: nfsshare spec: accessModes: - ReadWriteMany resources: requests: storage: 20GiИзменений в примерах конфигов по ссылкам в доках что-то не нашел.

Alex Milushev
10.05.2017
15:30:40
привет, может кто сталкивался

сетаплю воркеры по https://github.com/kelseyhightower/kubernetes-the-hard-way/blob/818501707e418fc4d6e6aedef8395ca368e3097e/docs/06-kubernetes-worker.md

стартанули, сертификаты увидел, заапрувил, но ноды не добавились kubectl get nodes пустой

мало того, через некоторое время появились новые сертификаты на апрув

вот такое в логе: May 10 15:31:23 ip-10-0-0-205 systemd[1]: Started Kubernetes Kubelet. May 10 15:31:23 ip-10-0-0-205 kubelet[15889]: Flag --api-servers has been deprecated, Use --kubeconfig instead. Will be removed in a future version. May 10 15:31:23 ip-10-0-0-205 kubelet[15889]: I0510 15:31:23.166074 15889 feature_gate.go:144] feature gates: map[] May 10 15:31:23 ip-10-0-0-205 kubelet[15889]: I0510 15:31:23.166289 15889 bootstrap.go:58] Using bootstrap kubeconfig to generate TLS client cert, key and kubeconfig file May 10 15:31:30 ip-10-0-0-205 kube-proxy[15767]: I0510 15:31:30.885294 15767 streamwatcher.go:103] Unexpected EOF during watch stream event decoding: unexpected EOF May 10 15:31:30 ip-10-0-0-205 kube-proxy[15767]: I0510 15:31:30.885960 15767 streamwatcher.go:103] Unexpected EOF during watch stream event decoding: unexpected EOF May 10 15:32:22 ip-10-0-0-205 kubelet[15889]: I0510 15:32:22.873627 15889 streamwatcher.go:103] Unexpected EOF during watch stream event decoding: unexpected EOF May 10 15:32:22 ip-10-0-0-205 kubelet[15889]: error: failed to run Kubelet: watch channel closed May 10 15:32:22 ip-10-0-0-205 systemd[1]: kubelet.service: Main process exited, code=exited, status=1/FAILURE May 10 15:32:22 ip-10-0-0-205 systemd[1]: kubelet.service: Unit entered failed state.

ну или подскажите, куда копать или как повысить болтливость лога

yolkov
10.05.2017
15:56:24
--v=10

Zon
10.05.2017
15:57:41
Вот у меня тоже задача - нужно подпихивать в поды большие куски моделей для ML. суммарно 3-4 гигабайта. Модели иногда обновляются. Сейчас есть ReadOnly диск в гугле, но обновлять его совсем неудобно. Какие есть варианты?

Под при старте эти модели грузит в память

Я думаю сделать дата-контейнеры, но скачивание их тоже займет немало времени

Let Eat
10.05.2017
16:06:13
мы в AWS сделали DaemonSet, который скачивает новые версии баз и кладет их в фиксированное место на хосте, все кому надо, подключают его к себе и читают

Zon
10.05.2017
16:07:35
"фиксированное место на хосте" - это хост вольюм?

Let Eat
10.05.2017
16:08:04
да, предопределенный путь на хосте

просто есть соглашение: все базы лежат на хосте в папке /ebs

Paul
10.05.2017
17:35:06
коллеги, а может мне кто-нибудь внятно объяснить, для чего нужен HELM? ведь есть же docker hub, а конфиги все равно каждый сам себе пишет. Или я что-то делаю не так?

Let Eat
10.05.2017
17:47:27
докер имадж не описывает того, как запускать приложение

Fike
10.05.2017
17:47:49
имеется в виду, например, настройка кластера?

Let Eat
10.05.2017
17:48:06
Helm - жопа, ну лучшего ничего пока нет, а жопу можно исправить (чем и занимаюсь)

имеется в виду, например, настройка кластера?
Ну, сколько памяти дать, какие конфиги подключить и проч. Хороший реалистичный пример того, где просто докерхаба недостаточно: stable/nginx-ingress чарт

Google
Admin
ERROR: S client not available

Paul
10.05.2017
18:19:18
Helm - жопа, ну лучшего ничего пока нет, а жопу можно исправить (чем и занимаюсь)
жопа - это состояние, а не цель :) а мне бы понять цель. В смысле - нафига он такой нужен

Let Eat
10.05.2017
18:37:45
ну вот взгляните на существующие чарты, может найдете ответ :)

yolkov
10.05.2017
18:38:45
например для разных сред, для локльной разработки прокидываешь хостпаф, для прода не будет этого волума

с помощью хельма все можно запарметризировать и в зависимости от среды будут применятся нужные настройки, деплойменты и т.п.

Let Eat
11.05.2017
07:44:38
CMD / ENTRYPOINT ?
Посмотрите на все опции docker run, очень многие из них никак не описать в cmd/entrypoint

Pavel
11.05.2017
12:20:11
Гайз, а никто не пробовал прикручивать weave scope к flannel?

Andrew
11.05.2017
14:10:08
у меня работал исправно, но с калико. правда проц жрет постоянно

Alexandr
11.05.2017
15:17:45
Привет всем! Народ, а подскажите, какой из мануалов выкурить. Уже вроде исчитал доки, но не осиливаю. Дано: Есть приложуха, почти все настройки которой можно задать через опции командной строки. Но есть настройка связи с бд, она только через файл вроде такого: /my/cool/app —db-shards=/path/to/shards.config Нужно запустить N инстансов шардов db, количество затем изменяться не будет, а после запустить /my/cool/app, но так, чтобы был нагенерён правильный конфиг шардов. Как это правильно то делать?

yolkov
11.05.2017
17:05:10
а какие отличия в конфиге шардов?

Alexandr
11.05.2017
17:55:22
Шарды db вообще конфигурить не надо. Нужно только в файл с описанием шардов каким-то образом запихнуть все запущенные

yolkov
11.05.2017
18:03:47
файл разный для разных шард?

Alexandr
11.05.2017
18:30:44
Мм, а в configMap как-то динамически значения можно засовывать? Вот запустил я N шардов db. Теперь надо запихнуть все их ip в configMap? Или это всё же динамически как-то можно сделать? А то из описания в доках про configMap как-то не очевидно, там только статические примеры

Vladimir
11.05.2017
18:34:05
Такого нет в кубернетесе. Он грубо говоря, дает тебе примитивы, которыми ты можешь оперировать. И у него есть api. Твой use-case про шарды можно реализовать в виде контроллера, который будет мониторить поды по каким-то лэйблам и менять динамически какой-то configmap.

Zon
11.05.2017
20:42:26
Мне кажется, что-то не так в изначальной задаче. Может быть можно подробнее? Может можно роутер какой-то поставить? Или как-то иначе сервис дискавери сделать?

Google
Foks
12.05.2017
17:37:14
Привет.

Кто с мск

Vladimir
12.05.2017
17:46:14
половина. другая половина из спб )

Foks
12.05.2017
17:46:35
Мм

Хочу Веселье

Fike
12.05.2017
17:47:18
а вы точно на тот канал зашли?

Foks
12.05.2017
17:47:55
На какой зайти по этому поводу подскажите

Fike
12.05.2017
17:48:15
лол

Foks
12.05.2017
17:48:21
йй

Страница 169 из 958