@kubernetes_ru

Страница 197 из 958
Konstantin
02.07.2017
20:32:37
если маунтить(биндить) файл или папку с файлами в контейнер, то права остаюься независимо от того, что там в контейнере

если ты берёшь хост папку пустую и контейнер генерит файлы, то уже от того uid под которым в контейнере создаются они

и тут волумы не причём

Google
Konstantin
02.07.2017
20:36:41
ну я этоже и сказал

Alexey
02.07.2017
20:37:39
Ну я просто тоже про это хотел сказать. Если всё ок с правами хоста и внутри контейнера, то всё будет ок. Если нет, то увы, всё будет печально.

У вольюма проблемы такой не будет. Но и с хостовыми директориями тоже можно это решить chmod'ом, к примеру.

Но ведь вольюмы всё равно удобнее, не?)

Konstantin
02.07.2017
20:39:24
в чём отличия named volume и просто mount dir?

это тоже самое, просто удобнее

я использую local-persist с докер, эдакий микс

Alexey
02.07.2017
20:41:45
я использую local-persist с докер, эдакий микс
Хранишь стейт на хосте? А можно поинтересоваться, что именно?

Konstantin
02.07.2017
20:42:13
а named volume тоже на хосте

собственно любая вариация будет хранить на хосте, если это не внейшний плагин aws,nfs,etc

но я про чистый докер, кубера тут нет

Alexey
02.07.2017
20:44:05
Ну это я понял. У меня было также в ранчере

Просто интересно для каких вещей. Я, например, хранил так данные БД. Прибивал разворачивание контейнеров к хостам определённым и настраивал репликацию.

Google
Alexey
02.07.2017
20:45:51
Просто интересно, не дебил ли я, насколько это нормальное решение?

Fike
02.07.2017
20:46:21
Хочу бабу
Потолще

Alexey
02.07.2017
20:46:45
Там где iops не особо решает, то всякие сетевые хранилища с драйвером под докер

Konstantin
02.07.2017
20:48:59
я всё через local-persist или просто named volume храню, но у меня swarm. Всё - stateful конечно. Конфиги, бд, данные

Alexey
02.07.2017
20:53:42
А всякие нетворк fs типа глюстры, cephfs, nfs? Там же удобно хранить конифги, да и некоторые другие вещи. P.S. В этом плане кубы просто огонь. ConfigMap гениальны

Konstantin
02.07.2017
20:54:55
ну так кто мешает то? вопрос с правами не отменяется от бэкэнда

Alexey
02.07.2017
21:06:28
@nodekra Ок, спасибо за ответ.

Konstantin
02.07.2017
21:07:18
@nodekra Ок, спасибо за ответ.
какой? поговорили не о чём)

Alexey
02.07.2017
21:09:52
Меня просто очень интересует тема stateful'а в докере, кто и как её решает. Потому что это всегда боль и вопрос компромисов. Поэтому любые ответы на эту тему очень интересны. Да и диалог был не оффтоп — это радует)

Alexey
02.07.2017
21:23:53
@etkee правила парсинга логов у логстеша, к примеру, особо не забьёшь в переменные)

Zon
02.07.2017
21:30:37
Why not?)
Да я только за)

Alexey
02.07.2017
21:31:55
Они божественны :)

Zon
02.07.2017
21:32:47
Хотя если очень хочется можно в base64 и в переменную, но это прям на любителя

Alexey
02.07.2017
21:34:29
Тоже об этом думал, но это для любителей неизведанного, как по мне.

Konstantin
02.07.2017
22:17:26
Ну так в докее есть же secrets/configs

Тоже об этом думал, но это для любителей неизведанного, как по мне.
Я вот только не понял, у тебя чистый докер/swarm или кубер?

Alexey
02.07.2017
22:39:16
@nodekra Был чистый докер, там решалось всё просто, ибо был байнд на хосты и весь деплой происходил через паппет. Потом ранчер, который сейчас развернут на новой инфру и который я полировал месяца 3. Но с ним у меня любовь и ненависть в одном флаконе. k8s у меня чисто на своих машинках для интереса. Слишком много вакансий, которые требуют его)

Google
Alexey
02.07.2017
22:39:55
Ну так в докее есть же secrets/configs
Это в сварм недавно добавили? Круто!

Konstantin
02.07.2017
22:40:32
Не помню когда, относительно недавно

@ketchoop мне пока swarm всё делает что нужно, ранчер великоват, кубер вроде как тоже. Но видать задачи ещё не было под них, хз)

Alexey
02.07.2017
22:48:11
@nodekra Я думал о сворме, но года полтора назад он был сырой, а в недавнем времени особо инфы на тему того как изменился сворм не было. Сейчас вижу, что много всего крутого добавили. У ранчера клёвая админка и куча фич прикольных. Он простой в плане архитектуры, но куча мелких багов, которые потом выливаются в головную боль, что просто хочется взять и послать нафиг.

Andrey
03.07.2017
09:03:07
а есть кто-нибудь кто с neo4j в кубернетесе балуется?

Denis
03.07.2017
10:10:32
Подскажите, какие гарантии дает k8s на то, что если я указал количество реплик = 1, то в любой момент времени, при любых факапах количество инстансов не буде больше 1 ?

ну конечно при условии что нет сплитбрейнов в etcd

Let Eat
03.07.2017
10:18:20
если зададите maxUnavailable=1, maxSurge=0, replicas=1, то будет максимум 1 под запущен при любых обновлениях

Denis
03.07.2017
10:20:35
там еще maxSurge учитывается при роллах
Ага нашел в доках, спасибо!

Роман
03.07.2017
12:53:42
Я создал для каждой сущности rc, создал сервис. (Type: ClusterIP). Поместил всё это в один неймспейс. Пробую пинговать приложение app1 из приложения app2 по имени - Name or service not known. Что я упустил?

Let Eat
03.07.2017
12:56:52
я бы проверил kubectl describe svc app1 , Endpoints: должно быть с адресами подов

Let Eat
03.07.2017
12:57:05
если Endpoints: None , то копать почему так

Роман
03.07.2017
13:06:52
я бы проверил kubectl describe svc app1 , Endpoints: должно быть с адресами подов
Так и сделал - эндпоинтс с адресом оверлейной сети.

И адрес пингуется из приложения.

Let Eat
03.07.2017
13:22:21
а поды случайно не net=host?

( клиенты)

Роман
03.07.2017
13:28:44
а поды случайно не net=host?
Нет. Я их не объявлял с hostNetwork: true. Или как это посмотреть?

Let Eat
03.07.2017
13:30:46
ну значит смотрите что у вас в kube-dns творится

fqdn резолвится?

Google
Роман
03.07.2017
13:35:11
fqdn резолвится?
Это то, что возвращает hostname? Нет.

Let Eat
03.07.2017
13:38:28
нет , это полное имя, обычно заканчивается cluster.local

Роман
03.07.2017
13:41:43
нет , это полное имя, обычно заканчивается cluster.local
Айпи сервиса резолвится по fqdn, но пинги не идут. А у пода тоже должен быть fqdn? Как его посмотреть?

Let Eat
03.07.2017
13:52:12
podName.$serviceFqdn

как-то так, в доках это есть

Admin
ERROR: S client not available

Айбелив
03.07.2017
14:02:02
Кто-нибудь юзал portworx?

Роман
03.07.2017
14:58:54
podName.$serviceFqdn
Сам виноват, короче. Сервисы назвал не так, как пинговал)

Oleg
03.07.2017
20:09:48
локально кубер кто как разворачивает?

Айбелив
03.07.2017
20:09:59
kubeadm

Oleg
03.07.2017
20:18:28
еще кто как делает?

Alexey
03.07.2017
20:22:10
Локально? Minikube же.

Айбелив
03.07.2017
20:39:52
ну зависит от потребностей. Если много нод, тогда виртуалка и миникуб, если одна — кубеадма хватит

Ivan
04.07.2017
05:57:15
Айбелив
04.07.2017
06:44:55
*а, да, пардон. Миникуб же тоже только одна нода.

Роман
04.07.2017
07:07:08
Ivan
04.07.2017
07:08:34
А в продакшене?
а до продакшена я не дошел, кубер начальство свернуло. Планировал также ansible+kubeadm на bare metal servers ставить.

Maksim
04.07.2017
08:38:58
зачем ansible + kubeadm когда это тулзы для решения одной и той же задачи?

Denis
04.07.2017
08:41:06
А какие есть альтернативы flannel, которые стоит рассматривать для прода? weave?

Pavel
04.07.2017
08:41:56
Привет парни

Google
Maksim
04.07.2017
08:43:00
ну привет

Konstantin
04.07.2017
08:47:55
Го перекличку

На девопс канале так и дос устроить можно

Pavel
04.07.2017
08:49:09
а есть группа по docker swarm?

Konstantin
04.07.2017
08:49:25
@docker_ru

Pavel
04.07.2017
08:49:41
ну там просто докер

хмм

Artem
04.07.2017
09:21:21
может еще группу по докер компоузу завести?)

и про докер билд тоже пригодится

Pavel
04.07.2017
09:21:44
+

Fike
04.07.2017
09:44:43
По инспекту

Denis
04.07.2017
09:49:39
docker ps

Konstantin
04.07.2017
09:53:20
ну там просто докер
А сворм не в докере?)

Роман
04.07.2017
09:56:05
Если не указано явно, как кубер выбирает на какой ноде развернуть под?

Denis
04.07.2017
09:57:01
думаю делает так чтобы все были равномерно нагружены по ресурсам

Страница 197 из 958