@kubernetes_ru

Страница 557 из 958
Maksim
10.05.2018
13:02:16
с точки зрения кубера не очень то и надо)

Konstantin
10.05.2018
13:03:00
Ну вот видите, не такой простой кейс. Они же к нему как то пришли и реализовали. Я об этом

Dmytro
10.05.2018
13:03:53
да у них там больше легаси, паппет и т.п. - я ба на них сильно не ориентировался при начале нового проекта

Google
Mikhail
10.05.2018
13:04:08
concurrent = 1 (у меня один раннер), check_interval по умолчанию
Ну, в общем, настройки есть. У меня на такое раннер не хотел запускаться, говорил что-то про то, где он наблюдал мою мать, когда разбирал неразбираемый toml. И в итоге после генерации получался сначала этот блок, потом сгенеренный строкой /entrypoint register. Возможно, это веселье новых версий

Andor
10.05.2018
13:05:09
у нас на прошлой работе было по своей /24 на каждой кубе-ноде и анонсировалось в бгп

Konstantin
10.05.2018
13:05:27
да у них там больше легаси, паппет и т.п. - я ба на них сильно не ориентировался при начале нового проекта
Это конечно оффтоп) там просто выше ребята стабильный kube хотят сделать. Я и сказал, что все кейсы только в процессе эксплуатации выйдут

Andor
10.05.2018
13:05:29
закат солнца вручную, но когда начали это реализовывать - не было нормальных решений

сплошные фланнели

Dmytro
10.05.2018
13:06:07
думаю что из русскоязычных компаний сейчас хороший ориентир это флант (из тех что я знаю). Они делают кучу проектов для разных клиентов и пробовали и так и этак

и им есть что рассказать

Andor
10.05.2018
13:06:36
они будут пытаться продавать свои услуги на каждый чих?

Dmytro
10.05.2018
13:06:58
у авито легаси, свой один датацентр и т.п. - все кейсы весьма специфичны

Andor
10.05.2018
13:07:26
у всех легаси :)

Dmytro
10.05.2018
13:07:38
они будут пытаться продавать свои услуги на каждый чих?
не без того, но статьи на хабре пишут - можно почитать (понятно что на английском таких статей тьма)

Konstantin
10.05.2018
13:10:09
Статьи - дело полезное, но не благодарное. У всех свои условия, свои костыли, сложности и легаси. Это доказывает само существование фланта

Google
Андрей
10.05.2018
13:56:42
Dmytro кстати, если интересно, openebs взлетел, но подключится он не может, чет не понимаю где доступы прописать в кубике правильно. Так что почти все работает. :)

Dmitrii <freehck>
10.05.2018
13:57:14
Ребята, такой вопрос: когда создаёшь Docker image для кубера, в RUN нужно прописывать перенаправление в stdout и stderr, или кубер это сам за меня сделает?

Andor
10.05.2018
13:57:53
перенаправление чего?

кубер за тебя запустить контейнеры, как из них выводить логи - твоя забота

Dmitrii <freehck>
10.05.2018
13:58:52
Окей, спасибо.

Stanislav
10.05.2018
14:01:32
Как в деплойменте вызвать rolling restart контейнеров?

У меня деплоймент не меняется, но при старте контейнер цепляет актуальную конфигурацию (список неймспейсов, на основании которых генерится конфиг для софта). Есть событие, из которого хочется по очереди группу контейнеров деплоймента порестартить.

Andor
10.05.2018
14:03:54
мы это костылём делаем с генерацией id деплоя

Stanislav
10.05.2018
14:04:02
Понял

Andor
10.05.2018
14:04:11
оно подставляется в некоторые места и провоцирует пересоздание подов

Stanislav
10.05.2018
14:04:12
Я тоже чет получше варианта не нашел.

Ага

https://kubernetes.io/docs/tasks/run-application/rolling-update-replication-controller/

Andor
10.05.2018
14:10:54
а он как это делает?

Andrey
10.05.2018
14:11:12
DEPLOYED_TS {{ now }} в env

Dmytro
10.05.2018
14:11:22
Dmytro кстати, если интересно, openebs взлетел, но подключится он не может, чет не понимаю где доступы прописать в кубике правильно. Так что почти все работает. :)
я ж не настоящий сварщик, у меня в амазоне всё - за openebs ничего не могу сказать, но что взлетело звучит хорошо ?

Andor
10.05.2018
14:11:55
DEPLOYED_TS {{ now }} в env
это ж то же самое

Dmytro
10.05.2018
14:11:59
а он как это делает?
https://github.com/kubernetes/helm/blob/master/docs/charts_tips_and_tricks.md#automatically-roll-deployments-when-configmaps-or-secrets-change

Google
Andor
10.05.2018
14:12:55
ну у амазона тоже нету

Dmytro
10.05.2018
14:13:08
а EBS амазоновский не умеет write many - это наверное by design

Andor
10.05.2018
14:13:20
у гугла есть

Dmytro
10.05.2018
14:13:25
плюч у хелма есть пост инстал пост апдейт хуки

Андрей
10.05.2018
14:13:39
Andrey
10.05.2018
14:14:00
А iscsi утилиты установлены?

Андрей
10.05.2018
14:14:20
Да, и запущены, но без isxsiadm

Dmytro
10.05.2018
14:14:24
у гугла вроде нету write many, только read же?

Андрей
10.05.2018
14:14:28
Он падает с 21 кодом

Andrey
10.05.2018
14:16:13
Можно и логи в pastebin

rbac включен?

Andor
10.05.2018
14:16:42
но лично мне это бы уже пригодилось

а так пришлось костылить со стейтфулсетом

Андрей
10.05.2018
14:19:40
Можно и логи в pastebin
https://prnt.sc/jg5in5 Да, включен

Banschikov
10.05.2018
14:21:55
https://prnt.sc/jg5in5 Да, включен
Х.з. Ставил по инструкции с их сайта несколько раз и все работало из каробки.

Banschikov
10.05.2018
14:22:39
Андрей
10.05.2018
14:23:01
Хм, пойду еще раз перечитаю, может пропустил что-то

а на какую ось?

Google
Banschikov
10.05.2018
14:24:28
а на какую ось?
У меня Debian 9 . Деплоил кластер при помощи kubespray

Андрей
10.05.2018
14:24:50
У меня Debian 9 . Деплоил кластер при помощи kubespray
посмотрю что можно сделать для coreos :)

Banschikov
10.05.2018
14:25:01
И ставь пакет open-iscsi

Konstantin
10.05.2018
14:25:07
А разве не лучше репликацию для бд, не будет останова из-за миграций.

Andrey
10.05.2018
14:27:14
Это почему не будет? Они точно так же прилетят на реплику

Jango
10.05.2018
14:30:10
Коллеги, а можете объяснить в чем плюсы и минусы RancherOS в сравнении с CoreOS? И если можно, то с кейсами, в каких случаях имеет смысл использовать одно вместо второго?

Dmytro
10.05.2018
14:39:40
судя по картинке архитектуры лучше наверное не связываться https://github.com/rancher/os

Konstantin
10.05.2018
14:42:27
судя по картинке архитектуры лучше наверное не связываться https://github.com/rancher/os
Нормально там с архитектурой)) другой подход только))

Fike
10.05.2018
14:45:07
> System Docker then launches a container that runs the user Docker. aw yeah

Konstantin
10.05.2018
14:49:24
Слышал что еще не стабильна, хотя уже давно не ничего не слышал про ранчер
1я давно стабильна же, да и вообще, это обёртка больше, если про оркестратор. А ОС - голое ядро с системным докером PID 1 и пользовательским докером внутри

Yaroslav
10.05.2018
15:06:55
Всем привет. Есть миникуб на котором разворачиваются сервисы с помощью helm-а Images - берутся из удаленного регистри. Можно ли как нибудь взять image с локального регистри ?

Yaroslav
10.05.2018
15:14:19
А в чем проблема?
Да собственно хотелось бы оставить удаленный регистри как основной , а для нужн разработки - использовать локальный. Как такое можно сделать?

Andrey
10.05.2018
15:27:11
Кстати, а в чем сакральный смысл registry-proxy что ставит kubespray? Там же просто nginx без всего, можно просто заменить сервисом, нет?

Vitaliy
10.05.2018
16:41:47
А ни у кого случаем нет манифестов/урла на кафку с aws elb? Не получается достучаться извне кластера ?

Google
Alexey
10.05.2018
19:05:45
Добрый вечер, а как сделать чтоб kubectl exec -ti bash не отваливался? А то я там запускаю задачки на полчаса

Dmytro
10.05.2018
19:07:01
nohup, screen, tmux...

Alexey
10.05.2018
19:07:50
То есть просто параметр с keepalive не передать :(

Andor
10.05.2018
19:08:41
а зачем так запускать задачи?

нельзя ли через job?

Alexey
10.05.2018
19:09:17
Можно и через джоб

Но в жизни всякое бывает

Если через скрин то сессия все равно будет отваливаться при неактивности?

Anton
10.05.2018
19:13:45
Пусти ее внутри в бэкграунд и потом собери результат

Alexey
10.05.2018
19:15:16
Ну мы иногда заходим в рельсовую консоль

Она грузится долго

И еще бывает поделаешь там что-то, отвернулся на 10 мин и все сначала

Грузи, делай запросы

Такого плана задачки

Dmitrii <freehck>
10.05.2018
19:16:45
Надо перенаправлять все самому.
Спасибо. То есть в CMD или ENTRYPOINT перенаправление сделать, правильно я Вас понял?

Dmytro
10.05.2018
19:21:22
сделать где-то внутри докерфайла, в зависимости от приложения это может быть сделано по разному

Andrew
10.05.2018
20:29:01
Да собственно хотелось бы оставить удаленный регистри как основной , а для нужн разработки - использовать локальный. Как такое можно сделать?
Все просто, делаешь два секрета для докер регистри, в ямликах хельма для приложения указываешь откуда катить (имя секрета). Можно в два разных нс-а катить и из values передавать, что в один нс из основного регистри, а в другой - из другого соответственно

Vasilyev
11.05.2018
04:08:46
А ни у кого случаем нет манифестов/урла на кафку с aws elb? Не получается достучаться извне кластера ?
Если у вас 3 кафка ноды(забыл как они называются в терминах Кафки), то делайте для каждой свой елб и экспозьте внешние ипы. Иначе вы не прикоснетесь. Кста, соединение между кафкой и клиентом не шифрованное, так что можете увидеть прям в трафике, что улетает клиенту при установке соединения.

Dmytro
11.05.2018
06:06:46
посмотрю что можно сделать для coreos :)
У меня iscsi на cores, работает отлично. Там нужно добавить параметры в kubelet чтобы все поднялось

Страница 557 из 958