
Dmitriy
19.09.2016
12:43:28

Maxim
19.09.2016
12:43:36
нет
только те, для которых манифесты поменялись
ты можешь пойти сейчас на любую ноду и пристрелить там kubelet

Google

Maxim
19.09.2016
12:44:15
все поды будут продолжать бежать
остановить-то их будет некому со смертью кьюблета ;)

Dmitriy
19.09.2016
12:46:10
это круто, а то у нас проблема что когда по очереди гасишь и переподнимаешь новые ноды с новой версией kubelet, в один момент получается запущен только один под redis cluster и он разваливается и не поднимается уже

Maxim
19.09.2016
12:46:33
эээ
а зачем ты ноды гасишь?

Dmitriy
19.09.2016
12:47:15
ну копс так делает, у нас aws
Новую поднимаешь ноду, старую гасишь
и бывает что под поднимается не на новой ноде а на старой, получается два пода на старой ноде
потом ты ее гасишь и уже один под остается
кластер из трех подов у нас

Fike
19.09.2016
12:50:14

Maxim
19.09.2016
12:51:04
гггг

Dmitriy
19.09.2016
12:53:06
а в пользу чего отказаться?

Google

Fike
19.09.2016
12:53:57
смотря для чего вы его используете. из message queue самые положительные отзывы за кафкой (но там вроде еще ZK придется поднимать), k-v хранилищ сколько угодно, у меня аэроспайк (к нему свои претензии, но нам не нужны строгие гарантии в k-v кэше)

Dmitriy
19.09.2016
12:54:33
ну а в чем профит? чем редис плох?
этож не мемкеш)

Fike
19.09.2016
12:57:09
в этом чате места не хватит. у него абсолютно нулевые гарантии и абсолютно ущербная однопоточная модель, аналогично с персистенсом (в сохранении данных раз в N минту нет никакого смысла, потому что у тебя нет гарантии, записались ли только что отправленные данные), я видел забавные случаи с "у меня редис отвечает семнадцать секунд" просто потому что автор придумал модный хак в виде хранения всего в памяти вместо нормальной архитектуры
и кластер у него банально не работает, насколько помню

Dmitriy
19.09.2016
12:57:47
ну там sentinel ставится, который ТИПА следит за кластером

yolkov
19.09.2016
12:57:51
другой чат

Fike
19.09.2016
12:57:55
ну и отдельная хохма в виде того что после развала кластера его нужно вручную собирать
кк

Andrey
19.09.2016
13:25:09
другой чат
Предлагаю создать кубернетес оффтоп... орги, ктотам. Потому как вопросы бывает выходят далеко за, да и комьюнити растет )

Dmitriy
19.09.2016
13:26:34
А какие еще чаты есть кстати? по golang есть?

Andrey
19.09.2016
18:26:26
а как в кубернетесе модно конфиги хранить если у меня куча мелких сервисов и я запутаюсь в конфигмапах?

kay
19.09.2016
18:26:51
один конфигмап?

Andrey
19.09.2016
18:27:12
дак каждый сервис сам свои конфиги деплоит
пока не представляю как лучше организовать

Dmitriy
19.09.2016
18:35:21
Как модно - хз, я просто запилил структуру папок, которая из сервиса в сервис одинаковая. Типа папка-тип ресурса, подпапка - специфичные для энв ресурсы
Но уже смотрю в сторону темплейтов для файлов

Aleksandr
19.09.2016
18:41:48
@pipopolam тебя можно будет попросить помочь с разворачиванием kubernetes на 300 нод?

Maxim
19.09.2016
18:42:48
хехе, я так еще не пробовал
а что за ноды?

Google

Maxim
19.09.2016
18:44:37
сколько мастеров планируешь?
один датацентр или несколько?

Aleksandr
19.09.2016
18:47:20
3 ДЦ

Maxim
19.09.2016
18:47:39
так, то есть это уже ubernetes будет?

Aleksandr
19.09.2016
18:48:29
Сейчас только есть 2 ДЦ, третий будет в декабре

Maxim
19.09.2016
18:48:42
ну это не важно
на этапе проектирования
главное понять, чего с федерацией делать

Тимур
19.09.2016
20:15:41
кто-нить запускает в кубернетсе сервисы которым нужен сторадж ? ну там эластику или influxe/graphite, etc...
я про PersistentVolumeClaim в курсе если что :) интересует реальный опыт

Pavel
19.09.2016
20:16:11
лично я бы такое вообще в контейнерах не запускал :)
и дело даже не в сторадже

Artur
19.09.2016
20:16:33
ой, а мне вообще интересно, в реальном мире кто-то запускает базы данных, эластик серчи и т.п. или нет

Pavel
19.09.2016
20:16:36
а в том, что завалится что-то из-за “нюансов контейнеризации” - будешь руками чинить

Artur
19.09.2016
20:16:47
в контейнерах
безотносительно k8s

Pavel
19.09.2016
20:17:18
пока что у нас бд сами по себе значительно стабильнее любых “контейнерных технологий”

Тимур
19.09.2016
20:17:41
@fxposter до определенного момента я тоже пока так думаю, но чувствую скоро конец будет и этой теории

Pavel
19.09.2016
20:17:44
так что - пробовать можно, ибо удобно, но лично я бы не стал :)
посмотри на количество багов в докере

Google

Pavel
19.09.2016
20:18:10
довольно много из которых -довольно критичны

Artur
19.09.2016
20:18:24
мне сейчас больше кажется, что мне просто уровня опыта не хватит, чтобы ещё и базы в контейнеры совать

Pavel
19.09.2016
20:18:26
а многие из критичных - из-за проблем инфраструктуры,а не докера

Artur
19.09.2016
20:18:34
учитывая, что в проде докера никакого ещё нет

Pavel
19.09.2016
20:18:41
т.е. fs/net/kernel

Artur
19.09.2016
20:18:46
вот через полгода-год можно думать, наверное

Pavel
19.09.2016
20:19:05
у нас этим проблемам уже год точно есть :)

Artur
19.09.2016
20:19:06

Admin
ERROR: S client not available

Pavel
19.09.2016
20:19:13
мы на aufs
с overlay свои проблемы были
но в целом думаю пробовать переходить на него
проблема в том, что баги ядра или его модулей обычно отражаются на всей системе, а не каком-то конкретном контейнере
и в итоге - ребут (например)
что приводит к тому, что на 5-10 минут ты теряешь хост
что некритично для stateless штук, но очень критично для какого-нибудь mysql
если, конечно, у тебя не master-master и автоматически переключающиеся клиенты (скорее всего это не так)

Artur
19.09.2016
20:22:24
у меня вообще основное приложение хрен в контейнеры засунешь, слишком много проблем
всё мечтаю в k8s это как-то засунуть

Pavel
19.09.2016
20:22:40
т.е. идея PV/PVC - очень интересная. и я почти уверен, что при наличии стабильной инфраструктуры самих контейнеров - вопрос бы в принципе не стоял. а так - рисковано :)

Google

Pavel
19.09.2016
20:22:58
а у нас нет куба
по многим причинам
хотя микросервисы :)
да и если и будет куб - то только для шедулера. т.к. хочется внятные фоллбеки на другие DC и у нас свои нюансы с фоллбеками и хелсчеками
т.е. скорее всего kube-proxy будет кастомный

Fike
19.09.2016
20:24:19
насколько понимаю, pv в любом случае будет по сетке работать, что не всегда приятно.

Pavel
19.09.2016
20:24:32
в AWS у тебя все по сетке работает
вообще все
у тебя rootfs тоже по сетке

Maxim
19.09.2016
20:24:58
так вроде бы сперва в контейнеры, потом их в к8с, не?
у меня вообще основное приложение хрен в контейнеры засунешь, слишком много проблем
всё мечтаю в k8s это как-то засунуть

Fike
19.09.2016
20:25:03
в aws у меня сейчас ничего не работает (

Pavel
19.09.2016
20:25:05
разве что ты instance storage используешь (скорее всего нет)

Andrey
19.09.2016
20:25:22
Ну я эластик запихнул в кубик

Pavel
19.09.2016
20:25:22
ну как показывает практика - в AWS все отлично (в основном) работает

Andrey
19.09.2016
20:25:46
Монга там же )

Pavel
19.09.2016
20:27:11
ну и да - PV - это глобальный network-attached storage
в своем DC - какой-нибудь ceph
в теории с petset-ами наверное можно и локальный сторадж юзать
там по крайней мере автоматом оно не будет переносится на другие ноды