
Dmitry
20.06.2017
18:54:14
И такое ощущение, что ничего с тех пор не поменялось
Ну только у kubeadm cli-интерфейс стал beta (в отдельности от всего остального!) и появился kargo

Paul
20.06.2017
18:55:14
должен напомнить, что куб - это вообще не сервис. Это клей, интегратор самых разных штук в единое рабочее решение. Разные типы контейнеров (это пока в альфе из-за crio). Разные типы оверлейной сети (weave, calico), разные типы балансировщиков, разые типы томов. каждый собирает велосипед таким, какой он им нужен

Google

Paul
20.06.2017
18:55:55
из-за этого разобраться в клубке – непросто, постоянно нужно думать о том, где кончается сфера ответственности куба и начинается сфера ответственности чего-то другого. тот же калико живет и здравствует сам по себе

Dmitry
20.06.2017
18:56:03
Да я понимаю. Но велосипед должен собираться и ехать. А когда много разных людей собирают один и тот же велосипед - все вообще должно идеально собираться
А на остальных ему параллельно: отдали в opensource и пусть возятся

Paul
20.06.2017
18:57:01

Dmitry
20.06.2017
18:57:25
Или я что-то путаю и у них нет hosted-версии k8s (не верю)?

Paul
20.06.2017
18:57:50

Dmitry
20.06.2017
18:58:01

Paul
20.06.2017
18:58:14

Dmitry
20.06.2017
18:58:16
Его буквально за последние полгода допилили до очень хорошего состояния

Paul
20.06.2017
18:58:34

Dmitry
20.06.2017
18:58:54
Ну а почему нет? Что вам в нем не нравилось?

Google

Dmitry
20.06.2017
18:59:10
compose-файлы теперь умеют всю функциональность
Фич хватает, работает из коробки, довольно интуитивно

Paul
20.06.2017
18:59:44
Ну а почему нет? Что вам в нем не нравилось?
неработоспособность (критические баги) и цена. Я предпочел работать с кубом. Если вы планируете рассказать кубоводам, что куб - плохой и надо переходить на swarm - боюсь, у вас будет мало шансов

Dmitry
20.06.2017
19:00:04
Да у меня нет цели кому-то что-то доказать. Работает - и ладно

Let Eat
20.06.2017
19:00:10

Dmitry
20.06.2017
19:00:38
Может начнем со "swarm плохой"?

Konstantin
20.06.2017
19:00:50
Я бы тоже послушал, чем сейчас swarm хорош и что умеет

Dmitry
20.06.2017
19:00:53
Лично меня в нем радует как минимум наличие довольно полной вменяемой доки

Let Eat
20.06.2017
19:02:02
мне нравится система объектов в Kube, swarm так умеет? Такие штуки как prometheus-operator, etcd-operator там возможны? нэймспейсы есть? RBAC?
вот только сегодня задачка: надо по щелчку из выбранных подов начать зеркалить трафик, и по щелчку прекращать. Такое в swarm как-нибудь организовать можно?

Konstantin
20.06.2017
19:05:06
Ты бы еще рассказал, как это сделать в k8s

Dmitry
20.06.2017
19:05:34
Если по шелчку прекращать - то reverse proxy в помощь
Неймспейсы есть, зовутся stack'ами
С авторизацией, насколько я понимаю, не все гладко, но наткнулся вот на https://docs.docker.com/engine/extend/plugins_authorization/


Let Eat
20.06.2017
19:07:58
Ты бы еще рассказал, как это сделать в k8s
ну придумали так, не реализовали пока, может какие-нибудь подводные камни есть, но план такой: в каждом поде есть контейнер, который смотрит на label пода (самого себя), появилась label -> запускаем что-то там (забыл название) на pcap, оно начинает лить. убрался label -> убиваем. в итоге разработчики, если хотят получить трафик с конкретнго пода, просто ему метку присваивают

Dmitry
20.06.2017
19:09:01
Sidecar'ы, кажется?
Хотя в общем случае можно то же самое заимплементить и со свармом: брать ip нужного контейнера, деплоить перехватчик трафика на нужные ноды и писать что хочется

Google

Dmitry
20.06.2017
19:11:03
API есть и там и там
Да, возможно у k8s больше готовых решений. Ну точнее сказать полуготовых, в alpha-alpha-not-for-production
В общем хз. Просто у меня пригорело. Концептуально к самому k8s у меня претензий никаких. Но с точки зрения заботливо разложенных граблей...

Let Eat
20.06.2017
19:16:19
ОК, ну давай менее экзотическое что-нибудь. скажем безопасное обновление кластера. в kube есть PodDistruptionBudget, и если твой деплой кластера делает kubectl node drain (как у нас kube-aws скажем), то оно завершится успехом только если поды на ноде могут быть прибиты, не привышая заранее заданное количество. В итоге некоторые ноды уходять на перезагрузку, а некоторые в цикле крутят kubectl node drain, пока оно не завершится успехом, что случится, когда ноды перезагрузятся и подбирут прибитые поды (если за это время им некуда было пойти скажем)
как итог - можно перезагрузить весб кластер без даунтайма приложений, даже если они stateful

Dmitry
20.06.2017
19:18:58
Ну согласен, ладно. У сварма такого нет (пока?). Он еще слишком молод
Аналог node drain есть, но не PodDistruptionBudget

Let Eat
20.06.2017
19:20:29
куб может быть не сильно user friendly, но в нем какие-то мелочи продуманы часто, которые на игрушечных задачах не всплывут
читаешь github issues и диву даешься, какие тонкие материи обсуждают (и решают)

Dmitry
20.06.2017
19:21:11
В общем ладно. Собственно для меня самая большая боль была - это сеть. Жить придется в public cloud'е и без ipsec никак
Получается кроме weave альтернатив нет?

Dmitry
20.06.2017
19:23:42
Кто-нибудь его использует? Как он?
Судя по отзывам в интернете (да и по собственным экспериментам) он любит жрать CPU и существенно снижать bandwidth
Притом я его тестил даже без шифрования
Но у меня он почему-то не смог использовать fastdp
Судя по логам. Как понять причину - непонятно. В документацией швах: там написано, что weave и без наших рук слишком умный и сам решит, когда и что использовать

Andrey
20.06.2017
19:26:30
Народ, а если я половины слов не знаю - это норм, или начать комплексовать? )

Dmitry
20.06.2017
19:27:19

Fike
20.06.2017
19:28:13

Google

Fike
20.06.2017
19:29:12
мда, сначала подумал что в тему будет, ну ладно теперь уж

Alisa
20.06.2017
21:51:30
кто-нить разворачивал zookeeper на kubernetes?
я могу как-то уложиться в одного агента с 1 ядерным процессором и 2гб ram? ?
а то как-то не хочется платить по 10к+ в месяц за то что играюсь с кластерами

KlonD90
20.06.2017
21:53:23
vscale.io

Alisa
20.06.2017
21:55:21
ничеси, почему там дешевле чем на azure?

Admin
ERROR: S client not available

Victor
20.06.2017
22:36:55
и говорят скорость на ядро нищенская. зато бюджетно

Dmitry
21.06.2017
04:38:32
За саппорт не ручаюсь, продом бы не рисковал, но в целом работает более чем сносно

Alisa
21.06.2017
08:54:59
а что делать, если helm delete виснет и ничего не делает? ?

Михаил
21.06.2017
09:01:57
вообще я думаю раздачу токенов устроить, если надо авторизовать конечных юзеров

Andrey
21.06.2017
10:03:38
настраивал кто jenkins?
создал ingress с доменом, теперь думаю как пробросить порт для jnlp slave:
- через ingress: эта штука норм работает? https://github.com/kubernetes/ingress/blob/master/examples/tcp/nginx/README.md
- создать еще один сервис с type=LoadBalancer и указать там порт
кто как сделал?

Dmitry
21.06.2017
10:13:09
@

kay
21.06.2017
10:13:16

Dmitry
21.06.2017
10:13:26
@vkfont Да, настраивал. Все работает

kay
21.06.2017
10:13:49
jnlp коннектится к мастеру по http. nginx отлично с proxypass справляется

Dmitry
21.06.2017
10:13:50
ну.. по-крайней мере мы воркеры динамически поднимаем как поды

Andrey
21.06.2017
10:13:57
По первому варианту?

Google

kay
21.06.2017
10:14:34

Dmitry
21.06.2017
10:19:50
@kay_rus не понимаю тебя. Какие secrets? Для чего?
https://wiki.jenkins-ci.org/display/JENKINS/Kubernetes+Plugin
Вот плагин
можно самому темплейты подов набить
а можно и в Jenkinsfile все определить
у нас 50/50

kay
21.06.2017
10:22:47
а. понял. когда без kubernetes plugin слейв используешь, то при создании нового слейва master ему создает специальный token, с помощью которого ты должен запутстить slave. и slave этот token будет использовать

Dmitry
21.06.2017
10:25:09
Я понял. У нас воркеры динамические. Это позволяет каждый раз запускать билд на чистом окружении
что очень хорошо =)

Sergey
21.06.2017
10:26:06
Всем привет, ищу помощи сам в девопсе нуб. Есть стартап в котором я отвечаю за всю тех часть и 5000$ на aws, все на Node, типа микросервисы, сейчас крутятся на хероку. частитично докерезовал, в докер в целом ламер, но умею. Начал изучать девопс, комьюнити у kubernetes вроде как больше всего и все советуют и в aws умеет, так что хочу заюзать его. Щас хочу заюзать https://github.com/kubernetes-incubator/kube-aws/blob/master/Documentation/kubernetes-on-aws.md
Хочется спросить совета пообщатся, я правильно зашел?
Попробовал rancher, но чуда не случилось, вернулся курить kubernetes

Dmitry
21.06.2017
10:31:25

Sergey
21.06.2017
10:33:18
У нас будет нагрузка в конце августа и бюджета-времени столько, что лучше я один буду ночами фигарить изучать, чем искать-вводить еще одного человека
попробую https://stackpoint.io/ спасибо