
Sergey
20.04.2018
07:18:26
а если шина в другом поде, разница есть?

Andrey
20.04.2018
07:18:43
а чем обусловленно требование быть в одном поде?

Юрий
20.04.2018
07:19:14
Всегда должен быть 1 инстанс шины на 1 инстанс приложения.
Так заложено архитектурой шины.

Google

Andrey
20.04.2018
07:22:05
может, тогда чарты объединить, и пусть одна команда этим занимается?
или они у вас где-то по отдельности ещё используются?

Юрий
20.04.2018
07:22:30
Не варинт, так как приложений работающих с шиной > 50

Andrey
20.04.2018
07:23:06
и все 50 должны быть в одном поде?

Юрий
20.04.2018
07:23:22
нет, ты что)
просто не хочется во все 50 чартов приложений делать копипаст чартов шины

Andrey
20.04.2018
07:24:11
а, понял

Юрий
20.04.2018
07:24:38
и хочется дать гибкий механизм по обновлению версии шины.
Мол указал другую версию шины, и все завелось.

Andrey
20.04.2018
07:25:07
Скорее всего, придётся. Если у тебя все приложения зависят от zip, то его надо для всех приложений указать, как зависимость

Юрий
20.04.2018
07:26:37
Да, только в случае с зипом ты его ставишь в тот же контейнер из deb репозитория.
и это не процесс который должен жить постоянно.

Sergey
20.04.2018
07:26:51
какая шинка

Юрий
20.04.2018
07:27:43
У нас своя реализация шины над одним из популярных решений.

Google

Юрий
20.04.2018
07:31:47
Вчера курил интернеты по поиску подобного решения. Полагаю ничего подобного пока что нету =(

Andrey
20.04.2018
07:32:51
просто зависимость. То, что необходимо для работы (части) приложения.

Юрий
20.04.2018
07:34:49
Если ставить его в тот же контейнер, это уже не по фэншую. Будет 2 процесса на 1 контейнер.

Dmitrii <freehck>
20.04.2018
07:42:10
Ребята, а кто-нибудь сталкивался с тем, что под xenial на ноде с мастером в kubespray не поднимается kube-apiserver?
Я там видел инструкции для Jessie, что советуют поставить systemd 230, может быть в этом дело?
В syslog мне пишет, что контейнер вроде как сдыхает сразу же:
https://pastebin.com/ZQQXsNzV

Let Eat
20.04.2018
07:48:27


Roman
20.04.2018
08:04:37
Коллеги, поправьте меня. Фичуры, которые предоставляет клауд-провайдер (типа aws) для куба - сводятся к стореджу и к балансировке перед кубом. Это так, или я что-то забыл?

Arslanbekov
20.04.2018
08:22:23
ребята, кто-нибудь использует — https://github.com/kubernetes-incubator/kube-arbitrator для управления ресурсами?

Denis
20.04.2018
09:03:22
Народ кто в курсе почему Хипстер ошибками срет и метрики не пишет : error while getting containers from Kubelet: failed to get all container stats from Kubelet URL "http://10.x.0.x:10255/stats/container/": Post http://10.x.0.x:10255/stats/container/: dial tcp 10.x.0.x:10255: getsockopt: connection refused

Andrey
20.04.2018
09:04:49
потому что у тебя у кублета readonly port на 10255 не задан

Sergey
20.04.2018
09:04:49

Denis
20.04.2018
09:05:07
thnx =)
у меня вообще на этом порту ни фига не слушает
потому что у тебя у кублета readonly port на 10255 не задан
- как победить?

Andrey
20.04.2018
09:16:39

Silent
20.04.2018
09:45:10
День добрый господа
вчера поднял кубеспрей HAproxy

Valentin
20.04.2018
09:49:33
*applause*

Google

Dmitryi
20.04.2018
10:49:25
Всем привет
У кого-то был опыт с cephfs на кубере ?
https://github.com/kubernetes-incubator/external-storage/tree/master/ceph/cephfs
Если да, то как правильно указать reclaimPolicy для этого storageclass ?
Вычитал что нужно просто добавить reclaimPolicy для storageclass но не срабатывает. Еще посмотрел на код и там есть поддержка ReclaimPolicy но буд-то она не срабатывает.
https://github.com/kubernetes-incubator/external-storage/blob/master/ceph/cephfs/cephfs-provisioner.go#L176

Andor
20.04.2018
10:52:48
а ты пересоздавал?

Dmitryi
20.04.2018
10:52:55
да

Sergey
20.04.2018
10:55:09

Алексей
20.04.2018
10:58:35
подскажите плюсы и минусы self-hosted кластера kubernetes

Владимир Калинин
20.04.2018
10:59:40

Favoretti
20.04.2018
10:59:49
плюсы - ты все контролируешь. минусы - ты все контролируешь

Sergey
20.04.2018
11:00:20
грубо говоря следить за ним придется тебе

Алексей
20.04.2018
11:01:48
контролирую я и так все, либо в виде сервисов на хостовой операционке, либо все тоже самое в самом кластере средствами kubernetes
по дешевле не совсем понятно, потребление ресурсов не меняется
геморнее в чем?

Sergey
20.04.2018
11:03:25
тут скорее вопрос не в kubernetes, а в принципе в хостинге, за дисками и охлаждением тоже ты следить должен

Andrey
20.04.2018
11:05:15

Алексей
20.04.2018
11:06:00
у меня бареметал, вариант кластер как сервис не рассматривается

Sergey
20.04.2018
11:06:25
а как что вы его рассматриваете

Владимир Калинин
20.04.2018
11:06:31

Alex Milushev
20.04.2018
11:08:23
господа, а кто-то пробовал стартовать etcd как статик под в кублете?

Google

Alex Milushev
20.04.2018
11:08:31
или это нафиг не уперлось?

Алексей
20.04.2018
11:08:52
Да Владимир, вы все поняли правильно
как абстракцию поверх железа позволяющую уменьшить количество трудозатрат на выведение сервисов в использование.

Ihor
20.04.2018
11:09:30
@zunkree а как вы еще его собираетесь стартовать, если внутри кубера крутите?

Алексей
20.04.2018
11:09:48
И уменьшить затраты времени на этот процесс. Есть еще вопросы стандартизации ну и прочие мелочи.

Alex Milushev
20.04.2018
11:09:53
ну можно отдельно на тазиках с помощью systemd стартовать

Ihor
20.04.2018
11:11:12
ну это уже, простите, извращение
это называется не "ранить в кубернетисе", а "реюзать докер демон кластера кубернетиса". или, возможно, я недопонял

Andor
20.04.2018
11:14:21
кажется речь про етцд который для кубера

Sergey
20.04.2018
11:14:35
+

Ihor
20.04.2018
11:15:32
ну и?
нельзя стартовать поды через systemd, можно только docker контейнеры

Andor
20.04.2018
11:15:59
запускать жизненно необходимый компонент системы внутри этой системы?

Ihor
20.04.2018
11:16:32
именно так люди это и делают, представляете? :)
kubelet такой стартуется systemd и запускает "жизненно необходимые" компоненты кубера в подах

Andor
20.04.2018
11:17:23
etcd разве тоже внутри запускают?

Ihor
20.04.2018
11:17:55
ну здрасте. так это по умолчанию и запускают. а потом вытягивают из кубера, если нагрузка большая

Andor
20.04.2018
11:18:21
и как же бутстрапят етцд если етцд нету?

djaarf
20.04.2018
11:20:57
kubelet при старте запускает поды описаные в /etc/kubernetes/manifests

Alex Milushev
20.04.2018
11:20:58
через static pods
у нас так все компоненты кроме etcd на стенде собраны

Google

Andor
20.04.2018
11:21:28
понял
не знал про такую радость

Alex Milushev
20.04.2018
11:21:35
вот Я и подумал, а почему-бы туда так-же и etcd не впихнуть
и может у кого есть опыт, почему это хуйово

Алексей
20.04.2018
11:22:05
это не умолчания, собственно можно все запускать как сервисы операционной системы, можно self-hosted
это когда компоненты кластера управлюятся самим кластером

Айбелив
20.04.2018
11:22:14

Алексей
20.04.2018
11:22:33
https://github.com/kubernetes/community/blob/master/contributors/design-proposals/cluster-lifecycle/self-hosted-kubernetes.md

Alex Milushev
20.04.2018
11:22:42
но etcd будет ранаться на отдельных машинах а сам кублет сразу будет рестартован systemd'ой

Алексей
20.04.2018
11:24:59
Собственно мой вопрос выше как раз про это
плюсы и минусы кластера в такой конфигурации
свои мысли есть, но хочется послушать чужое мнение.

Sergey
20.04.2018
11:25:47
куберу все равно где ты его запустишь, тут опять же повторюсь вопрос не в кубере

djaarf
20.04.2018
11:26:06
плюсы, можно смотреть логи и статус и рестартить через kubectl )))

Айбелив
20.04.2018
11:26:44

djaarf
20.04.2018
11:26:45
минусы помимо кубелета он еще зависит и от демона докера

Алексей
20.04.2018
11:26:48
мониторинг железа и дисков я не поднимаю, это отдельная тема которая давно решена.
что значит нельзя остановить?

Айбелив
20.04.2018
11:27:37