
Sergey
07.09.2018
17:29:01
тада особого смысла ставить не вижу

Sergei
07.09.2018
17:37:57
Я юзаю. Мне понравилась интеграция с AD

Sergey
07.09.2018
17:40:49

Anton
07.09.2018
17:47:49

Google

Sergey
07.09.2018
17:48:19
скорее одна из фич харбора

Anton
07.09.2018
17:48:58
Ну я про него и написал

Ivan
07.09.2018
20:24:33
Ни у кого не было проблемы с daemonset? node-exporter не хочет заходить на все ноды, поднялся только на 5 нодах из 14( Кластер 1.9.6 (kops AWS)

Igor
07.09.2018
20:27:31
1. ресурсов не хватает
2. taint какие нибуть
но вообще то не сталкивался

Vitaliy
07.09.2018
20:33:16

Ivan
07.09.2018
20:34:24

Vitaliy
07.09.2018
20:35:57
у меня недавно не стартовали даемонсеты на одной ноде.
версия 1.9.7
ноду я создал в кластере заранее, а кубелет включил только спустя несколько часов. Поды стартовать на ноде после включения кубелет как раз не хотели. Я вникать не стал - рестарт controller-manager сразу помог.

Ivan
07.09.2018
20:37:27
Я все жду копс 1.11 там и с nvme pvc проблем не будет. на метале уже 1.11 кубспреем вкатил, нравится)
Короче я нашел корень зла в других неймспейсах, когда только сетапали кластер тестово деплоили хельмом kube-prometheus и как оказалось helm delete --purge оставил после себя мусор в виде daemonset node-exporter в другом неймспейсе. Вот они и поделили ноды между собой

Anton
08.09.2018
12:27:12
Кто юзает stolon в кубере?

Konstantin
08.09.2018
12:37:17

Anton
08.09.2018
12:38:09
Есть парочка глупых вопросов, у меня stolon не в кубере, хочу перенести

Google

Konstantin
08.09.2018
12:38:47
Каждый день говорят - пишите сразу вопрос, сразу к делу.

Anton
08.09.2018
12:39:06
Обязательно ли keeper задавать как StatefulSet? или можно как DaemonSet
Есть подозрение что Stolon привязывается к ID машины, в данном случае виртуальной, и демон сет может не сработать, так id после пересоздания может менятся
С другой стороны, если StatefulSet - изза ReadWriteOnce он не сможет развернуть две реплики на одной ноде

Никита
08.09.2018
12:51:19

Anton
08.09.2018
12:51:42
Наоборот я хочу DaemonSet
И похоже StatefulSet с Once будет его подобием
если количество реплик совпадет с количеством нод

Andrey
08.09.2018
14:27:59
/leave

Roman
08.09.2018
17:26:02
Всем привет, кто то сталкивался с низкой пропускной способностью в flannel, запущен он на hetzner cloud версия kubernetes 1.11.2
------------------------------------------------------------
Client connecting to 10.244.10.173, TCP port 5001
TCP window size: 0.04 MByte (default)
------------------------------------------------------------
[ 3] local 10.244.11.151 port 55312 connected with 10.244.10.173 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-67.0 sec 11.8 MBytes 1.47 Mbits/sec
Ставил flannel так:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
В версии 1.10.1 на железе таких проблем нет

Эдуард
08.09.2018
18:38:01

bebebe
08.09.2018
19:02:04

Andrey
08.09.2018
19:24:30
Ребят, а в helm реально при ( .Files.Glob ).AsSecrets подставить переменные в подтягиваемом файле?

bebebe
08.09.2018
19:27:49

Andrey
08.09.2018
19:28:50
База отдельно + proxysql, кластер CH на local-volumes, куча stateless...

bebebe
08.09.2018
19:30:15
Можно рядом так то и ceph развернуть для pvc

Roman
08.09.2018
19:32:17

Google

Andrey
08.09.2018
19:32:21

Roman
08.09.2018
19:34:17

bebebe
08.09.2018
19:35:10
Спасибо

Roman
08.09.2018
19:39:02

Leo
08.09.2018
19:39:52

Roman
08.09.2018
19:40:46
Чистое жалезо
Так у меня тоже работает но с flannel, а вот в cloud тормозит

Andrey
08.09.2018
19:43:05
на Hetzner Cloud?
У меня в cloud только мастера в разных локациях, сами по себе виртуалки там то еще гавно
Но есть в планах юзать их облако для автоскейлинга stateless приложений, которые любят проц

Roman
08.09.2018
19:44:05

Andrey
08.09.2018
19:44:51
В сравнении да, а так живем там лет 5 и не все прям ужасно)

Andrey
08.09.2018
19:46:08
Да, для stateless hetzner прямо то что нужно. Дёшево и сердито. И если поменяют как всегда не тот диск в рейде, не страшно.

Andrey
08.09.2018
19:49:29
«И если поменяют как всегда не тот диск в рейде, не страшно.» уж сколько дисков поменяли, ни разу такого не было

Эдуард
08.09.2018
20:50:08

Roman
08.09.2018
21:07:09
вообщем с Calico полет нормальный, прийдется отказаться от flannel
------------------------------------------------------------
Client connecting to 192.168.153.193, TCP port 5001
TCP window size: 0.04 MByte (default)
------------------------------------------------------------
[ 3] local 192.168.218.1 port 57530 connected with 192.168.153.193 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-30.0 sec 4473 MBytes 1251 Mbits/sec

Эдуард
08.09.2018
21:13:24

Anton
08.09.2018
21:23:23
Есть возможность чтобы у демонсетов суфукс был не случайный набор а имя ноды?

Let Eat
09.09.2018
06:16:46
Гитлаб на множестве kubernetes кластеров : раннер в каждом и стучится в общий gitlab или раннер в общем гитлабе и стучится в множество kubernetes серверов?

bebebe
09.09.2018
06:22:09

Alexey
09.09.2018
06:23:45
Я бы сказал, что пофиг, как удобней. Хоть микс.

Google

Alexey
09.09.2018
06:26:03
Т.е. никто не мешает держать runner и в общем и в личном. Если нужно и это не бесполезное дублирование.

Let Eat
09.09.2018
06:34:11
второе
В чем бонус? У меня все права очень ограничены, если раннеры не там, где аписервер в который они будут деплоить, то муторно вытаскивать токены для сервис аккаунта из одного кластера и прописывать их в другом

bebebe
09.09.2018
06:35:06

Let Eat
09.09.2018
06:35:36
второе
Вижу преимущество в том, что права на гит клон и вообще доступа до гитлаба давать из других кластеров не надо

bebebe
09.09.2018
06:38:20
в первом случае: вы должны научиться деплоить раннеров в ваших k8s, поддерживать коннективити между раннерами в k8s и вашим gitlab, и как-то в целом следить что-бы они были онлайн
во втором случае: вы деплоите gitlab, внутри запускаете pod'ы которым пропихиваете kubeconfig/api tokens, которые удаленно работают с k8s.
второй случай более простой и безотказный

Let Eat
09.09.2018
06:45:44

bebebe
09.09.2018
06:46:49
ясно понятно, какие есть еще нюансы?
например что у кластеров коннективити с gitlab'ом есть только по понедельникам с 8am-10am PST+4?

Let Eat
09.09.2018
06:48:23
Я сделал первый вариант пока, но сильно не думал , а вот сейчас задумался :) второй вариант кажется правильнее. собираю мнения если кто как рашал прежде чем переделывать :) (думать о том что делаешь ДО не вариант как водится :) )

Yaros
09.09.2018
21:09:08
всем привет
заранее извиняюсь за нубский вопрос, но где можно почитать по тому, как разные типы конфигурации отдаются контейнеру в кубернете?
То есть у меня три среды: dev, qa, prod под каждую свой конфиг, скажем в dev.env, qa.env, prod.env. Как правильно в кубернете отдавать конфигурацию в зависимости от окружения и как вообще правильно
вести разработку если есть окружение для dev, qa, prod? Пока смотрю на ConfigMap и вроде то, что нужно или есть другие варианты?


Alexey
09.09.2018
21:12:15
всем привет
заранее извиняюсь за нубский вопрос, но где можно почитать по тому, как разные типы конфигурации отдаются контейнеру в кубернете?
То есть у меня три среды: dev, qa, prod под каждую свой конфиг, скажем в dev.env, qa.env, prod.env. Как правильно в кубернете отдавать конфигурацию в зависимости от окружения и как вообще правильно
вести разработку если есть окружение для dev, qa, prod? Пока смотрю на ConfigMap и вроде то, что нужно или есть другие варианты?
Конфиги это файлы?
Новые приложения конфигурировать только через ENV
А для старых, которые хотят разные файлики и перепиливать лень - просто делаю cat conf | base64 и в одну ENV, обычно это уже легаси.

Yaros
09.09.2018
21:14:27
@alexesDev да, конфиги это разные файлы.

Alexey
09.09.2018
21:15:07
Как я выше написал, у меня рецепт крайне простой ? закатать в base64 и распаковывать при старте.

Yaros
09.09.2018
21:15:31
@alexesDev а где изначально конфиг хранится?

Алексей
09.09.2018
21:15:32
всем привет
заранее извиняюсь за нубский вопрос, но где можно почитать по тому, как разные типы конфигурации отдаются контейнеру в кубернете?
То есть у меня три среды: dev, qa, prod под каждую свой конфиг, скажем в dev.env, qa.env, prod.env. Как правильно в кубернете отдавать конфигурацию в зависимости от окружения и как вообще правильно
вести разработку если есть окружение для dev, qa, prod? Пока смотрю на ConfigMap и вроде то, что нужно или есть другие варианты?
в helm деплоить с нужным -f values-qa.yaml ?

Alexey
09.09.2018
21:15:48
раньше лежал в fs, потом base64 и в gitlab. gitlab через env прокидывает в кубер.
Распаковать, поменять, запаковать - редкая операция, не напрягает.

Google

Yaros
09.09.2018
21:18:11
@wowsel то есть по сути такая структура: у меня доккер образ, который зависит от конфига и три конфига: dev.env, qa.env, prod.env я могу просто отдавать их helm типа -f qa.env так?
Не работал в хелмом, поэтому вопрос. он для разных окружений свой образ сделает или будет один образ а потом при старте контейнера ему надо отдавать конфиг нужный?
@alexesDev а каким образом прокинуть какое окружение в кубер? Это для меня как раз сложный вопрос, как кубернету, который поднимает контейнер сказать с каким конфигом поднимать и в какой момент конфиг отдается и кем.

Алексей
09.09.2018
21:19:15


Yaros
09.09.2018
21:22:50
спасибо за ответы @wowsel @alexesDev , буду разбираться!

Andrey
10.09.2018
00:59:51

Andrey
10.09.2018
01:18:07
это какое-то необоснованное предубеждение, ENV не универсальный вариант, да и не самый секурный

Fike
10.09.2018
04:41:29
у энва-то принципиально секурность отличается от всего остального

Alexey
10.09.2018
05:13:58
У меня сейчас в большенстве мест тег равен CI_COMMIT_SHA и при kubectl apply идёт пересоздание подов, хотя фактически они часто не меняются ? Пока всем пофиг, руки не дойдут пофиксить.
Т.е. это не супер страшно. Страшно если так не получается делать из-за каких-то проблем (значит, что решение плохо работает в случае крэша пода).