@kubernetes_ru

Страница 835 из 958
Anastasia
20.09.2018
13:44:41
enviroments

kvaps
20.09.2018
13:45:26
да, но для каждого экземпляра отдельный

Evgeniy
20.09.2018
13:46:13
Коллеги подскажите а кто нибудь кластерный elasticsearch использует в кубере ?

Столкнулся с проблемой работы plugins

Google
kvaps
20.09.2018
13:47:16
причем в нем ни чарт не указать ни имя

Evgeniy
20.09.2018
13:54:13
Я развернул кластер 3 мастера 2 датаноды 2 клиента

Artem
20.09.2018
13:54:34
Лучше сразу начинать с чарта

bebebe
20.09.2018
13:54:52
два магнитофона два постигара

Evgeniy
20.09.2018
13:55:07
Из официального докера еластика собрал контейнер все что добавил это модуль морфологии

Artem
20.09.2018
13:55:13
https://github.com/helm/charts/tree/master/incubator/elasticsearch

Evgeniy
20.09.2018
13:55:46
Лучше сразу начинать с чарта
https://github.com/bitnami/charts/tree/master/bitnami/elasticsearch

Artem
20.09.2018
13:56:52
у меня из него ставится, правда пришлось допилить

bebebe
20.09.2018
13:56:56
Evgeniy
20.09.2018
13:57:55
У меня тоже ставится без проблем Ну немного допилить тома и работает Но проблема в том что когда приложение начинает обращатся к еластику То на одном клиенте плагин отвечает а на втором фиг

Artem
20.09.2018
14:00:44
может проблема в плагине?

Google
Evgeniy
20.09.2018
14:06:31
Все может быть конечно

Nikita
20.09.2018
16:10:53
всем привет, кто нибудь собирал самостоятельно containerd из тэгов?

Евгений
20.09.2018
17:03:35
Народ, подскажие пожалуйста, как вы храните в гите какие чарты, в какой ns и с какими values вы выкатили? Пишите свой чарт с dependencies или где-то рядом с values кладёте версию чарта или как-то иначе? Спасибо

Anton
20.09.2018
17:35:34
В ci это фиксируется, какой ns, release. В гите только readme с примером как набить ns чтобы все работало

Let Eat
20.09.2018
17:42:13
Зачем костылями. Просто пусть падает. Как будет доступна зависимость, поднимется.
Я вот тоже это пытался нашей разработке донести , в итоге наделали багов в коде ожидания зависимостей, что все равно иногда приходится поды руками прибивать , а то /isReady не проходит.

Alexey
20.09.2018
17:46:42
Я так понимаю это какой-то ритуал, тоже не смог переубедить на такое. Кого в жертву нужно?
Сроки реализации задач порезать в пару раз. У нас на этом все строится.

Не будет времени на лишнее.

Konstantin
20.09.2018
17:47:33
Сроки реализации задач порезать в пару раз. У нас на этом все строится.
Но падать же проще и быстрее, если зависимости не готовы. Или о чем речь?

Let Eat
20.09.2018
17:47:40
Ну неаккуратно им кажется. По мне так в любой непонятной ситуации надо катапультироваться, это бесплатно вовремя инициализации пока пользовательского траффика не прислали

Konstantin
20.09.2018
17:48:23
Ну да

Let Eat
20.09.2018
17:48:26
Сроки реализации задач порезать в пару раз. У нас на этом все строится.
Сроки и так все горят :) все равно "по канону" рисуют :)

Alexey
20.09.2018
17:48:30
Alexey
20.09.2018
17:53:18
Время разворачивания окружения же всегда плюс-минус статично, можно sleep на 1-2 минуты под такое бахать и не разгонять планировщик по таймауту

Vadim
20.09.2018
18:52:46
https://sysdig.com/blog/whats-new-in-kubernetes-1-12/

Andrey
20.09.2018
19:24:50
Прям репу?

Google
Дмитрий
20.09.2018
19:34:12
Ну в смысле клонить будет куб

Уже deprecated https://kubernetes.io/docs/concepts/storage/volumes/#gitrepo

Продвигают initContainer

Vasiliy
20.09.2018
21:07:26
Можно пару глупых вопросов на понимание: 1. В кубере вместо Env(в ранчере) используются namespace - я правильно понимаю, что для разных namespace мне нужен свой прометеус для мониторинга этого добра ? 2. Helm, как я понял - замена docker-compose как мне ci/cd настроить, чтобы в репе обновился компонент и только он залился на прод ? Не helm же трогать ? 3. Предположим, я хочу 3 одинаковых pod на разных хостах со Persistant Volume на каждом из хостов. могу я задать им конкретные имена хостов ? Или это лейблам делается ? Предположим, что в лейбле prod у меня 5 хостов, а разместить поды я хочу на 3х из них. Как мне быть, чтобы мои 3 пода были всегда на этих трёх хостах (чтобы persistent сохранялся) Спасибо за ответы!

Vadim
20.09.2018
21:50:41
1. Прометеус умеет читать из разныз неймспейсов 2. #helmговно 3. nodeSelector

Andrey
20.09.2018
21:55:45
Гайс, а есть какая то принципиальная разница между тем как деплоить прометей внутри кубера? Руками или поставить operator. В том случае если мне нужно просто в режиме федерации тянуть метрики с приложений в подах

Vasiliy
20.09.2018
22:17:56
Vadim
20.09.2018
22:18:58
Vasiliy
20.09.2018
22:20:10
kubectl, jsonnet, ansible, chef, kustomize
еще проще, сам чем деплоишь. Я так понимаю, что за вычетом ansible|chef - лучше с kubectl начать ?

Так или иначе, спасибо за ответы!

Fike
21.09.2018
04:16:10
все, триггер был запущен

Alex Milushev
21.09.2018
04:52:46
А почему Хелм говно?
К сожалению весь список приводить слишком долго :(

Валентин
21.09.2018
04:56:09
А почему Хелм говно?
То, что его уже в 3ий раз переделывают - достаточный аргумент?

DASTAN
21.09.2018
04:58:31
То, что его уже в 3ий раз переделывают - достаточный аргумент?
я не вникал в вашу дискуссию, но прочитал сразу ваше сообщение. Это значит они все три версии сделали не совместимыми друг с другом? апишки ломали?

Andrey
21.09.2018
05:00:55
3й версии ещё нет

Валентин
21.09.2018
05:00:59
я не вникал в вашу дискуссию, но прочитал сразу ваше сообщение. Это значит они все три версии сделали не совместимыми друг с другом? апишки ломали?
Тут вообще не было дискуссии, я просто ответил человеку. Дело не в совместимости, а в самом факте переделывания с нуля. Мне этого факта достаточно, чтоб не юзать и подождать. Собственно "не юзать" у меня прекрасно получается.

Andrey
21.09.2018
05:01:14
альтернатив хелму не очень много

DASTAN
21.09.2018
05:01:58
Google
Andre
21.09.2018
05:19:27
То, что его уже в 3ий раз переделывают - достаточный аргумент?
Python3 тоже сильно отличается от 2, и это офигенно, что его переделали, это вроде нормальный процесс развития

Валентин
21.09.2018
05:21:31
Python3 тоже сильно отличается от 2, и это офигенно, что его переделали, это вроде нормальный процесс развития
Мне кажется python и helm - разные случаи, но и обновление питона мне иногда до сих пор аукается :(

Fike
21.09.2018
05:35:41
Maksim
21.09.2018
05:40:13
Настолько хорошо переделали, что пересесть никто не может
зачем пересаживаться, если он еще не deprecated

Igor
21.09.2018
05:42:15
К тому времени как задепрекейтят двойку, начнем на р4 переход ;)

Fike
21.09.2018
05:56:19
Maksim
21.09.2018
05:56:30
мне нет

мне и так норма

я хелоуворлды могу хоть на первом писать

Ivan
21.09.2018
06:47:51
Igor
21.09.2018
06:49:17
нет вцс кроме гита и линус пророк его

Maksim
21.09.2018
06:51:57
не кури больше это

Let Eat
21.09.2018
07:03:49
https://sysdig.com/blog/whats-new-in-kubernetes-1-12/
Про vertical scaling пишут This is particularly useful for pods that are costly to destroy and recreate. , так налету поду менять ресурсы же все равно нельзя пока, о чем они?

Vadim
21.09.2018
07:04:27
Про vertical scaling пишут This is particularly useful for pods that are costly to destroy and recreate. , так налету поду менять ресурсы же все равно нельзя пока, о чем они?
оно слушает метрики и выставляет реквесты и лимиты по количеству потребленной памяти

вместо гадания в начальном ямле, потому размещение следующих подов более адекватное

Let Eat
21.09.2018
07:09:24
https://sysdig.com/blog/whats-new-in-kubernetes-1-12/
"to section to allow or deny traffic based on IP ranges or Kubernetes metadata (i.e. namespace=”proxy”)" о чем они вообще? По имени namespace фильтровать ничего нельзя, только по лейблам

kvaps
21.09.2018
08:01:49
Можно пару глупых вопросов на понимание: 1. В кубере вместо Env(в ранчере) используются namespace - я правильно понимаю, что для разных namespace мне нужен свой прометеус для мониторинга этого добра ? 2. Helm, как я понял - замена docker-compose как мне ci/cd настроить, чтобы в репе обновился компонент и только он залился на прод ? Не helm же трогать ? 3. Предположим, я хочу 3 одинаковых pod на разных хостах со Persistant Volume на каждом из хостов. могу я задать им конкретные имена хостов ? Или это лейблам делается ? Предположим, что в лейбле prod у меня 5 хостов, а разместить поды я хочу на 3х из них. Как мне быть, чтобы мои 3 пода были всегда на этих трёх хостах (чтобы persistent сохранялся) Спасибо за ответы!
2. Если грубо то: kubectl apply -f <repo_dir> 3. Если поды созданы одним StatefulSet, нужно вешать nodeAffinity непосредственно на persistentVolumes - если они у вас локальные https://kubernetes.io/blog/2018/04/13/local-persistent-volumes-beta/

DASTAN
21.09.2018
09:46:44
получилось более менее автоматизировать ci/cd через гитлаб и кубернетес, теперь не могу соединить бэкенд (рест апи) и фронтенд (спа)

подскажите как делать?

Google
DASTAN
21.09.2018
09:47:15
пробовал добавлять в nginx конфигурацию с документации

upstream hello { server hello; } server { listen 80; location / { proxy_pass http://hello; } }

соответственно поменял хеллоу на свой селектор апп

но фронт не может стучаться в бэк

во фронте переменная апишка стоит на себя, то есть рассчитывает, что бэк будет на том же айпишнике висеть только с другим портом

порт указал статичным для бэкенда

я не девопс, я разработчик, которому нужно поднять все это, чтобы можно было дальше писать код))

я не девопс, я разработчик, которому нужно поднять все это, чтобы можно было дальше писать код))
это чтобы вы не ругали меня если я не знаю какие-то “элементарные” вещи)

Ivan
21.09.2018
10:32:06
Alexey
21.09.2018
10:40:38
ingress ставьте через helm, самое простое. useHostNetwork + daemonSet

* ингрессом вы "монтируете" service к какому-то url, как mount команда. Писать nginx конфиги большей частью не нужно в кубе.

Страница 835 из 958