Denis
А куб разве сам это не делает?
Denis
или надо daemonset какой то запускать?
G72K
G72K
там же можете и настроить драйвер по своему вкусу, если не страшно
Роман
G72K
json
Denis
it’s recommended to use stdout and stderr directly and leave rotation and retention policies to the kubelet
Denis
https://kubernetes.io/docs/concepts/cluster-administration/logging/
Роман
json
Нет, я про занимаемое место, например.
G72K
по дефолту неограничено. но взависимоти от того как вы куб разворачивали, докер тоже может быть уже подкручен на что-то более разумное
Роман
Роман
И ещё, возможно нубовский вопрос, я деплою из гитлаба, там есть переменные окружения. Как мне вставить их в yaml файл, чтобы не ругалось на ошибку синтаксиса?
G72K
Роман
Timur
Роман
Кавычки, наверное, у меня отсутствуют?
Timur
Не, там кавычки не нужны. Просто $ENV
Роман
Timur
Это синтаксис гитлаба
Timur
Да нет :) Просто любую команду и $ENV. Например:
- gcloud docker — push $GCLOUD_REGISTRY_URL .....
Timur
Это кубер же ругается? Если попробовать не ${CI_ENVIRONMENT_SLUG}, а $CI_ENVIRONMENT_SLUG?
Роман
Роман
Всё, разобрался. Надо в файлах заменять переменные при помощи sed на значения переменных окружения.
Anonymous
https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough/
а все так скейлятся горизонтально, через хипстера и hpa или уже как-то по-другому надо?
Dmitriy
Привет, Всем! Интересует вопрос по поводу CNI. Хочу в докере использовать этот плагин сети. Но никак не могу определиться какой из плагинов в самом CNI мне использовать. У меня настраивается docker+kubernetes, планирую использовать несколько узлов. Вопрос том какой плагин CNI использовать, чтобы на всех узлах контейнеры имели одну и ту же адресацию сети? К примеру, при использовании flannel в чистом виде на каждом узле собственная адресация.
Etki
Роман
Роман
А ещё, скажите, в kubectl rollout status есть возможность настроить время ожидания, чтобы не было exceeded its progress deadline. А то не успевает задеплоиться за это время. Или ошибка не поэтому?
Maksim
https://github.com/openshift/source-to-image
Alexey
Maksim
Dmitriy
а за чем тебе одна и та же адрессация? контейнеры по l3 норм связываются
Есть задача настраивать кластера в контейнерах на разных узлах. Если использовать разную адресацию - значит адреса должны быть динамическими, а раз так значит надо использовать service discovery. Я пока что не представляю себе этого в целом. К примеру, как организовать кластер из сервисов, если адреса заранее не известны
Dmitriy
Использовать DNS?
Maksim
Почитай доку тогда что ли)
Maksim
нет там есть такая сущность как сервис
Maksim
у него адресс статичный
Maksim
кубер сам ловит адреса подов и подставляет их в ендпоинты для сервиса
Dmitriy
Dmitriy
Спасибо, в общем, почитаю!
Maksim
https://kubernetes.io/docs/concepts/services-networking/service/
Dmitriy
G72K
все хорошо, по-этому и говорю что использовать CNI - хорошая идея
Logan
коллеги, есть ли возможность обновить конфигмап из CLI? то есть - с помощью kubectl?
Alexey
kubectl apply
Logan
для конфигмап не работает
Serg
Replace
Ilya
ASTASHOFF
то же самое, в случае --from-file. А если есть yaml с конфигмапом то apply работает
Anonymous
хочу странного: запускать CI-тесты в docker-compose в kubernetes через jenkins :)
в целом все сделал, осталось только найти пример как docker-compose запустить в кубе (dind какой-нибудь или еще что)
кто-нибудь делал?
Dmitry
а чем jenkinsfile не угодил? описываешь поды, контейнеры, темплейты.. и запускаешься?
Anonymous
ну, во-первых там хрен ногу сломит и не хочется несколько дней проводить дебажа все это, во вторых хочется иметь одно и то же поведение на разных машинах - и девелоперских в том числе
Zon
Dmitry
обычный груви..
Anonymous
хотелось бы обойтись малой кровью :)
Dmitry
малой не получится.. если будешь юзать компоус, то тогда в поды надо пробрасывать docker.sock
Dmitry
и эти контейнеры будут не под кубом висеть, что есть не хорошо..
Anonymous
а если dind?
Dmitry
фубля =)
Dmitry
извините))
Anonymous
да посрать
Anonymous
извините :)
Dmitry
ну если ты считаешь, что dind ради композа ок - вперед
Dmitry
я бы так не делал
Dmitry
я дорожу кубовым апи))
Anonymous
ну, у меня нет best practices в этом контексте поэтому и интересуюсь общим мнением
Dmitry
а его ни у кого нету) все пробуют и набивают шишки)
Роман
Нет ли какой-нибудь такой штуки в кубе, чтобы, например, несколько нод в логическую группу объединить?
Что я хочу: есть у меня два проекта и один я хочу разворачивать на одной группе серверов, а другой - на другой. Пока я вижу решение в том, чтобы присваивать нодам метки и на основании них деплоить при помощи nodeSelector.
Anonymous
с affinity можно поиграться еще
Anonymous
https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#taints-and-tolerations-beta-feature вот это еще выглядит подходящим но не пробовал
Denis
Кто нибудь использует EFK для логов? Плюсы, минусы, подводные камни?
Denis
На эту схему похоже?
Denis
http://www.fluentd.org/guides/recipes/elasticsearch-and-s3
Denis
http://www.fluentd.org/assets/img/recipes/elasticsearch-s3-fluentd.png
Denis
слева DaemonSet получается, справа мастеры эластика + на каждой ноде по fluentd аггрегатору