kay
смысл в легковестности и достаточной простоте
Sn00part
я пользуюсь https://github.com/kubespray/kargo
kay
а контейнеризация в systemd уже есть (systemd-nspawn). обертку красивую не делают. потому что у redhat партнесртво с docker
Sn00part
как то у нас это ^^ не заработало
Sn00part
если докер убрать, как делать overlay network - weave использовать ?
kay
docker's overlay network - это обычный bridge + route
kay
vxlan можно завести руками, bridge можно создать руками. а к чему контейнеры цеплять - сам решай.
Sn00part
это немного усложняет процесс ) а pros какие ?
kay
это ответ на вопрос "если докер убрать?"
Sn00part
там еще добавятся systemsd-networkd, systemd-resolvd и прочие
Sn00part
какой смысл убирать один докер, чтобы нагородить много систмд приблуд
kay
не вижу зависимости
Sn00part
да еще и руками остальное делать. иногда еще нужны privileged контейнеры, тоже не получится. рокет вроде тоже не умеет
kay
privileged вот тут может помочь fleet, т.к. он на low-level работает
Sn00part
в целом понятно, спасибо
Oleksii
> ходят слухи, что в systemd скоро запилят distributed scheduler. и fleet станет совсем не нужен.
@kay_rus Это очень интересно. У тебя случайно нет ссылки, где можно почитать про планы по subj?
kay
ну это инсайдерские разговоры
Anonymous
all hail systemd
kay
ничего конкретного. просто знаю, что база для всего этого есть, но не имплементится из-за договоренностей.
Oleksii
@kay_rus Жаль. Но вообще что там говорят? Что это будет что-то низкоуровневое по аналогии с CoreOS's Fleet? IMO это было бы очень полезно иметь такой инструмент прямо в сердце init-системы. Это бы очень помогло в поднятии более специализированных кластерных систем типа Kubernetes, Mesos, Hadoop, etc.
kay
говорят ресурсов нет чтобы это заимплементить
Sn00part
это лобби! просто не дают всякие редхаты)
kay
сейчас rh сконцентрирован на project atomic
kay
и у них выбор: systemd+docker+kubernetes || systemd+runc+kubernetes
Anonymous
у kubelet есть опция —non-masquerade-cidr , но мне казалось, что все настройки в iptables записывает kube-proxy
Anonymous
нафига kubelet это знать, вот вопрос
Anonymous
господа, а вы прописываете правила (или может какой сервис их прописывает)?
iptables -t nat -A POSTROUTING ! -d ${cluster_cidr} -o eth0 -j MASQUERADE
iptables -t nat -A POSTROUTING ! -d ${service_ip_range} -o eth0 -j MASQUERADE
Anonymous
было подозрение, что или weave, или kube-proxy должны их прописать, но что-то никто этого не делает
Anonymous
из контейнеров нет доступа во внешний интернет
Sn00part
калико?
Sn00part
или фланель. или там один виив
Sn00part
во фланели должно работать
Sn00part
в калико надо пересобрать пул с ключом not-outgoing, а прокси запустить с ключом iptables
Sn00part
nat-outgoing
Sn00part
я не знаю как виив работает
Anonymous
weave один
Sn00part
тады ой
Anonymous
доступ во внешний интернет появляется после weave —local expose
Alexander
Вчера напрыгался с бубном, сегодня установил через kubeadm и сразу же удалил api server :)) Вопрос как можно обновить apiserver? kubeadm его запускает в контейнере. Авторизацию надо включить.
Alexander
манифесты тут сами обновляются, если их изменить
Anonymous
Ставил по гайду на Cenos7 http://kubernetes.io/docs/getting-started-guides/kubeadm/ По одиночке кубернет работает, вместе - отказывается. Виртуалки воткнуты в бридж первым и единственным интерфейсом. Есть мануал как скрестить два кубернетес не через kubeadm?
Anonymous
Что в etcd ожидается прописать или в конфиге kubernetes чтобы оно таки работало
Alexander
на мастер делаешь init на нодах join и все работает
Anonymous
Не сработало
Anonymous
Логи каких контейнеров смотреть? Там их куча. apiserver & etcd?
Alexander
я на ubuntu делал, 2 раза поднимал. второй раз пришлось перегрузить ноды
Alexander
второй раз у меня были ошибки с aufs и я docker перевел на overlay2
Alexander
смотрел dmesg и syslog
Sn00part
kubectl get no
Sn00part
etcdctl cluster-health
Sn00part
kubectl get po
Sn00part
на мастере
Anonymous
Попробую на убунте 16.04
Anonymous
kubectl get no на мастере показывал только мастер, на слейве - "could not connect"
Anonymous
etcdctl cluster-health попробую
Anonymous
Спасибо
yolkov
пример по taint
https://medium.com/@alejandro.ramirez.ch/reserving-a-kubernetes-node-for-specific-nodes-e75dc8297076#.a56zx9kkz
kay
Запилил rolling upgarde для stateless elasticsearch кластера (emptyDir stoareg). https://github.com/kayrus/elk-kubernetes#readiness-probe
Zon
Zon
Я на днях нечто похожее пилил, но без роллинга
kay
envsubst не использовал, потому что на модных маках нет
Zon
Ставится через brew
kay
я в курсе
Zon
В общем, FYI, а так круто очень 👍
Zon
Я тоже из pyres репы делал
kay
https://github.com/kubernetes-incubator/kompose
kay
Надо будет еще вот эту приблуду прикрутить http://elastalert.readthedocs.io/en/latest/
Тогда разработчики кипятком ссаться прямо на рабочем месте начнут. А то заладили то airbrake им подавай, то pingdom, то relic, то newrelic. Тьфу, бесовщина :)
kay
А это так и вообще в пользовательский интерфейс встраивается https://github.com/elasticfence/kaae
Alexander
У кого-нибудь были такие ошибки в nginx ingress контроллере: setrlimit(RLIMIT_NOFILE, 131072) failed (1: Operation not permitted) ?
kay
Да
Alexander
что это и как лечить?
kay
Я не лечил, но 95% это болячка докера
kay
т.к. docker в любом случае запускает процессы из под себя. и эти процессы унаследуют его ulimits
kay
так что чтобы правильно это вылечить, нужно установить например в systemd:
LimitNOFILE=infinity
LimitNPROC=infinity
LimitCORE=infinity
kay
и рестартануть докера
Alexander
Спасибо. Попробую подлечить больного.
Alexander
Салют, а есть в этом канале герои, кто поднимал федеративный кластер кубернетиса?
Alexander
Если есть, поделитесь знаниями - как именно поднимали пожалуйста
Anonymous