Михаил
Сэр, вы сноб.
Alex
как заставить kube сделать балансировку подов после подключения новой ноды в кластер?
Alex
хочу чтобы на новую ноду уехали какие-то поды
Sn00part
https://github.com/kubernetes/kubernetes/issues/12140
Sn00part
я так и не пойму чем дело с решедулером закончилось
Sn00part
в 1.3 говорят должно работать
Sn00part
кто пробовал?
Sn00part
работает это? я какие-то design proposals только вижу
Sn00part
я вручную перемещаю. но ноды относительно редко добавляются и всегда под что-то запланированное
Alex
да это понимаю это актуально когда ты оперируешь кластер
Alex
у меня это изменение строчки в GKE
Alex
https://cloud.google.com/container-engine/docs/cluster-autoscaler?hl=en_US
Alex
прочитал ссылку по resheduler
Sn00part
а без GCE как) пойду изучать
Alex
похоже да это его например роль
Alex
когда появляется новый эвент сделать балансировку
Alex
вообщем сейчас я просто делаю kubectl scale +1
Alex
чтобы вынудить процесс spred-а
Alex
а да еще важно указывать лимиты
Alex
если из нет у подов то kube пытается все контейнеры сложить на одну ноду
Denis
https://docs.google.com/spreadsheets/d/1g9JU-67ncE4MHMeKnmslm-JO_aKeltv2kg_Dd6VFmKs/edit#gid=0
Denis
Просто чтобы быть в курсе "когда" и "что")
Andrew
https://github.com/projectcalico/cni-plugin/releases/tag/v1.6.0
Andrew
теперь можно выдавать подам ip адреса из разных пулов
yolkov
а несколько можно?
yolkov
>For now, these annotations will only support a single IP in each list, but will be formatted as lists for future-proofing since we know that CNI will support multiple IP addresses in the future. When the time comes then multiple IPs will be supported.
Andrew
в доке явно не сказано, я сам не пробовал
Andrew
ок
yolkov
а как роллингапдейт будет проходить?
yolkov
у нового пода будет тот же ИП, как и у старого?
Andrew
скорее всего будет новый, т.к. создается новый под. надо пробовать
Dmitriy
Не подскажете что означает сообщение на одной из нод которое выдает в лог scheduler: lock is held by kube-node02 and has not yet expired?
Ivan
scheduler работает на самом деле только один (который elected), остальные - ждут своей очереди на случай если текущий отвалится
Ivan
пока ждут - "lock is held" - это норма
Zon
Что люди только не придумают)
Vladimir
чур меня
Etki
мне б столько времени
Dmitry
это вершина
Dmitry
уроборос
Gleb
Ехал docker через docker. И т.д.
Dmitry
скайнет почти что
Zon
Ivan
мы тоже о таком варианте с virtlet подумываем. допустим, есть k8s кластер с поддержкой виртуалок через virtlet, а надо править сам k8s или какую-то к нему примочку. Соответственно, нужен тестовый кластер. В одних случаях kubeadm-dind-cluster / kubernetes-dind-cluster или local-cluster либо даже minikube (в зависимости от того, надо ли много нод и надо ли собирать k8s с исходников) но иногда нужно N нод, чтобы это были виртуалки и чтобы кластер стартовал не полчаса, как kube-up с vagrant - то почему нет
Zon
Презентация была от giantswarm, и у них это прод, так как они продают селфхостед кубернетес
Denis
Ну а почему нет? :) Вполне юзабельно
Zon
Желающие посмотреть на презентацию вживую - приезжайте на kubecon в Берлин, через месяц
Zon
Мне очень понравилась идея использовать свои third-party resources. Как-то я их упустил раньше
Михаил
Zon
Есть стандартные ресурсы: деплоймент, сикрет и тд, а можно делать свои и они будут через kubectl работать. Например: PKI через это можно сделать, как я понял
Zon
Чтоб при создании пода vault ему личный сертификат сделал
Zon
поясни
https://kubernetes.io/docs/user-guide/thirdpartyresources/ базовая дока
Denis
yolkov
Келси описал свою схему работы с волтом https://github.com/kelseyhightower/vault-controller
yolkov
Как использовать “третьи ресурсы” кореосовцы пишут неплохо https://coreos.com/blog/introducing-operators.html
Denis
Да
Denis
https://coreos.com/tectonic/releases/ - Они так активно пилят, кто-нибудь вообще использует Tectonic?)
Anonymous
кто-то использует
Anonymous
нужно понимать что это продукт в первую очередь для энтерпрайзов (или тех, кто рядом), так что количество клиентов - не ключевое
Denis
Но enterprise очень относительное понятие
Dmitriy
Ivan
да
Dmitriy
да
Хотел бы задать еще один вопрос по поводу мастера который прописывается у scheduler'а? Что это за адрес? Я поднимаю VIP pacemaker'ом на одной из нод кластера и тем самым даю понять что мастер это apiserver. Я правильно делаю? Что-то мне говорит, что это в корне не верно!
yolkov
аписервер можно любой использовать, они все одинаковые, как ты их забалнасишь, твое дело
Dmitriy
эти собщения идут непрерывно в логах аписервера
yolkov
внутри кластера они по сути раундробином выбираются
посмотри kubectl -n default get ep kubernetes
yolkov
ты похоже перестарался с писмайкером
yolkov
сделай фиксированные ИП для всех аписерверов и один виртуальный который будет ХА для внешних клиентов
yolkov
внутри куба этот вип не используй
Dmitriy
yolkov
хотя для шедулера и контроллера можно указать
yolkov
у меня 3 эндпоинта выдает
yolkov
3 физич адреса аписерверов
Dmitriy
у меня только один, данного сервера с которого делаю запрос (на котором выполняю команду)
Dmitriy
странно
yolkov
сколько у тебя мастер нод?
Dmitriy
и кстати, телнетом подключаюсь, порт не доступен, нет такого сокета в системе