Михаил
Сэр, вы сноб.
Alexey
Сэр, вы сноб.
Серьте дома)
Alex
как заставить kube сделать балансировку подов после подключения новой ноды в кластер?
Alex
хочу чтобы на новую ноду уехали какие-то поды
Sn00part
https://github.com/kubernetes/kubernetes/issues/12140
Sn00part
я так и не пойму чем дело с решедулером закончилось
Sn00part
в 1.3 говорят должно работать
Sn00part
кто пробовал?
Sn00part
работает это? я какие-то design proposals только вижу
Sn00part
я вручную перемещаю. но ноды относительно редко добавляются и всегда под что-то запланированное
Alex
да это понимаю это актуально когда ты оперируешь кластер
Alex
у меня это изменение строчки в GKE
Alex
https://cloud.google.com/container-engine/docs/cluster-autoscaler?hl=en_US
Alex
прочитал ссылку по resheduler
Sn00part
а без GCE как) пойду изучать
Alex
похоже да это его например роль
Alex
когда появляется новый эвент сделать балансировку
Alex
вообщем сейчас я просто делаю kubectl scale +1
Alex
чтобы вынудить процесс spred-а
Alex
а да еще важно указывать лимиты
Alex
если из нет у подов то kube пытается все контейнеры сложить на одну ноду
Denis
https://docs.google.com/spreadsheets/d/1g9JU-67ncE4MHMeKnmslm-JO_aKeltv2kg_Dd6VFmKs/edit#gid=0
Denis
Просто чтобы быть в курсе "когда" и "что")
Andrew
https://github.com/projectcalico/cni-plugin/releases/tag/v1.6.0
Andrew
теперь можно выдавать подам ip адреса из разных пулов
yolkov
а несколько можно?
yolkov
>For now, these annotations will only support a single IP in each list, but will be formatted as lists for future-proofing since we know that CNI will support multiple IP addresses in the future. When the time comes then multiple IPs will be supported.
Andrew
в доке явно не сказано, я сам не пробовал
Andrew
ок
yolkov
а как роллингапдейт будет проходить?
yolkov
у нового пода будет тот же ИП, как и у старого?
Andrew
скорее всего будет новый, т.к. создается новый под. надо пробовать
Dmitriy
Не подскажете что означает сообщение на одной из нод которое выдает в лог scheduler: lock is held by kube-node02 and has not yet expired?
Ivan
scheduler работает на самом деле только один (который elected), остальные - ждут своей очереди на случай если текущий отвалится
Ivan
пока ждут - "lock is held" - это норма
Zon
Что люди только не придумают)
Vladimir
чур меня
Etki
мне б столько времени
Dmitry
Что люди только не придумают)
ну собсна после этого можно и остановиться в развитии
Dmitry
это вершина
Dmitry
уроборос
Gleb
Ехал docker через docker. И т.д.
Dmitry
скайнет почти что
Zon
Ivan
мы тоже о таком варианте с virtlet подумываем. допустим, есть k8s кластер с поддержкой виртуалок через virtlet, а надо править сам k8s или какую-то к нему примочку. Соответственно, нужен тестовый кластер. В одних случаях kubeadm-dind-cluster / kubernetes-dind-cluster или local-cluster либо даже minikube (в зависимости от того, надо ли много нод и надо ли собирать k8s с исходников) но иногда нужно N нод, чтобы это были виртуалки и чтобы кластер стартовал не полчаса, как kube-up с vagrant - то почему нет
Zon
Презентация была от giantswarm, и у них это прод, так как они продают селфхостед кубернетес
Denis
Ну а почему нет? :) Вполне юзабельно
Zon
Желающие посмотреть на презентацию вживую - приезжайте на kubecon в Берлин, через месяц
Zon
Мне очень понравилась идея использовать свои third-party resources. Как-то я их упустил раньше
Zon
Есть стандартные ресурсы: деплоймент, сикрет и тд, а можно делать свои и они будут через kubectl работать. Например: PKI через это можно сделать, как я понял
Zon
Чтоб при создании пода vault ему личный сертификат сделал
Zon
поясни
https://kubernetes.io/docs/user-guide/thirdpartyresources/ базовая дока
Zon
Есть проходка? :)
Увы, мы не спонсоры пока) но компанию пива выпить составлю :)
yolkov
Келси описал свою схему работы с волтом https://github.com/kelseyhightower/vault-controller
yolkov
Как использовать “третьи ресурсы” кореосовцы пишут неплохо https://coreos.com/blog/introducing-operators.html
Denis
Да
Denis
https://coreos.com/tectonic/releases/ - Они так активно пилят, кто-нибудь вообще использует Tectonic?)
Anonymous
кто-то использует
Anonymous
нужно понимать что это продукт в первую очередь для энтерпрайзов (или тех, кто рядом), так что количество клиентов - не ключевое
Denis
Но enterprise очень относительное понятие
Ivan
да
Dmitriy
да
Хотел бы задать еще один вопрос по поводу мастера который прописывается у scheduler'а? Что это за адрес? Я поднимаю VIP pacemaker'ом на одной из нод кластера и тем самым даю понять что мастер это apiserver. Я правильно делаю? Что-то мне говорит, что это в корне не верно!
yolkov
аписервер можно любой использовать, они все одинаковые, как ты их забалнасишь, твое дело
Dmitriy
аписервер можно любой использовать, они все одинаковые, как ты их забалнасишь, твое дело
А почему выдается сообщение "Resetting endpoints for master service "kubernetes" to &TypeMeta{Kind:,APIVersion:,}"?
Dmitriy
эти собщения идут непрерывно в логах аписервера
yolkov
внутри кластера они по сути раундробином выбираются посмотри kubectl -n default get ep kubernetes
yolkov
ты похоже перестарался с писмайкером
yolkov
сделай фиксированные ИП для всех аписерверов и один виртуальный который будет ХА для внешних клиентов
yolkov
внутри куба этот вип не используй
Dmitriy
внутри кластера они по сути раундробином выбираются посмотри kubectl -n default get ep kubernetes
команда выдает мне endpoint ip адрес, у которого указан порт 6443
yolkov
хотя для шедулера и контроллера можно указать
yolkov
у меня 3 эндпоинта выдает
yolkov
3 физич адреса аписерверов
Dmitriy
у меня только один, данного сервера с которого делаю запрос (на котором выполняю команду)
Dmitriy
странно
yolkov
сколько у тебя мастер нод?
Dmitriy
и кстати, телнетом подключаюсь, порт не доступен, нет такого сокета в системе