Maksim
и соорудить отказоустойчивость на каком-нить peacemaker
Maksim
Если делать отаказоустойчивость, то нужно уходить в дублирование. ТО есть либо делать Demon Set внутри Кубера, и снаружи нахлабучивать доп балансир, либо делать его внешним для облака. и так же дублировать
Anonymous
если облака брать то там трафик приходит с венешнего балансировщика на сервис ingress controller, а за сервисом хоть 1 хоть 100 подов может быть
Anonymous
https://github.com/kubernetes/charts/tree/master/stable/nginx-ingress
Andrew
Вариант внешнего балансера мне нравится больше всего
G72K
G72K
Maksim
Это не я так придумал)
Andrew
Andrew
Только у меня Калико, можно трафик гнать напрямую на поды без nodeports, но это мелочи
Anonymous
Denis
https://news.ycombinator.com/item?id=14112838
Denis
Vasily
Zon
Говорят Заландо в cncf вступили, молодцы
Logan
вы уверены, что это сюда?
Михаил
а она везде
Михаил
я предлагаю зарепортить
Etki
можно только заблочить (
Logan
я думаю - имеет смысл предложить Ирине не потить охотничьи угодья и удалить пост. Если человек не понимает - значит, видимо, придется прощаться
Dmitry
думаю она даже не заглянет сюда больше
Max
Ярмарка вакансий
Max
Это такой типа нии алкоголизма ищет уборщицу
Max
Нннада секретарша после шараги
Max
Они кажется вообще со своей рекламой не думают
Anonymous
Logan
коллеги, кто как реализует backup данных из куба? Есть best practice?
G72K
мы толькочто замерджили в kube-aws бэкап и рестор
G72K
глянь последние коммиты
Logan
G72K
ну и что? :) надергать шел скрипты это не мешает )
Logan
а ссылку на коммиты можно? если не трудно
G72K
https://github.com/kubernetes-incubator/kube-aws/pull/507
G72K
https://github.com/kubernetes-incubator/kube-aws/pull/535
Logan
это немного не то, что мне нужно. Но все равно спасибо
G72K
А что нужно? Может нам тоже нужно )
Logan
нужно бэкапить данные изнутри контейнера. Например, у меня есть mysql, и я хочу его бэкапить
Maksim
А mysql statefull ?
Maksim
или данные не через volume в pod монтируются?
G72K
Logan
Maksim
sds не обеспечивает отказоустойчивость?
G72K
Maksim
Ну да бекапы и не должен
Maksim
а вот отказоустойчивость очень да же должно
G72K
ничего никому оно не должно. всё что он делает, это гарантирует что каждый под из сета всегда видит свои данные даже после рестартов. остальное - дело приложения
Maksim
это кубер гарантирует
Maksim
тот же ceph с глубиной 3...не так то просто убить
Михаил
Михаил
и таки да, бекапы должны быть в отдельное место, даже если у вас мегаэнтерпрайзная СХД за сотни тысяч нефти
Maksim
Ну шарики то же сломали и потеряли.)
Михаил
@ceph_ru если че)
Logan
вопрос даже не в цеф, а в том, есть ли какой-то бест-практис в среде куба
G72K
sidecar container
G72K
while true; do backup; sleep 3600; done
Logan
sidecar container
https://kubernetes.io/docs/concepts/jobs/run-to-completion-finite-workloads/ - не лучше?
yolkov
для каждого рессурса нужно обдумывать свои стратегии бекапа, можно для mysql например поднимать слейв, дождаться синка реплики и скопировать, либо задампить, или например держать в поде клиента бекап систем, к которой будет подключаться бекап сервер и запукать задание на бекап(т.е. скрипты для бекапа)
G72K
Logan
спасибо
Vladimir
Ребята привет всем. Начинаю изучение. Подскажите через инет кубернет работает? Имеется ввиду должно ли быть директли коннектед сети для кубернетов. Или только видны порты для сервисов. А проброс сетей уже через них идет. Или же нужно впн делать для разбросанных хостов.
G72K
я бы не стал один куб разносить на много сетей
G72K
сделайте несколько кубов
Vladimir
Не понял. Есть несколько серверов которые территориально не связаны между собой (разные AS , города, страны). Если я использую их в качестве НОД, то нужно ли чтоб они видели частные айпи или же можно делать через public ip?
G72K
сделайте в каждом по кубу, а не один куб на всех. так будет меньше сюрпризов
G72K
или у вас прям горстка (единицы) серверов в каждой точке по миру?
G72K
а от куба чего хочется?
Vladimir
а от куба чего хочется?
Ну я как понял куб может много. Управление, развертывание, масштабирование и прочее. Если я не ошибаюсь. Просто раньше обходились виртуализацией на основе esxi kvm и прочее. Сейчас решили отказаться в пользу docker.
Vladimir
А в общем чтоб не мучать вас могЕте кинуть ссылочку на документацию на русском желательно. Заранее огромноеиспасибо
Logan
Logan
у вас схожая с моей задача
Vladimir
Igor
гайз, а подскажите, кто как service discovery делал в k8s? хочется красивого околокоробочного решения, ведь dns рекорды создаются и рулятся в kube-dns, но обвязки я не нашел, помимо глупого маунта секрета, стучания в api и проверки, какие dns рекорды есть у сервисов по конкретным лейблам. и это все нужно делать в коде приложения
G72K
а просто в DNS ходить?
Igor
эм, это, простите, как?
G72K
ну стучаться в DNS и считать, что все что оттуда вернулось -живое )
Igor
ну, я именно это и описал выше и оно не очень удобно, т.к стучаться надо в апишку кубера, так? и я не хочу, чтобы сервис знал, что он крутится в кубере, ибо зачем? и как хендлить релоад конфига, когда что-то отмирает и днс-запись удаляется? стучаться регулярно в апишку и тоже в коде приложения?
Igor
https://www.slideshare.net/SreenivasMakam/service-discovery-using-etcd-consul-and-kubernetes вот, смотрю, дяденька из Индии велосипедов напоказывал, но тоже как-то устрашающе выглядит
Olsen