Valerii
Понятно что управляет конфигурацией, но чем оно лучше того же spray
Не знаю что такое Spray. Мне Rancher достался по наследству и это очень удобная штука. По запросу rancher vs spray что-то ничего не находится особо, причём именно про spray.Вот демо с сайта Rancher'а: https://player.vimeo.com/video/212646077 В версии 2.0 вообще 🔥 обещают, но не финальную версию на прод ставить не буду пока :)) https://rancher.com/rancher2-0/
Ivan
Spray = kubespray
Serega
демо оно всегда красивое. Интересно о проблемах услышать. А также что именно вам удобно в нем.
(от себя скажу, что когда мы тестили - то отказались от ранчера в виду нестабильности оного)
Dmitry
Dmitry
a1eXei
С новым годом!
Sergey
Симметрично
Pavel
Всех с наступившим
Alexey
Чтоб etcd всегда был доступен!
Evgeniy
Evgeniy
Valerii
Valerii
Slach
Всем привет, а есть где нибудь примеры как делать нормальные StorageClass для baremetal под StatefulSet?
хочется чего то с минимальным оверхедом
или это все только на 1.9? и beta режим?
https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume
Logan
Slach
ну а разве CEPH можно под СУБД использовать?
очень уж мне хочется базу в 200Gb под Patroni c 5k TPS в пике отказоустойчиво внутри kubernetes развернуть
никак не получится?
Ivan
Почему нельзя? Можно конечно.
Pavel
А зачем использовать под СУБД? Пользовать реализацию базы разве не правильнее?
Slach
что такое "реализация базы"?
Logan
Dmitry
Slach
Поднять базу вне кубера
я хочу не просто базу, я хочу отказоустойчивую базу с service discovery к которой я мог бы красиво обращаться через кубовский Service например
я тороплюсь и слишком многого хочу?
Anton
Dmitry
Дело вкуса, но мне нравится переносимость. Скормил айпишники голых серверов и все...
Mikhail [azalio]
Ага, ясно.
Slach
глянь на stolon
=))) я в курсе и про patroni и про stolon
у меня не стоит задача чем манагерить Postgres для отказоустойчивости
мне хочется делать это изнутри k8s чтобы иметь все плюхи StatefulSet например и хочется иметь наименьший оверхед под диску
вот и прикидываю как правильнее удобнее это можно сделать и можно ли вообе
почему кстати не юзать local volumes? потому что недоделано нифига?
Anton
Anton
получилось количество реплик по количеству nodes с бд
Pavel
Pavel
Поднять то можно и под кубиком, просто отделить на отдельных нодах и связать репликацией
Anton
Pavel
Да вроде со стороны кубика никакого особенного приемущества управления бд нет. Даже обновление версий я бы на rolling update не делал. Можно все завалить разом.
Pavel
Ручками
Anton
Anton
Ну в общем то да, особо ничего
Anton
Pavel
Ну мне кажется это делать «Не лету» не стоит. Это должно быть осознано
Anton
На лету ничего делать не стоит, 7 раз ортежь, 1 раз отмерь =)
Pavel
Перезапуск сервисов, приложений, аплдейты - самое то. Если все это предусматривает такое поведение, Stateless. БД не такая по умолчанию
Anton
Авторестар имелось ввиду если контейнер упал
Anton
Гипотетически, stolon все данные притянет автоматом
Pavel
Если у тебя в кластере ещё есть несколько реплик рабочих, то зачем это делать автоматически? Все работает дальше - разберёшься в проблеме и поднимешь. Да и примитивно может и докер поднять через healthcheck
G72K
Dmitry
Всех. Сновым годом, кстати!
Dmitry
Sergey
Ой все
Sergey
Жена вон уже 5 рейсов в Ригу сделала
Anton
Не замечал ни одного упоминания cfcr (kubo), кто-то им пользуется?
G72K
Кто-нибудь storageOS щупал? Мне понравилось, что диски целиком реплицируются, как в drbd, а не размазываются по всем нодам
Serega
G72K
RF на каждый диск вроде задается
Даня
@DenisIzmaylov
Vladimir
Здравствуйте!
Кто нибудь пробовал на k8s 1.9 развёрнутый через kubeadm включать alpha/beta features с помощью feature-gates?
Vladimir
У меня возникли сомнения в адекватности моего метода, после того как он перестал работать =)
Я добавил параметры запуска ко всем kubelet в кластере, и после этого попробовал изменить manifest для apiserver, scheduler и controller-manager. И в версии 1.7 у меня это получилось и всё работало.
Но в 1.9 это сработало только с scheduler, а apiserver и controller-manager даже не запускаются, более того они даже не пытаются стартануть. И это вводит меня в ступор, потому что даже логи негде посмотреть. Сам kubelet при этом не пишет ничего О_о
Буду рад любой помощи
Vik
Чат, мы тут завтра Разбор Полетов писать будем.
Завтра планируем углубить тему Docker, Kuber и все такое про контейнеры
Приходите в онлайн, для интерактива
https://www.facebook.com/razborPoletovPodcast/posts/1663457740377086
Anonymous
В девопс ещё закинь
Vik
Vik
а
Vik
не, я туда не хожу, там суровые админы и стикеры запрещают.
Vik
да и с юмором у них как-то так себе
Vik
короче, я себя выпилил оттуда
Dmitry
Anonymous
Попроси Баруха )
Dmitry
При деплое чартов через helm install, dependency.yaml какой cамый типичный способ открыть TCP/HTTP порт на публичный ip?
Dmitry
Или нужно идти путем обычного чарта и создавать шаблон ingress в родительском чарте?
Dmitry
включил ingress через namespace
Dmitry
но порт все равно 80й, хочу кастомный порт открыть для сервиса
Anton
Anton
Но вообще, третье января же. Вы чего
Dmitry
Да тут уже праздники закончились)))
Alik
Полезная страничка https://www.gitbook.com/book/ramitsurana/awesome-kubernetes/details