Sergei
а что за проект, если не секрет?
Sn00part
Lua для проверки здоровья бекендов и выставления веса для ipvs
Sn00part
часть работает тут flamp.ru
Sn00part
остальное секрет)
Sn00part
пробовали прямо с фронтенда по офсету писать в rbd (lua) без радосгв. тоже работает но возни много
Sergei
пробовали прямо с фронтенда по офсету писать в rbd (lua) без радосгв. тоже работает но возни много
а зачем в rbd, кстати? :) если объекты не очень большие, то можно сразу в rados, там тоже есть сдвиги по оффсету.
Sn00part
а так посоны кодят сразу и в амазон можно идти если все совсем упало
Sergei
и работает быстрее по задержке немножко
Sn00part
радосгв не очень хорошо работал, году в 2012
Sergei
правда, это всё же для извращенцев немного
Sergei
радосгв не очень хорошо работал, году в 2012
не в радосгв, а в радос через librados
Sergei
там file-like api
Sergei
http://docs.ceph.com/docs/master/rados/api/python/
Sn00part
возня ненужная. можно но зачем)
Sergei
возня ненужная. можно но зачем)
если вам дороги микросекунды и лень делать другое решение - то rados over ssd вполне шустёр.
Sergei
хотя aerospike быстрее
Sn00part
всё равно все в итоге в другом месте упирается. в бекенд, например. или в сеть
Михаил
нету пока пока доклада по bluestore с конфы линукс питер(
Vladimir
Господа, а нет ли простого способа развернуть Ceph в качестве бекенда к PV в самом Kubernetes?
Vladimir
Т.е. что-то вроде этого: https://github.com/ceph/ceph-docker/tree/master/examples/kubernetes но без "WARNING: This example does not survive Kubernetes cluster restart! The Monitors need persistent storage. This is not covered here."
Михаил
пока извращенцев не было)
Михаил
однако всё равно остается вопрос, а что же у тебя будет под ногами в качестве дисков?
Vladimir
А чем диски на хостах плохи для хранения? Или ты не про это?
Михаил
я про то, что я слабо себе представляю как работает сущность OSD в докере
Михаил
отдавать ей диск целиком в этот докер? а зачем тогда докер?)
Михаил
и тут до меня дошло, что можно не отдавать весь диск, а отдать папку, тогда можно ограничить объем и получить отказоустойчивость)
Logan
в общем-то можно, через маппинг
Vladimir
Я пытаюсь развернуть Kubernetes в Azure, и есть подозрение, что использовать ажуровские диски для персистентных данных как PV не получится. Для PV остаётся Azure File (который SMB) либо что-то кастомное (Ceph?). Сомневаюсь, что на SMB можно держать хоть какую базу данных.
Vladimir
Я хочу решение для PV, которое позволит перекидывать их между нодами в случае чего. По идее Ceph RBD + ext4, монтируемый эксклюзивно, это то, что может мне подойти.
Vladimir
Собственно, я бы попробовал Ceph, но я с ним никогда не работал, и как-то неохота потратить пару недель чтобы разобраться как его деплоить и поддерживать.
Etki
Kubernetes supports several types of Volumes: ... azureDisk
Etki
это не то что требуется?
Vladimir
Ага, это оно, но есть ряд ньюансов
Vladimir
Например на небольших виртуалках количетсво дисков, которые можно так подключить сильно ограничено —- всего 2 диска, на минимальной приличной виртуалке (1 ядро, 3.5 ГБ RAM)
Vladimir
Плюс судя по отзывам, azureDisk просто не работает: http://dev.haufe.com/state-of-kubernetes-on-azure/
Logan
можно цеф в том же ажуре завести
Vladimir
А без Kubernetes насколько реально не вникая в детали Ceph развернуть его на отдельных машинах, скажем, с убунтой/дебианом?
Vladimir
Я понимаю, что для продакшена с Ceph скорее всего нужна отдельная команда девопсов под него, но на потыкать/примерить, мне бы подошел вариант а-ля apt-get install <ceph> и пошаговой конфигурацией. Можно это как-то без особого геморроя сделать?
Михаил
Для ceph у нас теперь отдельный канал)
Михаил
@ceph_ru
Михаил
@Sn00p мы таки сделали отдельный канал
Sn00part
👍
Михаил
👍
Будем рады видеть всех любителей ceph
Михаил
вполне реально, я разворачивал. Тут @SinTeZoiD грозился выложить подробный ман.
Ну там общие рекомендации. Будут для тех, кто уже поставил
Михаил
Но ман похоже надо
Михаил
Тоже
Vladimir
@rutsky по поводу персистент дисков в азуре вот issue https://github.com/Azure/acs-engine/issues/258 то есть рекомендуют до версии 1.5.3 обновиться руками. как раз собираюсь попробовать
Vladimir
Я сейчас пользуюсь https://github.com/kubernetes-incubator/kargo один из разработчиков недавно в этом чате писал про него
Denis
Интересная голосовала) https://twitter.com/asynchio/status/837395139333140480
Oleg
Как проще всего развернуть k8s на DO?
Oleg
Может быть лучше azure?
Oleg
Что посоветуете?
Oleg
Спасибо
Vladimir
Может быть лучше azure?
В прод или на поиграться?
Vladimir
Я пытаюсь сообразить Azure и там есть ряд ньюансов, вроде (пока) не работающих PV.
Vladimir
Может быть лучше azure?
http://dev.haufe.com/state-of-kubernetes-on-azure/
Vladimir
На DO я развернул игрушечный кластер с помощью kubeadm и он работает норм (а еще дешевле azure в 10 раз :)
Oleg
В прод или на поиграться?
В итоге в прод, но сейчас этап поиграться
Gregory
а на чем лучше построить прайват инфраструктуру? та же rancherOS норм?
Andrei
а на чем лучше построить прайват инфраструктуру? та же rancherOS норм?
Лучше на том, чем умеете пользоваться. Решать вопросы эксплуатации будет проще.
Logan
я взял убунту LTS
Anonymous
можно ещё на ДО попробовать с кореос развернуть, если прод на кореос - это ок для вас
Sn00part
прод на кореос - дерзко, стильно, молодёжно!
Oleg
У кого большие кластера в проде?
Sn00part
у меня под 50 подов
Sn00part
это большой?
Andrei
На кореос тектоник, например, свое решение держит. Суть в том, что кореосовцы уделяют внимание ядру и поддержке в нем докера, минимизируя феилы всего кластера при приезде проблемного ядра.
Oleg
у меня под 50 подов
А нод сколько?
Sn00part
5 основных, 2 под парами
Sn00part
это ещё не совсем прод
Sn00part
пока не пойму, как это апгрейдить без проблем. я имею в виду сам кубернетес