Etki
ну я так понимаю имелось в виду, что его можно выкинуть и ничего страшного в этом не будет, но это решает не используемый сервис (кафка), а тот, кто его использует (приложение)
Etki
мельком читал про кафку, там очереди по умолчанию представлены потоками данных, относительно которых клиент сам поддерживает свою позицию
Etki
и в этом случае будем довольно странно, если сообщение N есть, N + 2 есть, N + 1 не существует
Etki
я не уверен, что такое вообще возможно с кафкой, но мой внутренний колокольщик начинает бить тревогу и запрашивать детализацию ситуации вместе с повышенными требованиями уже в этот момент
Anonymous
а есть кто-то кто монгу в кубернетесе держит?
Alexander
есть
Anonymous
а как ты ее деплоишь?
Anonymous
у меня почему-то второй день уже инстансы выходят из реплики (state=REMOVED) и приходится вручную их обратно вводить... вот думаю над причинами и воркараундом
Alexander
да деплою так же как и любой другой контейнер, с таким не сталкивался
Anonymous
ну у тебя реплика или одиночный инстанс?
Logan
есть
глупый вопрос - как добавлять новые монги в реплику? руками?
Alexander
у меня все в комплексе идет один pod под монгу, второй под приложение, все автоматом через специальную приложуху и api
Anonymous
то есть монга сингл инстанс? ок
Alexander
да
Anonymous
я уже тоже задумываюсь об этом
Anonymous
ибо че-то геморойно
Alexander
пока без репликаций, возможно в будущем будет
Alexander
но вообще в инете есть примеры с репликацией
Anonymous
да срал я на эти примеры... у меня все так и сделано, реплики тупо разваливаются когда контейнеры начинают перезапускаться по какой-нибудь причине (отслылка к беседе выше :)
Anonymous
имена
Logan
а говорит чего? как именно разваливается?
Anonymous
когда засыпал была реплика из мастера и двух слейвов проснулся - два слейва и один инстанс со статусом "removed" пока rs.reconfigure(config, { force: true}) не сделал он не вошел в реплику обратно по логам я хз (глобально логи не собираются, в консоли естественно ничего, под уже перезапущен) думаю хелсчек не сработал и под перезапустил - но проблема-то не в том что он не отработал (бывает), а в том что после перезапуска не зашло (жалко)
Anonymous
еще я не понял почему две ноды не разрулили между собой мастера, по мануалам должны были - им не нужен кворум из 3-х нод поидее
Anonymous
хм, ок спасибо - сделаю 5 инстансов и приоритеты рандомно расставлю
Anonymous
блин, мне уже поднадоело менять в днс айпишники после того как инстанс nginx ingress перезапускается в GKE окружении (на момент когда ресерчил - нгинковский ингресс не умел правильно работать с балансировщиком гугля), нет ли воркараунда?
Logan
в нджинксе можно использовать имена, при условии что указан резолвер
Etki
ты с саппортом по этой проблеме связывался?
Anonymous
саппорт в гугле? смешная шутка )
Anonymous
так же как и в яндексе
Logan
яндекс свое облако не продает, если не изменяет память
Etki
ну эм да
Logan
можно подумать, что у амазона саппорт есть
Victor
У меня кластер моговский в k8s живет уже месяцев 9, все норм там
Anonymous
У меня кластер моговский в k8s живет уже месяцев 9, все норм там
А что делать если упадёт k8s. Думали над таким? Бекапы в отдельное хранилище сливаете? Что за сетка в k8s?
Zon
саппорт в гугле? смешная шутка )
Вообще он есть, но за бабло
Zon
У меня кластер моговский в k8s живет уже месяцев 9, все норм там
Много раз за это время монга обновлялась?
Andrew
@undassa хорошие скриптики https://github.com/kubernetes/kube-deploy/tree/master/docker-multinode все понятно что как запускается
Andrew
это не автомат.. нужно на каждую ноду зайти и запустить скриптик. на мастере / воркерах немного по разному
Andrew
чуток подпиливал его, особенно для CNI
Denis
Блин, жаль. Но странно, что они Ansible не использовали.)
Andrew
вроде где-то видел и для ансибла)
Logan
полный авто есть для 1.4. kubeadm
Andrew
а kops - это только для облаков? никак не могу понять)
Victor
А что делать если упадёт k8s. Думали над таким? Бекапы в отдельное хранилище сливаете? Что за сетка в k8s?
При тестировании валил отдельные ноды кластера, в том числе мастера, проблем не было, при восстановление ноды на нем запускалась монга и заходила в кластер
Logan
Пару раз, 3.2.x->3.3.x->3.3.10->3.3.15
3.3? Месье предпочитает бету?
Victor
Это про монгу, третья версия давно вышла
Victor
Уже 3.4 выпустили
Logan
3.3 - это бета. все стабильные версии монги - четные
Logan
а 3.4 сейчас - 3.4.0.
Victor
упс, лишний повод обновиться до 3.4
Etki
3.3 - это бета. все стабильные версии монги - четные
вообще еле нашел у них упоминание об этом. буду знать на всякий.
Maxim
А как задеплоидить 3 мастера в HA и 4 воркера с 0 на 4х машинах и чтобы минимум гемора. Kubeadm подойдет для этих целей?
Dmi3y
А что вы думаете о том варианте деплоя Kubernetes, который делает ранчер по кнопочке "задеплоить kebernetes"?
Maxim
Получается только ручками? По мануалу hard way от негра с гитхаба?
Sergei
Получается только ручками? По мануалу hard way от негра с гитхаба?
там не особо сложно. фактически все мастера не отличаются друг от друга и от обычного мастера. единственная разница - опция —apiserver-count int у аписервера и —leader-elect (которая по дефолту тру) у остальных компонентов мастера.
Etki
Сейчас, возможно, будет очень тупой вопрос. Я зачитался одним постом на инженерном блоге linkedin, где рассказывается, как системные треды JVM (GC) сжирают процессорное время и, тем самым, быстро расходуют всю квоту приложения, оставляя его в stop-the-world-состоянии на остаток периода квоты (строго говоря, там не про сам кубернетес, а про cgroups). Отсюда у меня родился этот тупой вопрос: можно ли в кубернетесе ограничить число ядер, доступных приложению? Дисклеймер: да, я понимаю, что описанная в блоге проблема так не решается / нет, я смутно представляю, что такое cgroups и пока погружаться в это не приходилось.
Andrew
@etkee можно http://kubernetes.io/docs/admin/limitrange/
Sash
Вопрос такой: в кластере на GCE все nodes статус NotReady что делать?
Vitalii
@etkee нельзя:) https://github.com/kubernetes/kubernetes/issues/10570
Evgeniy
А что вы думаете о том варианте деплоя Kubernetes, который делает ранчер по кнопочке "задеплоить kebernetes"?
У них там готовая ipsec сеть из коробки, что в некоторых случаях весьма удобно - но скорее всего остальное не все идеально прока. На днях пробовал раскатать на слабых виртуалках кластер k8s из 3х нод, на новой версии с 1.4.6 и поставить на него Deis worklow - он очень долго все делал, и в резуальтате оказалось что tiller контейнер не может авторизоватся при попытки установки пакетов.
Etki
@etkee можно http://kubernetes.io/docs/admin/limitrange/
там описываются обычные квоты, просто они зачем-то местами называют их ядрами
Andrew
О как.. спасибо
Sash
что у них в describe?
Ready Unknown Sun, 04 Dec 2016 22:13:56 +0500 Sun, 04 Dec 2016 22:14:40 +0500 NodeStatusUnknown Kubelet stopped posting node status.
Sn00part
а что так все на deis рукоблудят. так себе поделие, мягко говоря.
Vladimir
мы используем deis уже наверно года полтора (на ютубе есть мой доклад про него). Это довольно удобно для разработчиков (по сути админ не нужен). Единственное странное решение, на мой взгляд - поместить build сервис и registry в кластер. Один память жрёт как не в себя, другой - диск. Причём в первой версии дейза (на coreos/fleet которая) нету вообще способов как-то с этим бороться. Во второй, по идее можно лэйблами их запустить на отдельной машине, но не пробовал еще.
Anonymous
о, надо тебя как-нить пометить, потом буду имплементить вопросы задам )
yolkov
а сыылка на ютуб есть?
Vladimir
https://www.youtube.com/watch?v=xBW0qWF9H3s
Vladimir
самое смешно, что мы с deis на чистый кубернетес пытаемся переходить, в то время, как, почему-то, все вокруг - наоборот
Konstantin
Видимо потому, что еще не попробывали и не возникло не решаемых проблем и пробелм с кастомизацией)
Sn00part
f8 получше будет