
Fike
05.12.2016
01:57:07
все, у чего есть постоянный стейт, по возможности лучше держать вне куба

Andrey
05.12.2016
05:16:54
почему?

Михаил
05.12.2016
05:19:54

Fike
05.12.2016
05:31:02
приходится либо держать стейт директорией хоста, либо, либо подключать де-факто сетевое хранилище, которое будет медленнее. у меня не было опыта с цефом и прочим, но, насколько могу предположить - там тоже все плохо будет со скорстью по сравнению с установкой прямо на серваке. какая-нибудь мощная штука, у которой ноды могут влетать и вылетать из кластера by design может и взлетит, но при этом обновлять все поды/сеты/контроллеры придется разве что не вручную, чтобы каждый новый под сначала отреплицировал состояние, и только потом удалялся старый и вводился новый

Google

Fike
05.12.2016
05:31:53
в общем, такой роллинг апдйт, который может сутками длиться

Михаил
05.12.2016
05:40:17
Не надо пиздеть на цеф
Я правда цеф готовил отдельно от k8s
Но нагрузки там ок

Andrey
05.12.2016
06:26:46
я на самом деле сложных штук не запускал, максимум реплику монги, поэтому и спросил
на деплойментах монга болеет )
жду петсетов

Victor
05.12.2016
11:03:11
kubectl delete namespace monitoring - это нормальный подход для удаления всего?

Alexander
05.12.2016
11:05:00
в 1.4 вроде весь namespace удаляется
я удалял через api, у меня все поды проподали в namespace

Victor
05.12.2016
11:07:21
Да, пока проблем с этим не было,
видел что многие сперва rc,svc,deploy удаляют, потом по pods проходятся,
решил спросить на всякий случай

Alexander
05.12.2016
11:09:33
ну может логи посмотреть, покрайней мере контейнеры в докере пропадают
ну и сама kubectl умная утилита

Google

Alexandr
05.12.2016
11:27:34

Fike
05.12.2016
11:34:50
я не понимаю такой классификации стейта, если честно

Andrey
05.12.2016
11:38:22
А какая бывает?

Fike
05.12.2016
11:39:38
ну я так понимаю имелось в виду, что его можно выкинуть и ничего страшного в этом не будет, но это решает не используемый сервис (кафка), а тот, кто его использует (приложение)
мельком читал про кафку, там очереди по умолчанию представлены потоками данных, относительно которых клиент сам поддерживает свою позицию
и в этом случае будем довольно странно, если сообщение N есть, N + 2 есть, N + 1 не существует
я не уверен, что такое вообще возможно с кафкой, но мой внутренний колокольщик начинает бить тревогу и запрашивать детализацию ситуации вместе с повышенными требованиями уже в этот момент

Andrey
05.12.2016
14:17:46
а есть кто-то кто монгу в кубернетесе держит?

Alexander
05.12.2016
14:18:55
есть

Andrey
05.12.2016
14:20:19
а как ты ее деплоишь?
у меня почему-то второй день уже инстансы выходят из реплики (state=REMOVED) и приходится вручную их обратно вводить... вот думаю над причинами и воркараундом

Alexander
05.12.2016
14:22:17
да деплою так же как и любой другой контейнер, с таким не сталкивался

Andrey
05.12.2016
14:23:32
ну у тебя реплика или одиночный инстанс?

Paul
05.12.2016
14:27:01
есть
глупый вопрос - как добавлять новые монги в реплику? руками?

Alexander
05.12.2016
14:28:28
у меня все в комплексе идет один pod под монгу, второй под приложение, все автоматом через специальную приложуху и api

Andrey
05.12.2016
14:29:17
то есть монга сингл инстанс? ок

Alexander
05.12.2016
14:29:28
да

Andrey
05.12.2016
14:29:37
я уже тоже задумываюсь об этом
ибо че-то геморойно

Paul
05.12.2016
14:29:59

Google

Alexander
05.12.2016
14:30:33
пока без репликаций, возможно в будущем будет
но вообще в инете есть примеры с репликацией

Andrey
05.12.2016
14:32:10
да срал я на эти примеры... у меня все так и сделано, реплики тупо разваливаются когда контейнеры начинают перезапускаться по какой-нибудь причине (отслылка к беседе выше :)

Paul
05.12.2016
16:02:15

Andrey
05.12.2016
16:03:51
имена

Paul
05.12.2016
16:05:55
а говорит чего? как именно разваливается?

Andrey
05.12.2016
16:08:30
когда засыпал была реплика из мастера и двух слейвов
проснулся - два слейва и один инстанс со статусом "removed"
пока rs.reconfigure(config, { force: true}) не сделал он не вошел в реплику обратно
по логам я хз (глобально логи не собираются, в консоли естественно ничего, под уже перезапущен)
думаю хелсчек не сработал и под перезапустил - но проблема-то не в том что он не отработал (бывает), а в том что после перезапуска не зашло (жалко)
еще я не понял почему две ноды не разрулили между собой мастера, по мануалам должны были - им не нужен кворум из 3-х нод поидее

Paul
05.12.2016
16:17:18

Andrey
05.12.2016
16:18:23
хм, ок спасибо - сделаю 5 инстансов и приоритеты рандомно расставлю
блин, мне уже поднадоело менять в днс айпишники после того как инстанс nginx ingress перезапускается в GKE окружении (на момент когда ресерчил - нгинковский ингресс не умел правильно работать с балансировщиком гугля), нет ли воркараунда?

Paul
05.12.2016
17:42:30
в нджинксе можно использовать имена, при условии что указан резолвер

Fike
05.12.2016
17:43:56
ты с саппортом по этой проблеме связывался?

Andrey
05.12.2016
17:48:48
саппорт в гугле? смешная шутка )

Aleksandr
05.12.2016
18:04:07
так же как и в яндексе

Paul
05.12.2016
18:04:50
яндекс свое облако не продает, если не изменяет память

Fike
05.12.2016
18:04:52
ну эм да

Paul
05.12.2016
18:04:57
можно подумать, что у амазона саппорт есть

Victor
06.12.2016
07:16:14
У меня кластер моговский в k8s живет уже месяцев 9, все норм там

Alexandr
06.12.2016
09:21:09

Google

Zon
06.12.2016
09:38:15

Andrew
06.12.2016
12:55:11
@undassa хорошие скриптики https://github.com/kubernetes/kube-deploy/tree/master/docker-multinode все понятно что как запускается

Denis
06.12.2016
12:56:43

Alexander
06.12.2016
12:57:07

Andrew
06.12.2016
12:58:10
это не автомат.. нужно на каждую ноду зайти и запустить скриптик. на мастере / воркерах немного по разному
чуток подпиливал его, особенно для CNI

Admin
ERROR: S client not available

Denis
06.12.2016
13:00:23
Блин, жаль. Но странно, что они Ansible не использовали.)

Andrew
06.12.2016
13:01:19
вроде где-то видел и для ансибла)

Paul
06.12.2016
13:01:35
полный авто есть для 1.4. kubeadm

Andrew
06.12.2016
13:03:01
а kops - это только для облаков? никак не могу понять)

Victor
06.12.2016
13:56:59

Paul
06.12.2016
14:06:31

Victor
06.12.2016
14:10:43
Это про монгу, третья версия давно вышла
Уже 3.4 выпустили

Paul
06.12.2016
14:14:45
3.3 - это бета. все стабильные версии монги - четные
а 3.4 сейчас - 3.4.0.

Victor
06.12.2016
14:17:29
упс, лишний повод обновиться до 3.4

Google

Fike
06.12.2016
14:50:40

Maxim
06.12.2016
16:08:07
А как задеплоидить 3 мастера в HA и 4 воркера с 0 на 4х машинах и чтобы минимум гемора. Kubeadm подойдет для этих целей?

Dmi3y
06.12.2016
16:29:44
А что вы думаете о том варианте деплоя Kubernetes, который делает ранчер по кнопочке "задеплоить kebernetes"?

Paul
06.12.2016
16:32:35

Maxim
06.12.2016
16:42:18
Получается только ручками? По мануалу hard way от негра с гитхаба?

Sergey
06.12.2016
16:44:14

Fike
06.12.2016
22:25:18
Сейчас, возможно, будет очень тупой вопрос. Я зачитался одним постом на инженерном блоге linkedin, где рассказывается, как системные треды JVM (GC) сжирают процессорное время и, тем самым, быстро расходуют всю квоту приложения, оставляя его в stop-the-world-состоянии на остаток периода квоты (строго говоря, там не про сам кубернетес, а про cgroups). Отсюда у меня родился этот тупой вопрос: можно ли в кубернетесе ограничить число ядер, доступных приложению? Дисклеймер: да, я понимаю, что описанная в блоге проблема так не решается / нет, я смутно представляю, что такое cgroups и пока погружаться в это не приходилось.

Andrew
07.12.2016
03:50:05
@etkee можно http://kubernetes.io/docs/admin/limitrange/

Alex
07.12.2016
03:51:21
Вопрос такой: в кластере на GCE все nodes статус NotReady что делать?

Vitaliy
07.12.2016
06:16:42
@etkee нельзя:) https://github.com/kubernetes/kubernetes/issues/10570

Evgeniy
07.12.2016
07:05:04

Fike
07.12.2016
09:50:41

Andrew
07.12.2016
09:56:57
О как.. спасибо

Alex
07.12.2016
10:01:32
что у них в describe?
Ready Unknown Sun, 04 Dec 2016 22:13:56 +0500 Sun, 04 Dec 2016 22:14:40 +0500 NodeStatusUnknown Kubelet stopped posting node status.

Artem
07.12.2016
10:22:42
а что так все на deis рукоблудят. так себе поделие, мягко говоря.

Vladimir
07.12.2016
11:04:58
мы используем deis уже наверно года полтора (на ютубе есть мой доклад про него). Это довольно удобно для разработчиков (по сути админ не нужен). Единственное странное решение, на мой взгляд - поместить build сервис и registry в кластер. Один память жрёт как не в себя, другой - диск. Причём в первой версии дейза (на coreos/fleet которая) нету вообще способов как-то с этим бороться. Во второй, по идее можно лэйблами их запустить на отдельной машине, но не пробовал еще.

Andrey
07.12.2016
11:06:18
о, надо тебя как-нить пометить, потом буду имплементить вопросы задам )