@kubernetes_ru

Страница 103 из 958
Fike
05.12.2016
01:57:07
все, у чего есть постоянный стейт, по возможности лучше держать вне куба

Andrey
05.12.2016
05:16:54
почему?

Михаил
05.12.2016
05:19:54
почему?
По идеологическим причинам)

Fike
05.12.2016
05:31:02
приходится либо держать стейт директорией хоста, либо, либо подключать де-факто сетевое хранилище, которое будет медленнее. у меня не было опыта с цефом и прочим, но, насколько могу предположить - там тоже все плохо будет со скорстью по сравнению с установкой прямо на серваке. какая-нибудь мощная штука, у которой ноды могут влетать и вылетать из кластера by design может и взлетит, но при этом обновлять все поды/сеты/контроллеры придется разве что не вручную, чтобы каждый новый под сначала отреплицировал состояние, и только потом удалялся старый и вводился новый

Google
Fike
05.12.2016
05:31:53
в общем, такой роллинг апдйт, который может сутками длиться

Михаил
05.12.2016
05:40:17
Не надо пиздеть на цеф

Я правда цеф готовил отдельно от k8s

Но нагрузки там ок

Andrey
05.12.2016
06:26:46
я на самом деле сложных штук не запускал, максимум реплику монги, поэтому и спросил

на деплойментах монга болеет )

жду петсетов

Victor
05.12.2016
11:03:11
kubectl delete namespace monitoring - это нормальный подход для удаления всего?

Alexander
05.12.2016
11:05:00
в 1.4 вроде весь namespace удаляется

я удалял через api, у меня все поды проподали в namespace

Victor
05.12.2016
11:07:21
Да, пока проблем с этим не было, видел что многие сперва rc,svc,deploy удаляют, потом по pods проходятся, решил спросить на всякий случай

Alexander
05.12.2016
11:09:33
ну может логи посмотреть, покрайней мере контейнеры в докере пропадают

ну и сама kubectl умная утилита

Google
Alexandr
05.12.2016
11:27:34
все, у чего есть постоянный стейт, по возможности лучше держать вне куба
Так там(кафка) вроде бы стейт не особо важный/тяжёлый.

Fike
05.12.2016
11:34:50
я не понимаю такой классификации стейта, если честно

Andrey
05.12.2016
11:38:22
А какая бывает?

Fike
05.12.2016
11:39:38
ну я так понимаю имелось в виду, что его можно выкинуть и ничего страшного в этом не будет, но это решает не используемый сервис (кафка), а тот, кто его использует (приложение)

мельком читал про кафку, там очереди по умолчанию представлены потоками данных, относительно которых клиент сам поддерживает свою позицию

и в этом случае будем довольно странно, если сообщение N есть, N + 2 есть, N + 1 не существует

я не уверен, что такое вообще возможно с кафкой, но мой внутренний колокольщик начинает бить тревогу и запрашивать детализацию ситуации вместе с повышенными требованиями уже в этот момент

Andrey
05.12.2016
14:17:46
а есть кто-то кто монгу в кубернетесе держит?

Alexander
05.12.2016
14:18:55
есть

Andrey
05.12.2016
14:20:19
а как ты ее деплоишь?

у меня почему-то второй день уже инстансы выходят из реплики (state=REMOVED) и приходится вручную их обратно вводить... вот думаю над причинами и воркараундом

Alexander
05.12.2016
14:22:17
да деплою так же как и любой другой контейнер, с таким не сталкивался

Andrey
05.12.2016
14:23:32
ну у тебя реплика или одиночный инстанс?

Paul
05.12.2016
14:27:01
есть
глупый вопрос - как добавлять новые монги в реплику? руками?

Alexander
05.12.2016
14:28:28
у меня все в комплексе идет один pod под монгу, второй под приложение, все автоматом через специальную приложуху и api

Andrey
05.12.2016
14:29:17
то есть монга сингл инстанс? ок

Alexander
05.12.2016
14:29:28
да

Andrey
05.12.2016
14:29:37
я уже тоже задумываюсь об этом

ибо че-то геморойно

Google
Alexander
05.12.2016
14:30:33
пока без репликаций, возможно в будущем будет

но вообще в инете есть примеры с репликацией

Andrey
05.12.2016
14:32:10
да срал я на эти примеры... у меня все так и сделано, реплики тупо разваливаются когда контейнеры начинают перезапускаться по какой-нибудь причине (отслылка к беседе выше :)

Andrey
05.12.2016
16:03:51
имена

Paul
05.12.2016
16:05:55
а говорит чего? как именно разваливается?

Andrey
05.12.2016
16:08:30
когда засыпал была реплика из мастера и двух слейвов проснулся - два слейва и один инстанс со статусом "removed" пока rs.reconfigure(config, { force: true}) не сделал он не вошел в реплику обратно по логам я хз (глобально логи не собираются, в консоли естественно ничего, под уже перезапущен) думаю хелсчек не сработал и под перезапустил - но проблема-то не в том что он не отработал (бывает), а в том что после перезапуска не зашло (жалко)

еще я не понял почему две ноды не разрулили между собой мастера, по мануалам должны были - им не нужен кворум из 3-х нод поидее

Andrey
05.12.2016
16:18:23
хм, ок спасибо - сделаю 5 инстансов и приоритеты рандомно расставлю

блин, мне уже поднадоело менять в днс айпишники после того как инстанс nginx ingress перезапускается в GKE окружении (на момент когда ресерчил - нгинковский ингресс не умел правильно работать с балансировщиком гугля), нет ли воркараунда?

Paul
05.12.2016
17:42:30
в нджинксе можно использовать имена, при условии что указан резолвер

Fike
05.12.2016
17:43:56
ты с саппортом по этой проблеме связывался?

Andrey
05.12.2016
17:48:48
саппорт в гугле? смешная шутка )

Aleksandr
05.12.2016
18:04:07
так же как и в яндексе

Paul
05.12.2016
18:04:50
яндекс свое облако не продает, если не изменяет память

Fike
05.12.2016
18:04:52
ну эм да

Paul
05.12.2016
18:04:57
можно подумать, что у амазона саппорт есть

Victor
06.12.2016
07:16:14
У меня кластер моговский в k8s живет уже месяцев 9, все норм там

Alexandr
06.12.2016
09:21:09
У меня кластер моговский в k8s живет уже месяцев 9, все норм там
А что делать если упадёт k8s. Думали над таким? Бекапы в отдельное хранилище сливаете? Что за сетка в k8s?

Google
Zon
06.12.2016
09:38:15
саппорт в гугле? смешная шутка )
Вообще он есть, но за бабло

У меня кластер моговский в k8s живет уже месяцев 9, все норм там
Много раз за это время монга обновлялась?

Andrew
06.12.2016
12:55:11
@undassa хорошие скриптики https://github.com/kubernetes/kube-deploy/tree/master/docker-multinode все понятно что как запускается

Andrew
06.12.2016
12:58:10
это не автомат.. нужно на каждую ноду зайти и запустить скриптик. на мастере / воркерах немного по разному

чуток подпиливал его, особенно для CNI

Admin
ERROR: S client not available

Denis
06.12.2016
13:00:23
Блин, жаль. Но странно, что они Ansible не использовали.)

Andrew
06.12.2016
13:01:19
вроде где-то видел и для ансибла)

Paul
06.12.2016
13:01:35
полный авто есть для 1.4. kubeadm

Andrew
06.12.2016
13:03:01
а kops - это только для облаков? никак не могу понять)

Victor
06.12.2016
13:56:59
А что делать если упадёт k8s. Думали над таким? Бекапы в отдельное хранилище сливаете? Что за сетка в k8s?
При тестировании валил отдельные ноды кластера, в том числе мастера, проблем не было, при восстановление ноды на нем запускалась монга и заходила в кластер

Paul
06.12.2016
14:06:31
Пару раз, 3.2.x->3.3.x->3.3.10->3.3.15
3.3? Месье предпочитает бету?

Victor
06.12.2016
14:10:43
Это про монгу, третья версия давно вышла

Уже 3.4 выпустили

Paul
06.12.2016
14:14:45
3.3 - это бета. все стабильные версии монги - четные

а 3.4 сейчас - 3.4.0.

Victor
06.12.2016
14:17:29
упс, лишний повод обновиться до 3.4

Google
Fike
06.12.2016
14:50:40
3.3 - это бета. все стабильные версии монги - четные
вообще еле нашел у них упоминание об этом. буду знать на всякий.

Maxim
06.12.2016
16:08:07
А как задеплоидить 3 мастера в HA и 4 воркера с 0 на 4х машинах и чтобы минимум гемора. Kubeadm подойдет для этих целей?

Dmi3y
06.12.2016
16:29:44
А что вы думаете о том варианте деплоя Kubernetes, который делает ранчер по кнопочке "задеплоить kebernetes"?

Maxim
06.12.2016
16:42:18
Получается только ручками? По мануалу hard way от негра с гитхаба?

Sergey
06.12.2016
16:44:14
Получается только ручками? По мануалу hard way от негра с гитхаба?
там не особо сложно. фактически все мастера не отличаются друг от друга и от обычного мастера. единственная разница - опция —apiserver-count int у аписервера и —leader-elect (которая по дефолту тру) у остальных компонентов мастера.

Fike
06.12.2016
22:25:18
Сейчас, возможно, будет очень тупой вопрос. Я зачитался одним постом на инженерном блоге linkedin, где рассказывается, как системные треды JVM (GC) сжирают процессорное время и, тем самым, быстро расходуют всю квоту приложения, оставляя его в stop-the-world-состоянии на остаток периода квоты (строго говоря, там не про сам кубернетес, а про cgroups). Отсюда у меня родился этот тупой вопрос: можно ли в кубернетесе ограничить число ядер, доступных приложению? Дисклеймер: да, я понимаю, что описанная в блоге проблема так не решается / нет, я смутно представляю, что такое cgroups и пока погружаться в это не приходилось.

Andrew
07.12.2016
03:50:05
@etkee можно http://kubernetes.io/docs/admin/limitrange/

Alex
07.12.2016
03:51:21
Вопрос такой: в кластере на GCE все nodes статус NotReady что делать?

Vitaliy
07.12.2016
06:16:42
@etkee нельзя:) https://github.com/kubernetes/kubernetes/issues/10570

Evgeniy
07.12.2016
07:05:04
А что вы думаете о том варианте деплоя Kubernetes, который делает ранчер по кнопочке "задеплоить kebernetes"?
У них там готовая ipsec сеть из коробки, что в некоторых случаях весьма удобно - но скорее всего остальное не все идеально прока. На днях пробовал раскатать на слабых виртуалках кластер k8s из 3х нод, на новой версии с 1.4.6 и поставить на него Deis worklow - он очень долго все делал, и в резуальтате оказалось что tiller контейнер не может авторизоватся при попытки установки пакетов.

Fike
07.12.2016
09:50:41
@etkee можно http://kubernetes.io/docs/admin/limitrange/
там описываются обычные квоты, просто они зачем-то местами называют их ядрами

Andrew
07.12.2016
09:56:57
О как.. спасибо

Alex
07.12.2016
10:01:32
что у них в describe?
Ready Unknown Sun, 04 Dec 2016 22:13:56 +0500 Sun, 04 Dec 2016 22:14:40 +0500 NodeStatusUnknown Kubelet stopped posting node status.

Artem
07.12.2016
10:22:42
а что так все на deis рукоблудят. так себе поделие, мягко говоря.

Vladimir
07.12.2016
11:04:58
мы используем deis уже наверно года полтора (на ютубе есть мой доклад про него). Это довольно удобно для разработчиков (по сути админ не нужен). Единственное странное решение, на мой взгляд - поместить build сервис и registry в кластер. Один память жрёт как не в себя, другой - диск. Причём в первой версии дейза (на coreos/fleet которая) нету вообще способов как-то с этим бороться. Во второй, по идее можно лэйблами их запустить на отдельной машине, но не пробовал еще.

Andrey
07.12.2016
11:06:18
о, надо тебя как-нить пометить, потом буду имплементить вопросы задам )

Страница 103 из 958