
V
07.08.2018
15:45:00

Vadim
07.08.2018
15:45:15
почему не проверяет?
чтобы он хоть как-то шевелился нужно включать async write, и при рестарте сервера все кэши уйдут лесом. Тем более он у вас в контейнере

kvaps
07.08.2018
15:48:36

Alexey
07.08.2018
15:49:31

Google

Vadim
07.08.2018
15:50:00

V
07.08.2018
15:51:23
Спасибо ! Но с ссл таки до ковыряюсь
А вот ссылка на Deployment с SSL: https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml
Ты хочешь поместить свой, заранее созданный сертификат в Kubernetes, чтобы его использовал Dashboard, или будет достаточно автоматически сгенерированных?

kvaps
07.08.2018
15:53:47

Igor
07.08.2018
15:55:01
Пора кубером заняться, подскажите кто чем разворачивает весь стэк, хорошо бы ансиблом

kvaps
07.08.2018
15:55:01
и это еще при условии что под ним drbd

Alexander
07.08.2018
15:55:32

Igor
07.08.2018
15:56:11

Vadim
07.08.2018
15:58:00

kvaps
07.08.2018
15:58:14
так и есть
а нафига здесь stateful?

Igor
07.08.2018
15:58:47

Vadim
07.08.2018
16:01:16
а нафига здесь stateful?
An NFS Version 4 server can allow an NFS Version 4 client to access and modify a file in it's own cache without sending any network requests to the server, until the server indicates via a callback that another client wishes to access a file

Google

Vadim
07.08.2018
16:01:41
ну и прочие отличия версии 3 от 4, где разработчики внезапно узнали про конкуретные врайты и прелести cache invalidation

Сагындык
07.08.2018
16:14:31
Добрый вечер, правильно ли ставить ceph прямо на теже ноды где стоит кубер и почему нет?)

kvaps
07.08.2018
16:17:13
тем не мене он тоже не без недостатков
из-за того что NFSv3 stateless - он лучше переживает разного рода сбои и переключения

Vadim
07.08.2018
16:18:36
может быть кому-то его будет достаточно, у нас NFS для registry / logging / metrics стораджа объявлен неподдерживаемой конфигурацией после десятка тикетов с "у меня там половина закорраптилась"

kvaps
07.08.2018
16:19:51
полагаю что это из-за включенного `async`)
а еще если хочется супер-производительности, вместо NFS можно использовать iSCSI и нарезать его на кусочки тем же самым LVM'ом

Vadim
07.08.2018
16:21:24

Vitaliy
07.08.2018
16:30:11
Привет.
А есть что-нибудь в kubernetes для управления cpu приоритетами подов?
Аналогично с sched_setscheduler в https://habr.com/company/odnoklassniki/blog/346868/

Juriy
07.08.2018
16:40:23

Сергей
07.08.2018
16:46:41

Vadim
07.08.2018
16:49:04

Vitaliy
07.08.2018
17:07:32

Vadim
07.08.2018
17:08:34
если уж очень хочется ручками, то nice cgroups ничего не сделает
но я не понимаю что такое "микровсплески" и чем они плохи для лимитов, например

Vitaliy
07.08.2018
17:13:15
Cpu лимиты работают с окном в 100мс в кубернетес.
Ещё мы везде ставим cpu лимит в 1.5 - 4 раза больше реквеста. Иначе никакого железа не хватит:)
И иногда получается что на короткий период времени (десятки или сотни милисекунд) приложения злоупотребляют лимитом

Михаил
07.08.2018
17:33:59

Vadim
07.08.2018
18:08:30

Михаил
07.08.2018
18:09:08

Andrey
07.08.2018
18:19:25

Google

Vitaliy
07.08.2018
18:51:09
https://habr.com/company/flant/blog/418269/
Это интересно, спасибо.
Но нам не подходит:(
У нас в качестве "жертвы" jvm приложения, которые делают gc в 24 потока, поэтому "выкусить" из хоста для них ограниченное число потоков не получится.

Fike
07.08.2018
18:52:35
Так их можно задать в параметрах JVM

Vitaliy
07.08.2018
18:55:28
там специально так настроено, чтобы максимально сократить время gc.
а я хочу снизить воздействие внешних факторов (других подов)

Fike
07.08.2018
19:00:48
может, стоит просто взять G1 и пусть работает в параллель?

Vitaliy
07.08.2018
19:05:21
я в этом не компетентен...
JVM приложение здесь скорее как пример. В целом интересно, как делать nice подам не руками:)

Сагындык
07.08.2018
19:06:28
Можно
Тогда подвопрос, ставить на кубер через helm, либо прямо на сервера?

Maxim
07.08.2018
19:09:07

Egor
07.08.2018
19:12:29

Сагындык
07.08.2018
19:14:06

Maxim
07.08.2018
19:15:54
а если с минимальными иопсом, но надо иметь общую хранилку для подов — прокатит?
проблема скорей в целом как оно работает, а не в нагрузке (по крайней мере у нас), например если использовать rook с оверлейной сетью, бывают ситуации когда нода нормально перезагрузится в случае каких-либо проблем не может, т.к падает сеть и нода нормально отмонтировать диски не может так и висит, нужно хард резет делать
+ сложнее нагрузку распределять, т.к rook бывает нормально так выжирает цпу, рам и сеть - это начинает афектить приложения

Egor
07.08.2018
19:16:49

Alexander
07.08.2018
19:17:37

Andrey
07.08.2018
19:20:14
Ребят, а ни у кого не бывает такого, что дашборд зависает?
У меня 2 ноды + мастер. В кластере из юзерских 1-2 пода которые почти ниче не делают.
При редеплое, дашборд иногда просто повисает и перестает отвечать. Через kubectl вижу что поды дашборда работают и все у них ок.
версия куба: v1.10.4
имедж дашборда: k8s.gcr.io/kubernetes-dashboard-amd64:v1.8.3

Михаил
07.08.2018
19:21:43
Поэтому руками тащим пакеты по старинке

Сагындык
07.08.2018
19:23:51
Отлично, это мне нравится больше)

Egor
07.08.2018
19:23:58
то есть лучше голый ceph поставить на ноды, чем rook мучить?

V
07.08.2018
19:26:23
В частности, той ноды, где запущен Dashboard, а также загрузку Master

Andrey
07.08.2018
19:27:32

Google

Alisa
07.08.2018
19:28:28
https://corp.mail.ru/ru/press/events/496/
а приглашения когда вышлют?

V
07.08.2018
19:28:46
Тогда ничего конкретного. Единственно - посмотри логи пода Dashboard

Alisa
07.08.2018
19:28:48
или уже всем выслали а меня продинамили?(

Andrey
07.08.2018
19:33:14

Михаил
07.08.2018
19:43:51

Andrey
07.08.2018
19:43:53
Дернул под напрямую за внутренний IP. Открылся моментально.
Но через /api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/ не открывается, просто висит.

Сагындык
07.08.2018
20:14:12
Да
Я тут почитал, ceph вообще крутой, можно даже вместо рейда использовать, только у меня в голове не укладывается как

Михаил
07.08.2018
20:14:51

Сагындык
07.08.2018
20:16:31

Andrey
07.08.2018
20:16:44

Михаил
07.08.2018
20:17:03

Andrey
07.08.2018
20:17:17

Сагындык
07.08.2018
20:19:36

Константин
07.08.2018
21:54:21
а как быстро понять что такое Kubernets и как это мне поможет разарботать приложение мониторинга и прогнозировать на основе больших данных ?

Maxim
07.08.2018
22:17:59

Константин
07.08.2018
22:19:12
о, спс.....начал читать....а если я освою Mesosphere, то у меня получиться сделать то, что я описал выше (приложение) ?
не знаю в тему ли чата вопрос, но вроде это схожее

Andrey
07.08.2018
22:28:29

Константин
07.08.2018
22:45:36
ок, спасибо большое, пошел изучать мануалы по этой штуке
))

Google

Igor
08.08.2018
06:13:49

Alexey
08.08.2018
06:46:39

Igor
08.08.2018
06:48:57

Alexey
08.08.2018
06:50:19
А, топ же. zsh курит в сторонке при виде cmd

Igor
08.08.2018
06:50:56

Juriy
08.08.2018
07:20:48

Ivan
08.08.2018
07:23:58
Всем привет!
Заглянул тут в конфиг, который генерит ingress, а там в списке upstream указаны айпишники подов.
А можно ли как то сделать, чтобы ingress ссылался на сервис а не напрямую на поды?

Anton
08.08.2018
07:32:57
он может живость каждого апстрима оценивать, это ж хорошо
опять же для каждого апстрима своя статистика в vts потом
и снова же, кипэлайв в сторону каждого апстрима отдельно

Ivan
08.08.2018
07:34:48
а, ну тогда ок ))
спасибо