@kubernetes_ru

Страница 741 из 958
V
07.08.2018
15:45:00
Или nginx - не суть. Ребят не сбивайте, сейчас ковыряюсь с трэфиком, давайте по теме
Есть же линк на Deployment для Dashboard без SSL: https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/alternative/kubernetes-dashboard.yaml

Vadim
07.08.2018
15:45:15
почему не проверяет?
чтобы он хоть как-то шевелился нужно включать async write, и при рестарте сервера все кэши уйдут лесом. Тем более он у вас в контейнере

kvaps
07.08.2018
15:48:36
чтобы он хоть как-то шевелился нужно включать async write, и при рестарте сервера все кэши уйдут лесом. Тем более он у вас в контейнере
ну вы бы в сути вопроса разобрались бы, сначала - async вас никто не заставляет включать, с самого начала понятно что это не безопасно. - повысить производительность NFS можно и другим спопобом, наприме увеличением числа рабочих инстансов RPCNFSDCOUNT - "при рестарте сервера все кэши уйдут лесом" не используйте NFSv4 и будет вам счастье

Google
V
07.08.2018
15:51:23
Спасибо ! Но с ссл таки до ковыряюсь
А вот ссылка на Deployment с SSL: https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml

Ты хочешь поместить свой, заранее созданный сертификат в Kubernetes, чтобы его использовал Dashboard, или будет достаточно автоматически сгенерированных?

Igor
07.08.2018
15:55:01
Пора кубером заняться, подскажите кто чем разворачивает весь стэк, хорошо бы ансиблом

kvaps
07.08.2018
15:55:01
и это еще при условии что под ним drbd

Igor
07.08.2018
15:56:11
kvaps
07.08.2018
15:58:14
так и есть

а нафига здесь stateful?

Igor
07.08.2018
15:58:47
kubespray посмотри
Ммм, любимый ансибл

Vadim
07.08.2018
16:01:16
а нафига здесь stateful?
An NFS Version 4 server can allow an NFS Version 4 client to access and modify a file in it's own cache without sending any network requests to the server, until the server indicates via a callback that another client wishes to access a file

Google
Vadim
07.08.2018
16:01:41
ну и прочие отличия версии 3 от 4, где разработчики внезапно узнали про конкуретные врайты и прелести cache invalidation

Сагындык
07.08.2018
16:14:31
Добрый вечер, правильно ли ставить ceph прямо на теже ноды где стоит кубер и почему нет?)

kvaps
07.08.2018
16:17:13
тем не мене он тоже не без недостатков из-за того что NFSv3 stateless - он лучше переживает разного рода сбои и переключения

Vadim
07.08.2018
16:18:36
может быть кому-то его будет достаточно, у нас NFS для registry / logging / metrics стораджа объявлен неподдерживаемой конфигурацией после десятка тикетов с "у меня там половина закорраптилась"

kvaps
07.08.2018
16:19:51
полагаю что это из-за включенного `async`)

а еще если хочется супер-производительности, вместо NFS можно использовать iSCSI и нарезать его на кусочки тем же самым LVM'ом

Vadim
07.08.2018
16:21:24
полагаю что это из-за включенного `async`)
часто NFS кастомерский, там особо не проконтролируешь. Надежнее развернуть ceph/glusterfs/local-provisioner

Vitaliy
07.08.2018
16:30:11
Привет. А есть что-нибудь в kubernetes для управления cpu приоритетами подов? Аналогично с sched_setscheduler в https://habr.com/company/odnoklassniki/blog/346868/

Vadim
07.08.2018
16:49:04
Привет. А есть что-нибудь в kubernetes для управления cpu приоритетами подов? Аналогично с sched_setscheduler в https://habr.com/company/odnoklassniki/blog/346868/
https://medium.com/google-cloud/quality-of-service-class-qos-in-kubernetes-bb76a89eb2c6 и https://kubernetes.io/docs/concepts/configuration/pod-priority-preemption/

Vitaliy
07.08.2018
17:07:32
https://medium.com/google-cloud/quality-of-service-class-qos-in-kubernetes-bb76a89eb2c6 и https://kubernetes.io/docs/concepts/configuration/pod-priority-preemption/
Это к сожалению немного не то. Qos может спасти под от убийства при system out of memory. Но мы до такого не доводим:) Реквесты, лимиты, квоты, limitrange активно используем. Но хочется ещё защитится от микро всплесков из низкоприоритетных приложений. Вот думаю пройтись и nice руками расставить ...

Vadim
07.08.2018
17:08:34
если уж очень хочется ручками, то nice cgroups ничего не сделает

но я не понимаю что такое "микровсплески" и чем они плохи для лимитов, например

Vitaliy
07.08.2018
17:13:15
Cpu лимиты работают с окном в 100мс в кубернетес. Ещё мы везде ставим cpu лимит в 1.5 - 4 раза больше реквеста. Иначе никакого железа не хватит:) И иногда получается что на короткий период времени (десятки или сотни милисекунд) приложения злоупотребляют лимитом

Vadim
07.08.2018
18:08:30
Вы гластер 4 пробовали?
Не знаю, какая-то версия ставится. А что с ним?

Михаил
07.08.2018
18:09:08
Не знаю, какая-то версия ставится. А что с ним?
Да вроде лучше стал судя по анонсам

Google
Vitaliy
07.08.2018
18:51:09
https://habr.com/company/flant/blog/418269/
Это интересно, спасибо. Но нам не подходит:( У нас в качестве "жертвы" jvm приложения, которые делают gc в 24 потока, поэтому "выкусить" из хоста для них ограниченное число потоков не получится.

Fike
07.08.2018
18:52:35
Так их можно задать в параметрах JVM

Vitaliy
07.08.2018
18:55:28
там специально так настроено, чтобы максимально сократить время gc. а я хочу снизить воздействие внешних факторов (других подов)

Fike
07.08.2018
19:00:48
может, стоит просто взять G1 и пусть работает в параллель?

Vitaliy
07.08.2018
19:05:21
я в этом не компетентен... JVM приложение здесь скорее как пример. В целом интересно, как делать nice подам не руками:)

Сагындык
07.08.2018
19:06:28
Можно
Тогда подвопрос, ставить на кубер через helm, либо прямо на сервера?

Maxim
07.08.2018
19:09:07
Тогда подвопрос, ставить на кубер через helm, либо прямо на сервера?
Есть готовые решения типа rook, но для чегото критичного наверное рано использовать Мы пробовали, много проблем :) лучше тогда уж просто на ноды ставить https://rook.io

Maxim
07.08.2018
19:15:54
а если с минимальными иопсом, но надо иметь общую хранилку для подов — прокатит?
проблема скорей в целом как оно работает, а не в нагрузке (по крайней мере у нас), например если использовать rook с оверлейной сетью, бывают ситуации когда нода нормально перезагрузится в случае каких-либо проблем не может, т.к падает сеть и нода нормально отмонтировать диски не может так и висит, нужно хард резет делать + сложнее нагрузку распределять, т.к rook бывает нормально так выжирает цпу, рам и сеть - это начинает афектить приложения

Andrey
07.08.2018
19:20:14
Ребят, а ни у кого не бывает такого, что дашборд зависает? У меня 2 ноды + мастер. В кластере из юзерских 1-2 пода которые почти ниче не делают. При редеплое, дашборд иногда просто повисает и перестает отвечать. Через kubectl вижу что поды дашборда работают и все у них ок. версия куба: v1.10.4 имедж дашборда: k8s.gcr.io/kubernetes-dashboard-amd64:v1.8.3

Михаил
07.08.2018
19:21:43
Поэтому руками тащим пакеты по старинке

Сагындык
07.08.2018
19:23:51
Отлично, это мне нравится больше)

Egor
07.08.2018
19:23:58
то есть лучше голый ceph поставить на ноды, чем rook мучить?

Andrey
07.08.2018
19:27:32
Посмотри загрузку нод по CPU
вообще близко к нулям. Как только сделаю дашбрду scale -> 0 scale ->1 сразу оживает.

Google
Alisa
07.08.2018
19:28:28
https://corp.mail.ru/ru/press/events/496/ а приглашения когда вышлют?

V
07.08.2018
19:28:46
Тогда ничего конкретного. Единственно - посмотри логи пода Dashboard

Alisa
07.08.2018
19:28:48
или уже всем выслали а меня продинамили?(

Andrey
07.08.2018
19:33:14
Тогда ничего конкретного. Единственно - посмотри логи пода Dashboard
В основном там такие записи: 2018/08/07 19:32:12 Metric client health check failed: the server could not find the requested resource (get services heapster). Retrying in 30 seconds.

Andrey
07.08.2018
19:43:53
Дернул под напрямую за внутренний IP. Открылся моментально. Но через /api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/ не открывается, просто висит.

Сагындык
07.08.2018
20:14:12
Да
Я тут почитал, ceph вообще крутой, можно даже вместо рейда использовать, только у меня в голове не укладывается как

Сагындык
07.08.2018
20:16:31
@ceph_ru
Больше чатов богу чатов ?

Andrey
07.08.2018
20:16:44
Я тут почитал, ceph вообще крутой, можно даже вместо рейда использовать, только у меня в голове не укладывается как
он крутой, но важно правильно настроить. А то при первом же подохшем диске он сгибается от ребаланса

Andrey
07.08.2018
20:17:17
Константин
07.08.2018
21:54:21
а как быстро понять что такое Kubernets и как это мне поможет разарботать приложение мониторинга и прогнозировать на основе больших данных ?

Maxim
07.08.2018
22:17:59
а как быстро понять что такое Kubernets и как это мне поможет разарботать приложение мониторинга и прогнозировать на основе больших данных ?
чтобы получить представление что такое кубернетис можно начать например с этого туториала http://container.training/kube-selfpaced.yml.html

Константин
07.08.2018
22:19:12
о, спс.....начал читать....а если я освою Mesosphere, то у меня получиться сделать то, что я описал выше (приложение) ?

не знаю в тему ли чата вопрос, но вроде это схожее

Andrey
07.08.2018
22:28:29
а как быстро понять что такое Kubernets и как это мне поможет разарботать приложение мониторинга и прогнозировать на основе больших данных ?
Kuberneres в этом никак не поможет. Это просто «запускалка» контейнеров. Ценно то что внутри контейнера, ваши приложения и код. Вот если они есть, на чем их запускать, уже не столь важно. Если про бигдату говорить, то лично я бы базы данных пока не тянул внутрь.

Константин
07.08.2018
22:45:36
ок, спасибо большое, пошел изучать мануалы по этой штуке

))

Google
Alexey
08.08.2018
06:46:39
Крым тебя не забудет ?
немного политики в чатик?

Igor
08.08.2018
06:48:57


немного политики в чатик?
не, в чате по еластику 2 дня рофлили с его стэка, выше скрин ???

Alexey
08.08.2018
06:50:19
А, топ же. zsh курит в сторонке при виде cmd

Igor
08.08.2018
06:50:56
А, топ же. zsh курит в сторонке при виде cmd
ну и логстэш на рабочем столе

Juriy
08.08.2018
07:20:48
Ivan
08.08.2018
07:23:58
Всем привет! Заглянул тут в конфиг, который генерит ingress, а там в списке upstream указаны айпишники подов. А можно ли как то сделать, чтобы ingress ссылался на сервис а не напрямую на поды?

Anton
08.08.2018
07:32:57
он может живость каждого апстрима оценивать, это ж хорошо

опять же для каждого апстрима своя статистика в vts потом

и снова же, кипэлайв в сторону каждого апстрима отдельно

Ivan
08.08.2018
07:34:48
а, ну тогда ок ))

спасибо

Страница 741 из 958