@kubernetes_ru

Страница 661 из 958
kvaps
03.07.2018
14:18:57
похоже что с PV/PVC таже история

но среди них есть поды которые не используют PVC

видел на гитхабе кто-то еще жаловался 16ч назад. Эх, пошел писать багрепорт

Google
Banschikov
03.07.2018
14:21:21
видел на гитхабе кто-то еще жаловался 16ч назад. Эх, пошел писать багрепорт
У меня был трабл такой из за PVC. Удалил их и под умер.Долго тогда шаманил

Dmytro
03.07.2018
14:21:43
а если оба ВПС шэрят 1 Hosted zones в route53 , сам route53 ни как не заюзать
route53 глобальный на весь аккаунт, не привязан к vpc

кстати про наружу-если он деплоится в интернал сабнетах , наружу опять таки через ELB?
либо через сервис NodePort если есть ноды кластера в публичных подсетях

kvaps
03.07.2018
14:22:39
@denyasmail у меня PVC тоже в Terminating зависли, подозреваю как раз из-за этих подов

Andrey
03.07.2018
14:23:57
kvaps
03.07.2018
14:25:02
@denyasmail не понимаю что там можно нашаманить кроме удаления с --force --grace-period=0, читал в 1.11 защиту сделали от удаления PVC пока поды еще не завершились, подозреваю это она и есть

Stas
03.07.2018
14:26:44
@SinTeZoiD С последнего митапа не оставляет меня вопрос про эти 110 подов на ноду. У меня есть ощущение, что это какая-то legacy фигня. Вот иша, в которой долго и безрезультатно идет обсуждение того, есть ли проблема по факту https://github.com/kubernetes/kubernetes/issues/23349 При этом, для кубелета есть опция увеличить лимит подов. Ты или кто-то еще пробовал стресс тестить это дело после увеличения лимита? У меня есть подозрение, что тут страху больше чем реальных проблем (ну и плюс плохая работа sig-scalability или как она там)

Dmytro
03.07.2018
14:26:51
мне нужно id пода найти
хмм а в чем проблема? kubectl get pods | grep <deployment name> ...

Andrey
03.07.2018
14:27:23
нету грепа, к сожалению есть только kubectl

Dmytro
03.07.2018
14:28:27
гуглить пробовал? миллион вариантов же https://stackoverflow.com/questions/35797906/kubernetes-list-all-running-pods-name

Google
Vadim
03.07.2018
14:29:33
@vrutkovs говорил, что у него 250
У нас до 250 в саппорте, да. Насколько я понял все эти 100 и 110 времен версии 1.2

Andrey
03.07.2018
14:30:02
гуглить пробовал? миллион вариантов же https://stackoverflow.com/questions/35797906/kubernetes-list-all-running-pods-name
разумеется пробовал. что я, дурак чтоли, часами в чатике ответа дожидаться

Dmytro
03.07.2018
14:33:14
так не работает ни один из вариантов, с jsonpath например (у меня самого такой в одном из скриптов)?

Stas
03.07.2018
14:33:56
У нас до 250 в саппорте, да. Насколько я понял все эти 100 и 110 времен версии 1.2
ну и я пришел к тому же выводу после чтения топиков. Вопрос в том, где реальный предел для k8s 1.11+containerd

Dmytro
03.07.2018
14:34:04
но вообще похоже что народ ссыт несколько
оно ж ещё сильно зависит от ноды, на какой-нибудь виртуалки с 8 процами и 110 сильно много

ещё была статья от страйпа - они замеряли сколько времени занимает запуск одного пода (но там старая статья c кубом 1.5 или 1.6 и докер а не containerd)

Stas
03.07.2018
14:35:15
оно ж ещё сильно зависит от ноды, на какой-нибудь виртуалки с 8 процами и 110 сильно много
assumption: у нас очень большая нода на которую влезет большое число подов и мы хотим понять именно боттлнеки кублета

Dmytro
03.07.2018
14:35:57
врядли именно у куба будут проблемы, он просто дергает докер апи

Vadim
03.07.2018
14:36:28
Dmytro
03.07.2018
14:36:55
а вот у докера и линукса (куча network namespaces, cgroups и прочее - тут надо пробовать)

пачки правил в iptables если много траффика тоже наверное может быть проблемой

Dmitry
03.07.2018
14:38:33
У меня на больших нодах были проблемы с кронджобами, два десятка джобов с расписанием "*/3" - через неделю аптайма не мог запустить sandbox/приаттачить сетку. Но это на 1.9.0/17.03, сейчас обновился на 1.10.5/18.03 вроде проблем не наблюдаю.

Dmytro
03.07.2018
14:40:24
о, точно такие же результаты были у страйпа

Stas
03.07.2018
14:40:54
а че containerd?
тут где-то была статься про то что containerd вроде как прилично быстрее

kvaps
03.07.2018
14:41:42
она? https://habr.com/company/flant/blog/414875/

Stas
03.07.2018
14:41:49
не думаю, что инженеры докера спасая свое наследие запихали в контейнерд полный говнокод

Google
Stas
03.07.2018
14:42:05
она? https://habr.com/company/flant/blog/414875/
она. Что не верит русское сообщество в это?

Dmytro
03.07.2018
14:42:26
ну так проблемы были именно с докер
тогда надо идти в канал по докеру имхо и там спрашивать - больше шансов что подскажут (или в вообще в канал containerd но там наверное и людей нету если вообще есть канал)

Andrey
03.07.2018
14:44:53
фильктрую поды по image

kubectl get pods -o jsonpath='{.items[?(@.spec.containers[0].image=="....")].metadata.name}'

Stas
03.07.2018
14:49:00
Докер уже давно на основе containerd, не?
да, я на сколько помню там историю (не помню откуда и кто мне ее втирал на докерконе так что без пруфов), когда инженеры докера почувствовали, что запахло жареным с точки зрения бизнеса, то они чтобы не потерять свое кодовое наследие под анальными лицензионными карами потенциального покупателя решили выпилить самое дорогое своему сердцу в контейнерд под железобетонный опенсурс

Vadim
03.07.2018
14:51:41
Все так, да. Только я сомневаюсь что чистый containerd будет работать - оно само умеет пуллить имаджи, аутентификацию в регистри, билдить?

Если нет, то особого смысла в переходе не вижу (ну кроме перехода на crictl)

Vadim
03.07.2018
14:53:30
Хмм, ну тогда должно хватить для начала

Dmytro
03.07.2018
14:54:43
билдить то зачем на проде?

Stas
03.07.2018
14:55:49
билдить то зачем на проде?
не на проде а в раннерах гитлаба настроенных как k8s executor

Vadim
03.07.2018
14:57:00
билдить то зачем на проде?
Чтобы весь пайплайн мог проверить на стейдже/деве и не получить "а, это докер криво билдит, у меня все правильно работает"

Dmytro
03.07.2018
14:59:03
хммм ну ок билди на дев кластере а на стейджинге держи containerd как на проде

Stas
03.07.2018
15:04:51
ну перспектива есть

Google
Stas
03.07.2018
15:05:32
хотя в отличие от openstack мне как-то сложно оценить уровень влияния шляпников на код и community. У кого тут какие по этому поводу ощущения?

Vadim
03.07.2018
15:09:36
Интересно, а есть полный отчот?

Stas
03.07.2018
15:11:24
Интересно, а есть полный отчот?
там же в статье ссылка была на презу https://schd.ws/hosted_files/ossalsjp18/95/OSSJP_KubernetesRuntimes.pdf

Vadim
03.07.2018
15:13:25
Интересно, может убунтушный кернел так влияет?

Stas
03.07.2018
15:15:16
c-groups не крещенные, неймспейсы не кошерные ?

bebebe
03.07.2018
15:25:53
https://thenewstack.io/ci-cd-with-kubernetes-ebook-free-download-on-the-new-stack/

Опять про спиннакер

Banschikov
03.07.2018
16:41:33
Друзья, подскажите... ВРоде была уже здесь эта тема. Можно каким-нибуть образом организовать сбор логов с подов в k8s к примеру с помощью graylog, но дежать его вне кластера k8s

Admin
ERROR: S client not available

Andor
03.07.2018
16:41:58
Можно

Banschikov
03.07.2018
16:43:16
Можно
И как это лучше осущевствить?

Andor
03.07.2018
16:43:49
Берёшь и осуществляешь

Будут проблемы - спрашивай тут

Banschikov
03.07.2018
16:44:52
Крутое сообщевство)

Берёшь и осуществляешь
Я прошу поделится практикой)

Andor
03.07.2018
16:46:01
Да там ваще не должно быть проблем

Banschikov
03.07.2018
16:47:50
Да там ваще не должно быть проблем
Типа filebeat юзать не хочется. Может уже что другое придумали

Andor
03.07.2018
16:48:01
Юзай fluentd

Google
Pavel
03.07.2018
16:49:56
https://github.com/vmware/kube-fluentd-operator гениальное, правда немного недоделанное изобретение

bebebe
03.07.2018
17:32:58
https://containerjournal.com/2018/07/03/top-9-kubernetes-settings-you-should-check-to-optimize-security/

Dmitriy
03.07.2018
17:56:20
Привет. Как посмотреть почему поды трафика висят в container creating?

Stas
03.07.2018
18:08:06
в блогпосте гугла к релизу 1.11 прочитал про https://github.com/kubernetes-sigs/kustomize я думаю что это прекрасно. Осталось придумать красивый способ менять тэг имеджа в джобе.

Alexey
03.07.2018
18:11:05
И как это лучше осущевствить?
Ставишь datadog за минуту, платишь $15 за сервер и все круто

Fike
03.07.2018
18:19:45
datadog собирает логи?

Dmytro
03.07.2018
18:20:08
да

Fike
03.07.2018
18:20:27
ого, давно?

Dmytro
03.07.2018
18:21:48
я хз, видел на каком-то из ивентов как они показывали

больше года точно

kyxap
03.07.2018
18:23:05
только нидайбох удалить тебе хоть одну ноду из датадога

менеджеры заебут насмерть. мне два года писали.

Andor
03.07.2018
18:25:35
Почему?

Dmitriy
03.07.2018
18:29:51
Descibe?
Дескрайб чего? Пода? Так его нет ещё.

Andor
03.07.2018
18:30:31
Поды есть и контейнеры в creating

Dmitriy
03.07.2018
18:33:36
Хм. Действительно.

Спасибо

Теперь бы понять почему он ругается на CNI

network: failed to set bridge addr: "cni0" already has an IP address different from 10.244.2.1/24 Что это может быть?

Кластер поднят с flannel

Alexey
03.07.2018
18:49:01
datadog собирает логи?
только там отдельный прайс за логи, $1.27 за 1кк ивентов. Пользоваться удобно

Страница 661 из 958