
kvaps
03.07.2018
14:18:57
похоже что с PV/PVC таже история
но среди них есть поды которые не используют PVC
видел на гитхабе кто-то еще жаловался 16ч назад. Эх, пошел писать багрепорт

Dmytro
03.07.2018
14:20:46

Google

Banschikov
03.07.2018
14:21:21

Dmytro
03.07.2018
14:21:43

kvaps
03.07.2018
14:22:39
@denyasmail у меня PVC тоже в Terminating зависли, подозреваю как раз из-за этих подов

Banschikov
03.07.2018
14:23:21

Andrey
03.07.2018
14:23:57

kvaps
03.07.2018
14:25:02
@denyasmail не понимаю что там можно нашаманить кроме удаления с --force --grace-period=0, читал в 1.11 защиту сделали от удаления PVC пока поды еще не завершились, подозреваю это она и есть

Stas
03.07.2018
14:26:44
@SinTeZoiD С последнего митапа не оставляет меня вопрос про эти 110 подов на ноду. У меня есть ощущение, что это какая-то legacy фигня. Вот иша, в которой долго и безрезультатно идет обсуждение того, есть ли проблема по факту https://github.com/kubernetes/kubernetes/issues/23349 При этом, для кубелета есть опция увеличить лимит подов. Ты или кто-то еще пробовал стресс тестить это дело после увеличения лимита? У меня есть подозрение, что тут страху больше чем реальных проблем (ну и плюс плохая работа sig-scalability или как она там)

Dmytro
03.07.2018
14:26:51

Andrey
03.07.2018
14:27:23
нету грепа, к сожалению есть только kubectl

Dmytro
03.07.2018
14:28:27
гуглить пробовал? миллион вариантов же https://stackoverflow.com/questions/35797906/kubernetes-list-all-running-pods-name

Михаил
03.07.2018
14:28:34
но вообще похоже что народ ссыт несколько

Google

Vadim
03.07.2018
14:29:33

Andrey
03.07.2018
14:30:02

Dmytro
03.07.2018
14:33:14
так не работает ни один из вариантов, с jsonpath например (у меня самого такой в одном из скриптов)?

Stas
03.07.2018
14:33:56

Dmytro
03.07.2018
14:34:04
ещё была статья от страйпа - они замеряли сколько времени занимает запуск одного пода (но там старая статья c кубом 1.5 или 1.6 и докер а не containerd)

Stas
03.07.2018
14:35:15

Dmytro
03.07.2018
14:35:57
врядли именно у куба будут проблемы, он просто дергает докер апи

Vadim
03.07.2018
14:36:28

Михаил
03.07.2018
14:36:53

Dmytro
03.07.2018
14:36:55
а вот у докера и линукса (куча network namespaces, cgroups и прочее - тут надо пробовать)
пачки правил в iptables если много траффика тоже наверное может быть проблемой

Dmitry
03.07.2018
14:38:33
У меня на больших нодах были проблемы с кронджобами, два десятка джобов с расписанием "*/3" - через неделю аптайма не мог запустить sandbox/приаттачить сетку. Но это на 1.9.0/17.03, сейчас обновился на 1.10.5/18.03 вроде проблем не наблюдаю.

Dmytro
03.07.2018
14:40:24
о, точно такие же результаты были у страйпа

Михаил
03.07.2018
14:40:24

Stas
03.07.2018
14:40:54
а че containerd?
тут где-то была статься про то что containerd вроде как прилично быстрее

Михаил
03.07.2018
14:41:00

kvaps
03.07.2018
14:41:42
она?
https://habr.com/company/flant/blog/414875/

Stas
03.07.2018
14:41:49
не думаю, что инженеры докера спасая свое наследие запихали в контейнерд полный говнокод

Google

Stas
03.07.2018
14:42:05

Dmytro
03.07.2018
14:42:26
ну так проблемы были именно с докер
тогда надо идти в канал по докеру имхо и там спрашивать - больше шансов что подскажут (или в вообще в канал containerd но там наверное и людей нету если вообще есть канал)

Михаил
03.07.2018
14:43:44

Andrey
03.07.2018
14:44:31

Vadim
03.07.2018
14:44:32

Andrey
03.07.2018
14:44:53
фильктрую поды по image
kubectl get pods -o jsonpath='{.items[?(@.spec.containers[0].image=="....")].metadata.name}'

Stas
03.07.2018
14:49:00
Докер уже давно на основе containerd, не?
да, я на сколько помню там историю (не помню откуда и кто мне ее втирал на докерконе так что без пруфов), когда инженеры докера почувствовали, что запахло жареным с точки зрения бизнеса, то они чтобы не потерять свое кодовое наследие под анальными лицензионными карами потенциального покупателя решили выпилить самое дорогое своему сердцу в контейнерд под железобетонный опенсурс

Vadim
03.07.2018
14:51:41
Все так, да. Только я сомневаюсь что чистый containerd будет работать - оно само умеет пуллить имаджи, аутентификацию в регистри, билдить?
Если нет, то особого смысла в переходе не вижу (ну кроме перехода на crictl)

Эдуард
03.07.2018
14:52:09
Билды не проверял

Vadim
03.07.2018
14:53:30
Хмм, ну тогда должно хватить для начала

Dmytro
03.07.2018
14:54:43
билдить то зачем на проде?

Stas
03.07.2018
14:55:49

Vadim
03.07.2018
14:57:00
билдить то зачем на проде?
Чтобы весь пайплайн мог проверить на стейдже/деве и не получить "а, это докер криво билдит, у меня все правильно работает"

Dmytro
03.07.2018
14:59:03
хммм ну ок билди на дев кластере а на стейджинге держи containerd как на проде

Михаил
03.07.2018
15:01:20

Stas
03.07.2018
15:04:51
ну перспектива есть

Google

Stas
03.07.2018
15:05:32
хотя в отличие от openstack мне как-то сложно оценить уровень влияния шляпников на код и community. У кого тут какие по этому поводу ощущения?

Vadim
03.07.2018
15:09:36
Интересно, а есть полный отчот?

Михаил
03.07.2018
15:09:58

Vadim
03.07.2018
15:10:38

Stas
03.07.2018
15:11:24

Vadim
03.07.2018
15:13:25
Интересно, может убунтушный кернел так влияет?

Stas
03.07.2018
15:15:16
c-groups не крещенные, неймспейсы не кошерные ?

bebebe
03.07.2018
15:25:53
https://thenewstack.io/ci-cd-with-kubernetes-ebook-free-download-on-the-new-stack/
Опять про спиннакер

Banschikov
03.07.2018
16:41:33
Друзья, подскажите... ВРоде была уже здесь эта тема. Можно каким-нибуть образом организовать сбор логов с подов в k8s к примеру с помощью graylog, но дежать его вне кластера k8s

Admin
ERROR: S client not available

Andor
03.07.2018
16:41:58
Можно

Banschikov
03.07.2018
16:43:16
Можно
И как это лучше осущевствить?

Andor
03.07.2018
16:43:49
Берёшь и осуществляешь
Будут проблемы - спрашивай тут

Banschikov
03.07.2018
16:44:52
Крутое сообщевство)

Andor
03.07.2018
16:46:01
Да там ваще не должно быть проблем

Banschikov
03.07.2018
16:47:50

Andor
03.07.2018
16:48:01
Юзай fluentd

Google

Pavel
03.07.2018
16:49:56
https://github.com/vmware/kube-fluentd-operator
гениальное, правда немного недоделанное изобретение

bebebe
03.07.2018
17:32:58
https://containerjournal.com/2018/07/03/top-9-kubernetes-settings-you-should-check-to-optimize-security/

Dmitriy
03.07.2018
17:56:20
Привет. Как посмотреть почему поды трафика висят в container creating?

Stas
03.07.2018
18:08:06
в блогпосте гугла к релизу 1.11 прочитал про https://github.com/kubernetes-sigs/kustomize я думаю что это прекрасно. Осталось придумать красивый способ менять тэг имеджа в джобе.

Alexey
03.07.2018
18:11:05

Fike
03.07.2018
18:19:45
datadog собирает логи?

Dmytro
03.07.2018
18:20:08
да

Fike
03.07.2018
18:20:27
ого, давно?

Dmytro
03.07.2018
18:21:48
я хз, видел на каком-то из ивентов как они показывали
больше года точно

Andor
03.07.2018
18:22:14

kyxap
03.07.2018
18:23:05
только нидайбох удалить тебе хоть одну ноду из датадога
менеджеры заебут насмерть. мне два года писали.

Andor
03.07.2018
18:25:35
Почему?

Dmitriy
03.07.2018
18:29:51
Descibe?
Дескрайб чего? Пода? Так его нет ещё.

Andor
03.07.2018
18:30:31
Поды есть и контейнеры в creating

Dmitriy
03.07.2018
18:33:36
Хм. Действительно.
Спасибо
Теперь бы понять почему он ругается на CNI
network: failed to set bridge addr: "cni0" already has an IP address different from 10.244.2.1/24
Что это может быть?
Кластер поднят с flannel

Alexey
03.07.2018
18:49:01