
Let Eat
21.08.2018
18:02:29
Ну когда завезут в куб, а то он кажется файлы напрямую читает

Alexander
21.08.2018
18:03:04
еще бы дали возможность крутить размер буфера под log line, было бы вообще отлично.

Vadim
21.08.2018
18:06:23
>Some problems here may be with users who are directly accessing container log files, expecting a particular format, place on disk, etc... this sucks... but ultimately on-disk state is not part of our API and people should not be messing around in there
аахахахахха
"some problems", да

Google

Andor
21.08.2018
18:11:55
писать логи локально в протобаф это прям космос идея

Alexander
21.08.2018
18:13:40
т.к. теперь не надо выбирать

Andor
21.08.2018
18:14:38
кстати а кто-нибудь юзает убунтовский docker.io с --log-driver=journald?
чтение из журнала не работает
и соответственно ломается kubectl logs

Alexander
21.08.2018
18:17:17
а какая убунта?

Let Eat
21.08.2018
18:17:48

Andor
21.08.2018
18:20:38
18.04

Fike
21.08.2018
18:35:37
Что такое докершим? Я немного отстал от веяний

Alexander
21.08.2018
18:48:21

Denis
21.08.2018
19:20:00

Ivan
21.08.2018
20:31:42
Кто нибудь решал задачу с публикацией UDP сервисов наружу. Как это сделать правильно в кубе?

Google

Andor
21.08.2018
20:32:37
возможно тебе поможет ингресс нжинкс

Ivan
21.08.2018
20:33:02
Возможно нет :)
Там либо прокси пилить либо прям сервис жопой вытаскивать, но есть проблемы с маппингом портов
Ну, не проблемы а неудобства

Andor
21.08.2018
20:34:40
нжинкс же вроде умеет быть udp прокси

Vasilyev
21.08.2018
20:39:05
Умеет

bebebe
21.08.2018
20:40:34
коллеги, а кто-нибудь ловил на 1.7.1 при большой нагрузке на сервис, connection reset by peer?
если спрашивать не через сервис, ошибок нет
kube-proxy запущена с --proxymode=iptables

Andor
21.08.2018
20:40:55
правда на 1.9 и на 1.10 ловили
но суть та же

bebebe
21.08.2018
20:42:15
да, только 1.7.x не умеет в ipvs

Andor
21.08.2018
20:43:07
это же фича кубе-прокси
нельзя только его подобновить?

bebebe
21.08.2018
20:43:34
сложновато

Andor
21.08.2018
20:44:36
штопаделать
если у тебя получится побороть без ipvs - сообщи пожалуйста

bebebe
21.08.2018
20:47:53
ок
перешел на 1.10.1 и врубил ipvs - не помогло.
дело происходит на ажуре (но не AKS)

Andor
21.08.2018
21:04:26
коннтрек для ipvs включил?
точнее, значения задрать надо

Google

bebebe
21.08.2018
21:05:39
оно дефолтное 131072

Andor
21.08.2018
21:05:41
подробнее можно у @rgersh узнать, если он не спит

bebebe
21.08.2018
21:06:55
я вот думаю, svc нужно пересоздавать после этих телодвижений?

Andor
21.08.2018
21:09:06
ну ты проверь остались ли iptables nat правила

bebebe
21.08.2018
22:14:45
с ipvs натолкнулся на такой баг
https://github.com/kubernetes/kubernetes/issues/59976
с ipvs тоже не вышло, коннективити между подами есть, но вылазит тот же connection reset by peer под нагрузкой (10 параллельных tcp сессий)
https://www.reddit.com/r/kubernetes/comments/954ybm/horrors_of_using_azure_kubernetes_service_in/

Roman
21.08.2018
22:38:03
А кто тут использует cilium?

Дмитрий
22.08.2018
06:35:51

Let Eat
22.08.2018
06:40:08

bebebe
22.08.2018
06:40:32

bebebe
22.08.2018
06:43:31
у меня меня, есть один воркек и один мастер
на воркере запущена два пода
если делать seq 1 100000 | xargs -P5 curl <second-pod>
все работает сносно
если сделать в десять потоков seq 1 10000 | xargs -P10 ...
ловлю connection reset by peer, на некоторое количество запросов
сам k8s, 1.7.1, kube-proxy пробовал в разных вариациях, от userspace, до ipvs.
у меня складывается впечатление, что либо где-то что-то переполняется, какой-нибудь conntrack, хотя я его вроде мониторил

Andor
22.08.2018
06:45:38
у нас были очень похожие симптомы, но вылечились переходом на ipvs

bebebe
22.08.2018
06:46:24
а мне почему-то не помогло, кластер разворачивал не я, а каким-то странным методом, поэтому подводных камне может быть множество

Pavel
22.08.2018
06:47:28
net.core.somaxconn какой у вас выставлен?
Недавно утыкались в него в похожем стиле

bebebe
22.08.2018
06:48:34
8096

Google

bebebe
22.08.2018
06:48:59
у меня складывается впечатление, что эти линуксы никак не тюнились вообще

Banschikov
22.08.2018
06:51:32
Всем привет! КТо нибуть снимает логи контейнеров в k8s через fluentd и GELF?

Pavel
22.08.2018
07:07:01

Andor
22.08.2018
07:07:25

Pavel
22.08.2018
07:07:56

Andor
22.08.2018
07:08:23
kube-proxy выставляет, да
стоит в его опции глянуть ещё

Banschikov
22.08.2018
07:09:06
кто-нибудь наверняка
Есть какой то имейдж докеровский готовый под эти цели? Видел только для системных компонентов.

Andrey
22.08.2018
07:09:18
в россии выходной сегодня?

Admin
ERROR: S client not available

Andor
22.08.2018
07:09:35
в августе вроде нет праздников

bebebe
22.08.2018
07:09:45

Andor
22.08.2018
07:09:49

Evgenyj
22.08.2018
07:10:17

Let Eat
22.08.2018
07:10:23

bebebe
22.08.2018
07:11:15
хожу из одного pod'а в другой, проблема есть
если во втором поде запустить тест и натравить его на localhost - проблема отстутсвует
поды на одной машине запущены

Banschikov
22.08.2018
07:11:35

Let Eat
22.08.2018
07:14:29
В 10 потоков сразу умирает или держится сначала?

Alex
22.08.2018
07:16:04
Всем привет.
Вчера уже задавал вопрос по запуску cadvisor'а и сбору метрик, продолжаю с этим разбираться.
Сейчас команда kubectl top node возвращает ошибку error: metrics not available yet При этом, логе heapster'a вижу записи подобного вида:
error while getting containers from Kubelet: failed to get all container stats from Kubelet URL "http://10.90.8.15:10255/stats/container/": Post http://10.90.8.15:10255/stats/container/: dial tcp 10.90.8.15:10255: getsockopt: connection refused
Порт 10255 действительно не слушается ни на одной из нод(все версии 1.11). Как я понял по релиз нотсам, с 11 версии этот порт по умолчанию закрыт, а открыт защищенный 10250. Вижу два возможных варианта решения:
1. Открыть порт 10255
2. Настроить heapster'а на работу по порту 10250.
Прав ли я? Подскажите, что нужно выполнить, чтобы реализовать второй вариант?


bebebe
22.08.2018
07:16:39
закономерность найти сложно, можно утверждать так, что какое-то время держится, потом, где-то что-то переполняется, идут фейлы (но не подряд)
дальше фейлов становится меньше, потом опять могут пачкой свалится, далее по одному

Google

Let Eat
22.08.2018
07:16:48


bebebe
22.08.2018
07:20:55
я к сожалению в этом контейнере не могу его поставить, из-за отсутствия прав.
я бы тоже грешил на backlog, если бы не работающий тест через localhost.
backend'ом там служит java фреймвор jetty
хотя точно можо утверджать, что connectio reset by peer я ловлю на моменте connect(2)
я вот думаю, не поднять ли мне рядом nginx и не сделать ли тест против него

Banschikov
22.08.2018
07:27:43

bebebe
22.08.2018
07:28:00
да, если натравить на nginx, то проблема отсусттвует
я давно смотрел в то как устроена сеть в линуксе, у меня есть какое-то странное ощущение, что когда пакет идет на localhost, он может попадать в "берзарменый" backlog, хитро "проходить по цепочкам" внутри ядра
потому что, если этот тест запускть внутри "проблемного пода", против localhost, то connection reset by peer отсутствует

Andrey
22.08.2018
07:30:43
может дело в SELINUX?

Andor
22.08.2018
07:31:23
ну-ну

bebebe
22.08.2018
07:31:55
ммм. не думаю... но если тест фейлится на java backend'e и не валится на nginx backend'е - это хорошая отправная точка
а то я уже немного аптисипидампился

Andrey
22.08.2018
07:32:32
chown -r rb_sysope:rb_sysope /var/log/

Andor
22.08.2018
07:33:31
srsly

bebebe
22.08.2018
07:33:36
спасибо коллеги, а то у меня уже глаз замылился

Ivan
22.08.2018
07:36:19
Кто нибудь читал где нибудь, возможно ли чтобы сеть для подов была маршрутизируемой, чтобы поды получали IP в сети которая доступна напрямю, а не через НАТ ?

Andrey
22.08.2018
07:36:57

Andor
22.08.2018
07:37:25

bebebe
22.08.2018
07:37:42

Andor
22.08.2018
07:37:45
calico поддерживает