@kubernetes_ru

Страница 774 из 958
Let Eat
21.08.2018
18:02:29
Ну когда завезут в куб, а то он кажется файлы напрямую читает

Alexander
21.08.2018
18:03:04
еще бы дали возможность крутить размер буфера под log line, было бы вообще отлично.

Vadim
21.08.2018
18:06:23
>Some problems here may be with users who are directly accessing container log files, expecting a particular format, place on disk, etc... this sucks... but ultimately on-disk state is not part of our API and people should not be messing around in there аахахахахха

"some problems", да

Google
Andor
21.08.2018
18:11:55
писать логи локально в протобаф это прям космос идея

Alexander
21.08.2018
18:13:40
Ну когда завезут в куб, а то он кажется файлы напрямую читает
куб забирает через dockershim путь до лог-файлов у докера. потому фича все еще полезна, если надо писать логи удаленно.

т.к. теперь не надо выбирать

Andor
21.08.2018
18:14:38
кстати а кто-нибудь юзает убунтовский docker.io с --log-driver=journald?

чтение из журнала не работает

и соответственно ломается kubectl logs

Alexander
21.08.2018
18:17:17
а какая убунта?

Let Eat
21.08.2018
18:17:48
куб забирает через dockershim путь до лог-файлов у докера. потому фича все еще полезна, если надо писать логи удаленно.
Ну там приписочка, что формат на диске поменялся, а значит kubelet офигеет пока что

Andor
21.08.2018
18:20:38
18.04

Fike
21.08.2018
18:35:37
Что такое докершим? Я немного отстал от веяний

Alexander
21.08.2018
18:48:21
Что такое докершим? Я немного отстал от веяний
часть докера, реализующая CRI. По ссылке есть диаграмка https://katacontainers.io/posts/why-kata-containers-doesnt-replace-kubernetes/

Ivan
21.08.2018
20:31:42
Кто нибудь решал задачу с публикацией UDP сервисов наружу. Как это сделать правильно в кубе?

Google
Andor
21.08.2018
20:32:37
возможно тебе поможет ингресс нжинкс

Ivan
21.08.2018
20:33:02
Возможно нет :)

Там либо прокси пилить либо прям сервис жопой вытаскивать, но есть проблемы с маппингом портов

Ну, не проблемы а неудобства

Andor
21.08.2018
20:34:40
нжинкс же вроде умеет быть udp прокси

Vasilyev
21.08.2018
20:39:05
Умеет

bebebe
21.08.2018
20:40:34
коллеги, а кто-нибудь ловил на 1.7.1 при большой нагрузке на сервис, connection reset by peer? если спрашивать не через сервис, ошибок нет kube-proxy запущена с --proxymode=iptables

bebebe
21.08.2018
20:42:15
да, только 1.7.x не умеет в ipvs

Andor
21.08.2018
20:43:07
это же фича кубе-прокси

нельзя только его подобновить?

bebebe
21.08.2018
20:43:34
сложновато

Andor
21.08.2018
20:44:36
штопаделать

если у тебя получится побороть без ipvs - сообщи пожалуйста

bebebe
21.08.2018
20:47:53
ок

перешел на 1.10.1 и врубил ipvs - не помогло. дело происходит на ажуре (но не AKS)

Andor
21.08.2018
21:04:26
коннтрек для ipvs включил?

точнее, значения задрать надо

Google
bebebe
21.08.2018
21:05:39
оно дефолтное 131072

Andor
21.08.2018
21:05:41
подробнее можно у @rgersh узнать, если он не спит

bebebe
21.08.2018
21:06:55
я вот думаю, svc нужно пересоздавать после этих телодвижений?

Andor
21.08.2018
21:09:06
ну ты проверь остались ли iptables nat правила

bebebe
21.08.2018
22:14:45
с ipvs натолкнулся на такой баг https://github.com/kubernetes/kubernetes/issues/59976

с ipvs тоже не вышло, коннективити между подами есть, но вылазит тот же connection reset by peer под нагрузкой (10 параллельных tcp сессий)

https://www.reddit.com/r/kubernetes/comments/954ybm/horrors_of_using_azure_kubernetes_service_in/

Roman
21.08.2018
22:38:03
А кто тут использует cilium?

Дмитрий
22.08.2018
06:35:51
bebebe
22.08.2018
06:40:32
В dmesg на клиенте и сервере нет ничего?
ничего страшного, проверял

bebebe
22.08.2018
06:43:31
у меня меня, есть один воркек и один мастер на воркере запущена два пода если делать seq 1 100000 | xargs -P5 curl <second-pod> все работает сносно если сделать в десять потоков seq 1 10000 | xargs -P10 ... ловлю connection reset by peer, на некоторое количество запросов

сам k8s, 1.7.1, kube-proxy пробовал в разных вариациях, от userspace, до ipvs.

у меня складывается впечатление, что либо где-то что-то переполняется, какой-нибудь conntrack, хотя я его вроде мониторил

Andor
22.08.2018
06:45:38
у нас были очень похожие симптомы, но вылечились переходом на ipvs

bebebe
22.08.2018
06:46:24
а мне почему-то не помогло, кластер разворачивал не я, а каким-то странным методом, поэтому подводных камне может быть множество

Pavel
22.08.2018
06:47:28
net.core.somaxconn какой у вас выставлен?

Недавно утыкались в него в похожем стиле

bebebe
22.08.2018
06:48:34
8096

Google
bebebe
22.08.2018
06:48:59
у меня складывается впечатление, что эти линуксы никак не тюнились вообще

Banschikov
22.08.2018
06:51:32
Всем привет! КТо нибуть снимает логи контейнеров в k8s через fluentd и GELF?

Pavel
22.08.2018
07:07:01
Pavel
22.08.2018
07:07:56
у меня складывается впечатление, что эти линуксы никак не тюнились вообще
Но там ещё приложение может само выставлять backlog, как вариант

Andor
22.08.2018
07:08:23
kube-proxy выставляет, да

стоит в его опции глянуть ещё

Banschikov
22.08.2018
07:09:06
кто-нибудь наверняка
Есть какой то имейдж докеровский готовый под эти цели? Видел только для системных компонентов.

Andrey
22.08.2018
07:09:18
в россии выходной сегодня?

Admin
ERROR: S client not available

Andor
22.08.2018
07:09:35
в августе вроде нет праздников

bebebe
22.08.2018
07:09:45
Но там ещё приложение может само выставлять backlog, как вариант
я проверял изнутри second pod теже curl на localhost проблема отсутствует

Evgenyj
22.08.2018
07:10:17
bebebe
22.08.2018
07:11:15
хожу из одного pod'а в другой, проблема есть если во втором поде запустить тест и натравить его на localhost - проблема отстутсвует поды на одной машине запущены

Banschikov
22.08.2018
07:11:35
Вот это посмотрите https://github.com/roffe/kube-gelf
Смотрел, но немного не подходит решение.

Let Eat
22.08.2018
07:14:29
В 10 потоков сразу умирает или держится сначала?

Alex
22.08.2018
07:16:04
Всем привет. Вчера уже задавал вопрос по запуску cadvisor'а и сбору метрик, продолжаю с этим разбираться. Сейчас команда kubectl top node возвращает ошибку error: metrics not available yet При этом, логе heapster'a вижу записи подобного вида: error while getting containers from Kubelet: failed to get all container stats from Kubelet URL "http://10.90.8.15:10255/stats/container/": Post http://10.90.8.15:10255/stats/container/: dial tcp 10.90.8.15:10255: getsockopt: connection refused Порт 10255 действительно не слушается ни на одной из нод(все версии 1.11). Как я понял по релиз нотсам, с 11 версии этот порт по умолчанию закрыт, а открыт защищенный 10250. Вижу два возможных варианта решения: 1. Открыть порт 10255 2. Настроить heapster'а на работу по порту 10250. Прав ли я? Подскажите, что нужно выполнить, чтобы реализовать второй вариант?

bebebe
22.08.2018
07:16:39
закономерность найти сложно, можно утверждать так, что какое-то время держится, потом, где-то что-то переполняется, идут фейлы (но не подряд) дальше фейлов становится меньше, потом опять могут пачкой свалится, далее по одному

Google
Let Eat
22.08.2018
07:16:48
bebebe
22.08.2018
07:20:55
я к сожалению в этом контейнере не могу его поставить, из-за отсутствия прав. я бы тоже грешил на backlog, если бы не работающий тест через localhost. backend'ом там служит java фреймвор jetty

хотя точно можо утверджать, что connectio reset by peer я ловлю на моменте connect(2)

я вот думаю, не поднять ли мне рядом nginx и не сделать ли тест против него

Banschikov
22.08.2018
07:27:43
Есть какой то имейдж докеровский готовый под эти цели? Видел только для системных компонентов.
При старте контейнера с fluentd вот такая ошибка unexpected error error_class=Errno::EACCES error=#<Errno::EACCES: Permission denied @ rb_sysopen - /var/log/fluentd-containers.log.pos>

bebebe
22.08.2018
07:28:00
да, если натравить на nginx, то проблема отсусттвует

я давно смотрел в то как устроена сеть в линуксе, у меня есть какое-то странное ощущение, что когда пакет идет на localhost, он может попадать в "берзарменый" backlog, хитро "проходить по цепочкам" внутри ядра

потому что, если этот тест запускть внутри "проблемного пода", против localhost, то connection reset by peer отсутствует

Andrey
22.08.2018
07:30:43
может дело в SELINUX?

Andor
22.08.2018
07:31:23
ну-ну

bebebe
22.08.2018
07:31:55
ммм. не думаю... но если тест фейлится на java backend'e и не валится на nginx backend'е - это хорошая отправная точка

а то я уже немного аптисипидампился

Andor
22.08.2018
07:33:31
srsly

bebebe
22.08.2018
07:33:36
спасибо коллеги, а то у меня уже глаз замылился

Ivan
22.08.2018
07:36:19
Кто нибудь читал где нибудь, возможно ли чтобы сеть для подов была маршрутизируемой, чтобы поды получали IP в сети которая доступна напрямю, а не через НАТ ?

Andor
22.08.2018
07:37:45
calico поддерживает

Страница 774 из 958