@kubernetes_ru

Страница 776 из 958
Andrey
22.08.2018
10:19:53
проблема в этой строчке

Oleg ?
22.08.2018
10:20:04
сейчас попробую

проблема в этой строчке
действительно, спасибо ! пойду читать про что это вообще))

Andrey
22.08.2018
10:22:39
потому что там локально bind стоит скорее всего

Google
Oleg ?
22.08.2018
10:25:37
потому что там локально bind стоит скорее всего
там локально - это всмысле откуда я пытаюсь разрезолвить ? и это нормально что я к другому впн не могу подконнектится ( с которым норм все было до этого )?

Andrey
22.08.2018
10:26:08
ну наверное потому что впн хост не резволвится

Oleg ?
22.08.2018
10:27:08
да, это мой косяк с резолв.конф

Artem
22.08.2018
10:27:50
filebeat или fleuntbit ?
да да , filebeat https://www.elastic.co/products/beats/filebeat

Он льет в кафку, оттуда стейтфулсет грейлога забирает

Stas
22.08.2018
10:28:44
а fluentbit тоже течет? есть у кого опыт?

Banschikov
22.08.2018
10:28:55
Люди подскажите быстрый совет сгенирировать в k8s большую тучю событий? Может есть какой нибуть имейдж докеровский? Тестирую систему сбора логов. Хочу провести нагрузочное тестирование.

kvaps
22.08.2018
10:29:39
kubectl delete pod --all --all-namespaces

в цикле :)

Banschikov
22.08.2018
10:31:41
Google
Banschikov
22.08.2018
10:34:19
loggen
спс

Artem
22.08.2018
10:56:52
Регулировать инетнсивность можно через лимиты CPU

kvaps
22.08.2018
12:48:29
а кто с архетиктурой знаком, подскажите, liveness probe выполняется локально на ноде или каким-то агентом снаружи?

Дмитрий
22.08.2018
12:48:48
kubectl с хоста

kvaps
22.08.2018
12:49:20
то есть kubelet?

я просто не понимаю, если пропадет связь ноды с мастером, но при этом контейнер останется работать на ноде без проблем. liveness probe сработает или нет?

kvaps
22.08.2018
13:07:46
https://kubernetes.io/blog/2018/08/03/out-of-the-clouds-onto-the-ground-how-to-make-kubernetes-production-grade-anywhere/
ссылка крутая, но на вопрос "кто выполняет liveness probe" она не отвечает

Дмитрий
22.08.2018
13:08:10
kubelet, верно

Алексей
22.08.2018
13:08:50
про то что kubelet тож гдето встречал, но пруф не дам.

Дмитрий
22.08.2018
13:09:09
можно сделать упражнение - закрыть networkpolicy от хоста и получить вечно перезагружающийся под ибо не прошёл хелс-чек

kvaps
22.08.2018
13:11:36
можно сделать упражнение - закрыть networkpolicy от хоста и получить вечно перезагружающийся под ибо не прошёл хелс-чек
хм, ну получается тогда он проводится не локально, а откуда-то снаружи к примеру с controller-manager, иначе "откуда он знает"?

ладно, придется проверить

Sergey
22.08.2018
13:12:37
в момент шедулинга и узнает.

Alik
22.08.2018
13:13:12
Добрый день. Подскажите, пожалуйста, как включить поддержку settings.k8s.io/v1alpha1. Доки говорят что надо добавить в —runtime-config settings.k8s.io/v1alpha1=true для apiserver. Но как это сделать? Какой deployment поменять?

Sergey
22.08.2018
13:13:25
?
фигасе, Гриша

kvaps
22.08.2018
13:14:04
как откуда? хелсчек - часть спеки пода.
то есть все таки локально?

видел docker умеет хелсчеки, подозреваю это они и есть

Google
Sergey
22.08.2018
13:14:29
то есть все таки локально?
кубелет делает все проверки. во всяком случае в тцпдампе они от кубелета.

kvaps
22.08.2018
13:15:43
@spuzirev спасибо за прояснение

Alik
22.08.2018
13:23:28
kube-apiserver https://kubernetes.io/docs/reference/command-line-tools-reference/kube-apiserver/
Ага. Вот я вижу в неймспейсе три пода kube-apiserver-*, достаю с помощью kubectl describe их описание. Выкидывается что-то такое: kube-apiserver: …. Ports: 6443/TCP, 8080/TCP Command: /hyperkube apiserver … --admission-control=NamespaceLifecycle,LimitRanger,ServiceAccount,PersistentVolumeLabel,DefaultStorageClass,DefaultTolerationSeconds,MutatingAdmissionWebhook,ValidatingAdmissionWebhook,ResourceQuota …. --runtime-config=v1alpha1 Понятно, что нужно дополнить —runtime-config, но ведь я не могу прям спеку пода поменять. А deployments/statefulset, которые называются apiserver на наблюдаю

Grigory
22.08.2018
13:45:10
/report

Vitaliy
22.08.2018
13:53:51
а кто с архетиктурой знаком, подскажите, liveness probe выполняется локально на ноде или каким-то агентом снаружи?
kubelet делает по ip адресу пода, если другой явно не указан. Поэтому networkpolicy на это не влияет.

Дмитрий
22.08.2018
13:54:52
Vitaliy
22.08.2018
13:56:39
видать у меня более хитрый CNI - cilium, у него влияет
видимо cilium неправильно реализует спеку, т.к. по ней с hostNetwork той же ноды должен быть доступ

Дмитрий
22.08.2018
13:57:42
вероятно через NetworkPolicy правильно, у него есть ещё CiliumNetworkPolicy сразу с L7

Oleg
22.08.2018
14:21:53
Привет! А как лучше кешировать файлики на ингресе? Или это плохая идея и лучше делать отдельный сервис с кешом?

Vitaliy
22.08.2018
14:26:41
Привет! А как лучше кешировать файлики на ингресе? Или это плохая идея и лучше делать отдельный сервис с кешом?
мы кэшируем, но есть сложности: * нужно включать proxy_buffering со всеми вытекающими минусами * нужно в каждый ingress писать аннотацию с конфигами кэша * нужно добавлять http-snippet с proxy_cache_path в конфигмапу Это все касается ingress-nginx

Nik
22.08.2018
14:28:46
а как увеличить backlog в ingress? через annotation есть вариант?

Vitaliy
22.08.2018
14:29:40
а как увеличить backlog в ingress? через annotation есть вариант?
в шаблоне есть переменная. как-то можно включить

а отдельным прокси пробовали?
нам неудобно. И так много прокси:) ingress смотрит в интернет и иногда забивает весь интерфейс раздачей статики. Если кэшировать в отдельном поде, то весь этот траффик из ингресс пойдет внутрь кластера и будет прыгать по нодам, забивая им приватные интерфейсы.

Nik
22.08.2018
14:32:37
в шаблоне есть переменная. как-то можно включить
Я знаю, вопрос как до нее добраться и подкрутить) там используется $all.BacklogSize, похоже только через конфигмапу

Google
Nik
22.08.2018
14:55:03
возможно они в коде считают. Поищите по исходникам
он sysctlsomaxcon() использует, а для контейнера чтобы его задать нужен unsafe sysctl, а он мне недоступен(

Vitaliy
22.08.2018
14:56:00
он sysctlsomaxcon() использует, а для контейнера чтобы его задать нужен unsafe sysctl, а он мне недоступен(
можно шаблон глобально переопределить и выпилить из него $all.BacklogSize ...

Nik
22.08.2018
14:58:17
можно шаблон глобально переопределить и выпилить из него $all.BacklogSize ...
ну здесь уже с ingress неймспейсом будет проблема, т.к. физически somaxconn у него будет 128.

Admin
ERROR: S client not available

Vitaliy
22.08.2018
15:03:54
ну здесь уже с ingress неймспейсом будет проблема, т.к. физически somaxconn у него будет 128.
вот такое есть https://github.com/kubernetes/ingress-nginx/tree/80462ecdad63b851d5cd00ec623f55e64cd26728/docs/examples/customization/sysctl Кстати, как-нибудь можно замониторить нехватку бэклога?

Paul
22.08.2018
15:56:16
коллеги, среди нас есть достаточно смелые, кто уже пробовал? https://cilium.io/blog/2018/08/21/cilium-12/

Alex Milushev
22.08.2018
16:25:43
привет, кто-то настраивал fluent-bit с containerd?

Дмитрий
22.08.2018
16:27:00
Alex Milushev
22.08.2018
16:33:30
привет, кто-то настраивал fluent-bit с containerd?
если да, зашарте конфиг файл пожалуйста!

Denis
22.08.2018
17:38:56
тесты буду скорее всего через пару недель

Let Eat
22.08.2018
18:59:49
эээ, если я правильно понимаю вывод ss и он не врет, Send-Q = 1
Recvq ,значит тоже 1 :) такое само не бывает, авторы приложения постарались

bebebe
22.08.2018
19:00:25
Recvq ,значит тоже 1 :) такое само не бывает, авторы приложения постарались
да, я уже разобрался, спасбио за наводку поставил рядом nginx, выставил ему backlog == 1 и получил воспроизводимую проблему

Let Eat
22.08.2018
19:09:09
да, я уже разобрался, спасбио за наводку поставил рядом nginx, выставил ему backlog == 1 и получил воспроизводимую проблему
Основательный подход к сбору доказательств, иначе девелоперы и не почешутся?

bebebe
22.08.2018
19:11:12
Основательный подход к сбору доказательств, иначе девелоперы и не почешутся?
с той стороны сидят малоквалифицированные специалисты, думаю вы понимаете о чем я ?

некоторые из них путают http 502 ошибку и конфликт контроля версий в git'e

Google
bebebe
22.08.2018
19:13:31
виноват был k8s, т.к. через curl localhost внутри пода проблемы не было

я писал выше что раньше, если tcp шел через lo0, то он немного под другим цепочкам логическим идет внутри tcp стека линукса

и под лимиты backlog'а он не попадает, поэтому 8 часов я потратил на дебаг сети в k8s

либо попадает под лимиты backlog, но lo0 пакеты в нем вообще не задерживаются и нужно запускать (возможно) паралелльно 1000 запросов у меня же тесты фейлились на 10 паралелльных

А виноват kubernetes
root cause: https://github.com/dropwizard/dropwizard/issues/2431

чисто на посмеяться

Валентин
23.08.2018
00:17:53
привет, кто-то настраивал fluent-bit с containerd?
Да все по ману: [INPUT] Name tail Path /var/log/containers/*.log Parser crio Tag kube.* Mem_Buf_Limit 25MB [FILTER] Name kubernetes Match kube.*

Alex Milushev
23.08.2018
07:55:03
Валентин
23.08.2018
07:56:29
спасибо большое, а какой парсер для kubernetes фильтра?
Вот все, что есть. Ниже опции для подключения к k8s только. Т.е парсер - в инпуте. В фильтре - фильтр, kubernetes и все

Alex Milushev
23.08.2018
07:57:04
Валентин
23.08.2018
07:59:09
Ну да. Главное в контейнере запускать fluent-bit, а не на ноде. Т.к по дефолту он ищет в /var/run/secrets все для подключения к k8s api, и не все это можно опциями переопределить

Alex Milushev
23.08.2018
07:59:28
оки, спасибо большое

Alexey
23.08.2018
08:35:42
Всем привет, кто нить сталкивался, правильно ли я понял, отключить авторизацию нельзя для kubernetes-dashboard (так как токен он использует из RBAC). Но может кто то решал, нужно что бы дашборда пропускала авторизацию, при этом авторизовывалась в самом кубере токеном и правами, а мой фронт использовал http авторизацию с ldap. В идеале группы ldap завязать на namespace-ы но судя по тому что нарыть удалось об этом речи пока не идет

ага все, вопрос походу снимается, разобрался как он работает, там можно куку отгружать на nginx-е, по пробую костылей по вставлять

Страница 776 из 958