
Andrey
22.08.2018
10:19:53
проблема в этой строчке

Oleg ?
22.08.2018
10:20:04
сейчас попробую

Andrey
22.08.2018
10:22:39
потому что там локально bind стоит скорее всего

Google

Oleg ?
22.08.2018
10:25:37

Andrey
22.08.2018
10:26:08
ну наверное потому что впн хост не резволвится

Oleg ?
22.08.2018
10:27:08
да, это мой косяк с резолв.конф

Artem
22.08.2018
10:27:50
Он льет в кафку, оттуда стейтфулсет грейлога забирает

Stas
22.08.2018
10:28:44
а fluentbit тоже течет? есть у кого опыт?

Banschikov
22.08.2018
10:28:55
Люди подскажите быстрый совет сгенирировать в k8s большую тучю событий? Может есть какой нибуть имейдж докеровский? Тестирую систему сбора логов. Хочу провести нагрузочное тестирование.

kvaps
22.08.2018
10:29:39
kubectl delete pod --all --all-namespaces
в цикле :)

Banschikov
22.08.2018
10:31:41

Andrey
22.08.2018
10:33:12
https://linux.die.net/man/1/loggen

Artem
22.08.2018
10:33:33

Google

Banschikov
22.08.2018
10:34:19

Artem
22.08.2018
10:56:52
Регулировать инетнсивность можно через лимиты CPU

kvaps
22.08.2018
12:48:29
а кто с архетиктурой знаком, подскажите, liveness probe выполняется локально на ноде или каким-то агентом снаружи?

Дмитрий
22.08.2018
12:48:48
kubectl с хоста

kvaps
22.08.2018
12:49:20
то есть kubelet?
я просто не понимаю, если пропадет связь ноды с мастером, но при этом контейнер останется работать на ноде без проблем.
liveness probe сработает или нет?

Дмитрий
22.08.2018
12:58:54

kvaps
22.08.2018
13:07:46

Дмитрий
22.08.2018
13:08:10
kubelet, верно

Алексей
22.08.2018
13:08:50
про то что kubelet тож гдето встречал, но пруф не дам.

Дмитрий
22.08.2018
13:09:09
можно сделать упражнение - закрыть networkpolicy от хоста и получить вечно перезагружающийся под ибо не прошёл хелс-чек

kvaps
22.08.2018
13:11:36
ладно, придется проверить

Sergey
22.08.2018
13:12:37
в момент шедулинга и узнает.

Grigory
22.08.2018
13:13:04

Alik
22.08.2018
13:13:12
Добрый день. Подскажите, пожалуйста, как включить поддержку settings.k8s.io/v1alpha1. Доки говорят что надо добавить в —runtime-config settings.k8s.io/v1alpha1=true для apiserver. Но как это сделать? Какой deployment поменять?

Sergey
22.08.2018
13:13:25

kvaps
22.08.2018
13:14:04
видел docker умеет хелсчеки, подозреваю это они и есть

Google

Sergey
22.08.2018
13:14:29

Igor
22.08.2018
13:15:04

Grigory
22.08.2018
13:15:06

kvaps
22.08.2018
13:15:43
@spuzirev спасибо за прояснение

Alik
22.08.2018
13:23:28
kube-apiserver https://kubernetes.io/docs/reference/command-line-tools-reference/kube-apiserver/
Ага. Вот я вижу в неймспейсе три пода kube-apiserver-*, достаю с помощью kubectl describe их описание. Выкидывается что-то такое:
kube-apiserver:
….
Ports: 6443/TCP, 8080/TCP
Command:
/hyperkube
apiserver
…
--admission-control=NamespaceLifecycle,LimitRanger,ServiceAccount,PersistentVolumeLabel,DefaultStorageClass,DefaultTolerationSeconds,MutatingAdmissionWebhook,ValidatingAdmissionWebhook,ResourceQuota
….
--runtime-config=v1alpha1
Понятно, что нужно дополнить —runtime-config, но ведь я не могу прям спеку пода поменять. А deployments/statefulset, которые называются apiserver на наблюдаю


Igor
22.08.2018
13:25:14
Ага. Вот я вижу в неймспейсе три пода kube-apiserver-*, достаю с помощью kubectl describe их описание. Выкидывается что-то такое:
kube-apiserver:
….
Ports: 6443/TCP, 8080/TCP
Command:
/hyperkube
apiserver
…
--admission-control=NamespaceLifecycle,LimitRanger,ServiceAccount,PersistentVolumeLabel,DefaultStorageClass,DefaultTolerationSeconds,MutatingAdmissionWebhook,ValidatingAdmissionWebhook,ResourceQuota
….
--runtime-config=v1alpha1
Понятно, что нужно дополнить —runtime-config, но ведь я не могу прям спеку пода поменять. А deployments/statefulset, которые называются apiserver на наблюдаю
если сетапится кластер kubeadm, на мастер ноде есть systemd unit для kubelet, в конфиге которого прописан путь для manifests
и там лежет yaml для kube-apiserver

Grigory
22.08.2018
13:45:10
/report

Vitaliy
22.08.2018
13:53:51

Дмитрий
22.08.2018
13:54:52

Vitaliy
22.08.2018
13:56:39

Дмитрий
22.08.2018
13:57:42
вероятно через NetworkPolicy правильно, у него есть ещё CiliumNetworkPolicy сразу с L7

Oleg
22.08.2018
14:21:53
Привет! А как лучше кешировать файлики на ингресе? Или это плохая идея и лучше делать отдельный сервис с кешом?

Vitaliy
22.08.2018
14:26:41

Nik
22.08.2018
14:28:46
а как увеличить backlog в ingress? через annotation есть вариант?

Oleg
22.08.2018
14:29:20

Vitaliy
22.08.2018
14:29:40
а отдельным прокси пробовали?
нам неудобно. И так много прокси:)
ingress смотрит в интернет и иногда забивает весь интерфейс раздачей статики. Если кэшировать в отдельном поде, то весь этот траффик из ингресс пойдет внутрь кластера и будет прыгать по нодам, забивая им приватные интерфейсы.

Nik
22.08.2018
14:32:37

Google

Vitaliy
22.08.2018
14:33:01

Nik
22.08.2018
14:55:03

Vitaliy
22.08.2018
14:56:00

Nik
22.08.2018
14:58:17

Admin
ERROR: S client not available

Vitaliy
22.08.2018
15:03:54

Paul
22.08.2018
15:56:16
коллеги, среди нас есть достаточно смелые, кто уже пробовал? https://cilium.io/blog/2018/08/21/cilium-12/

Alex Milushev
22.08.2018
16:25:43
привет, кто-то настраивал fluent-bit с containerd?

Дмитрий
22.08.2018
16:27:00

Alex Milushev
22.08.2018
16:33:30

Nik
22.08.2018
17:30:03

Denis
22.08.2018
17:38:56
тесты буду скорее всего через пару недель

Let Eat
22.08.2018
18:59:49

bebebe
22.08.2018
19:00:25

Let Eat
22.08.2018
19:09:09

bebebe
22.08.2018
19:11:12
некоторые из них путают http 502 ошибку и конфликт контроля версий в git'e

Let Eat
22.08.2018
19:13:02

Google

bebebe
22.08.2018
19:13:31
виноват был k8s, т.к. через curl localhost внутри пода проблемы не было
я писал выше что раньше, если tcp шел через lo0, то он немного под другим цепочкам логическим идет внутри tcp стека линукса
и под лимиты backlog'а он не попадает, поэтому 8 часов я потратил на дебаг сети в k8s
либо попадает под лимиты backlog, но lo0 пакеты в нем вообще не задерживаются и нужно запускать (возможно) паралелльно 1000 запросов
у меня же тесты фейлились на 10 паралелльных
чисто на посмеяться

Roman
22.08.2018
22:50:26

Валентин
23.08.2018
00:17:53

Alex Milushev
23.08.2018
07:55:03

Валентин
23.08.2018
07:56:29

Alex Milushev
23.08.2018
07:57:04

Валентин
23.08.2018
07:59:09
Ну да. Главное в контейнере запускать fluent-bit, а не на ноде. Т.к по дефолту он ищет в /var/run/secrets все для подключения к k8s api, и не все это можно опциями переопределить

Alex Milushev
23.08.2018
07:59:28
оки, спасибо большое

Alexey
23.08.2018
08:35:42
Всем привет, кто нить сталкивался, правильно ли я понял, отключить авторизацию нельзя для kubernetes-dashboard (так как токен он использует из RBAC). Но может кто то решал, нужно что бы дашборда пропускала авторизацию, при этом авторизовывалась в самом кубере токеном и правами, а мой фронт использовал http авторизацию с ldap. В идеале группы ldap завязать на namespace-ы но судя по тому что нарыть удалось об этом речи пока не идет
ага все, вопрос походу снимается, разобрался как он работает, там можно куку отгружать на nginx-е, по пробую костылей по вставлять