
Victor
11.07.2018
12:30:03
И ещё, это косяк кубадма, или же сами кублеты не могут

Roman
11.07.2018
12:32:29
https://github.com/kubernetes/kubernetes/blob/32dc6cc08aa0349d44aa3109f0a718cbb51fb101/cmd/kubeadm/app/phases/certs/pkiutil/pki_helpers.go#L199
сам кубадм точно не может

Victor
11.07.2018
12:33:09
мдэ...
ну это было понятно из сообщения-обработчик такой ситуации есть в бинаре...

Google

Victor
11.07.2018
12:34:12
А куб умеет? быть может, я на гите кубадма запилю фиче-реквест? или же, всё ещё глыбже?

Roman
11.07.2018
12:37:15
судя по https://github.com/kubernetes/kubernetes/issues/20217 проблем с ECDSA быть не должно.
А стоит ли тратить время на это? Вроде бы не то место, чтобы имело значение

Victor
11.07.2018
12:39:41
Дык, в общем-то, да. Перфекционизм взыграл. Поменять всё на RSA и редеплойнуться дело 15 минут) Спасибо, в любом случае

Sergey
11.07.2018
13:18:08
Джентльмены, логосрач.
что нынче модное и трушное?
ELK?
EFK?
ERK?
graylog?

Alan
11.07.2018
13:20:12
Иногда складывается впечатление, что моднее их вообще не писать)

Alexander
11.07.2018
13:25:07
Посоны, cron job должен плодить поды?
Просто он создаёт новый под, я ожиал что он будет просто пересоздавать

Andrey
11.07.2018
13:26:19
Должен, если не изменяет память, 3 отработанных
В доке есть все значения

Andor
11.07.2018
13:27:16

Alexander
11.07.2018
13:31:55

Maksim
11.07.2018
13:35:58

Alexander
11.07.2018
13:39:09

Google

Andor
11.07.2018
13:39:30
что "побороть"?

Alexander
11.07.2018
13:44:39
А можно cron job привязать к определённой ноде
чтобы поды подымались на заданной ноде

Andor
11.07.2018
13:46:13
вроде в джобе можно было

Anton
11.07.2018
13:48:13

Maksim
11.07.2018
13:48:16

Artem
11.07.2018
13:49:47
Товарищи,а можно ли шарить секреты между namespace ?

Maksim
11.07.2018
13:49:49

Andrey
11.07.2018
13:54:16

Anton
11.07.2018
13:54:26

Andor
11.07.2018
13:54:38
не всё
но почти всё

Anton
11.07.2018
13:54:58
не всё
расскажи какие исключения?
для собеседований пригодится =)))

Andrey
11.07.2018
13:55:09
PV
Namespace

Andor
11.07.2018
13:55:22
PV
угу

Andrey
11.07.2018
13:55:49
В API reference можно глянуть, там в HTTP подробностях видно, если не в неймспейс.

Google

Artem
11.07.2018
13:56:48
Нет. Зачем?
для каждого девелопера будет свой ns, который создается через дженкинс
и в приложении, как и везде собсно, есть такие данные, которые нельзя залить на гит, пароли, токены и подобная инфа
т.е. пришел новый девелопер - нажал в дженкинсе кнопку, ему создалось свое окружение с его доменом и т.п.
а этот вариант не получится, если предварительно не создать секреты

Andor
11.07.2018
13:57:35
ну создавай секреты сразу после создания неймспейса
заодно сделаешь чтобы секреты были уникальны для неймспейса

Vadim
11.07.2018
13:57:50

Artem
11.07.2018
13:58:04

Andrey
11.07.2018
13:58:07

Andor
11.07.2018
13:58:12
в секреты :)

Artem
11.07.2018
13:59:08
в секреты :)
в секреты чтобы записать их надо где то взять, т.е. хранить, верно ?

Andor
11.07.2018
13:59:17
зачем?
они же уникальные для каждого?
храни сразу в кубере
у тебя же какое-то девелоперское окружение

Artem
11.07.2018
14:00:46
есть уникальные ждя каждого, есть общие
уникальные - коннекты к базам и т.п.
общие - airbrake, newrelic например
уникальные я и хотел генерить на лету
общие - хотел создать в каком то NS и заюзать для нужных девелоперов

Andor
11.07.2018
14:01:07
ну общие у тебя где-то в дженкинсе могут лежать
а уникальные на ходу создаваться и больше нигде не храниться
по-моему норм

Artem
11.07.2018
14:02:04

Andor
11.07.2018
14:02:23
пфф

Huan
11.07.2018
18:19:46
привет всем. подскажите где хранится конфиг nginx-ingress со конфигами всех ингресс правил?

Artyom
11.07.2018
18:22:39
в инресс контроллере

Google

Artyom
11.07.2018
18:23:57
ищи под с именем nginx-ingress-controller, заходи в него kubectl exec -it <pod> /bin/bash
И там ищи

Huan
11.07.2018
18:24:17
спасибо. вижу, но там нет настроек, которые передаются в аннотации
хотя все что в аннотации было применено для одного правила - работает

Artyom
11.07.2018
18:25:18
может аннотацию не так указал и он не понял, как её применять

Huan
11.07.2018
18:25:32
так она применилась

Artyom
11.07.2018
18:25:33
там надо писать явно, что аннотация для nginx ingress
а, ну так если применилась, то в чем вопрос

Huan
11.07.2018
18:26:04
nginx.ingress.kubernetes.io/client-body-buffer-size: 4m

Admin
ERROR: S client not available

Huan
11.07.2018
18:26:13
а в файле - 1м
вопрос в том, где это смотреть в конфиге nginx?

Artyom
11.07.2018
18:27:25
https://github.com/kubernetes/ingress-nginx/blob/master/docs/user-guide/nginx-configuration/annotations.md
тут говорится, что nginx.ingress.kubernetes.io/client-body-buffer-size - это строка
может её в кавычки надо?

Huan
11.07.2018
18:28:03
указывал в кавычках

Artyom
11.07.2018
18:29:09
хм

Huan
11.07.2018
18:29:32
annotations:
nginx.ingress.kubernetes.io/client-max-body-size: "4m"
nginx.ingress.kubernetes.io/proxy-buffer-size: "16k"

Artyom
11.07.2018
18:30:41
https://github.com/nginxinc/kubernetes-ingress/issues/246
Вот, тут говорится, что не такая аннотация должна быть, может твой случай

Google

Huan
11.07.2018
18:31:30
а в конфиге на контроллере - client_max_body_size "1m";

Artyom
11.07.2018
18:32:02
» make sure you're using the correct image. nginxdemos/nginx-ingress:1.1.1 is the image of this Ingress controller.

Huan
11.07.2018
18:32:57
"image": "quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.10.2",

Artyom
11.07.2018
18:33:24
И вот оттуда же ссылка
https://github.com/nginxinc/kubernetes-ingress/tree/master/examples/customization
Тут вообще аннотация nginx.org/client-max-body-size
попробуй nginx.org/client-max-body-size

Huan
11.07.2018
18:34:34
пробовал - так вообще не работает

Andor
11.07.2018
18:35:14
вы не путайте nginx и nginxinc контроллеры

Artyom
11.07.2018
18:37:55
Тогда не знаю, может конфиг не перепнулся и там старое значение осталось
Хотя странно, должен перепнуться

Huan
11.07.2018
18:41:23
но при этом правило работает

Valera
11.07.2018
19:44:23
Всем привет. Коллеги, а как на GKE правильно выставить наружу сервис через ingress, если сервис отвечает 301 на 80 порту (переадресовывает на 443). У меня из-за этого healthcheck фейлится и этот backend наружу не выставляется, соответственно
На AWS можно было указать на LB какой код значит ок, т.е. например 200-399..
и когда там healthcheck фейлился на все ноды, то трафик продолжали пускать на всё, а тут тупо закрывают

Stas
11.07.2018
20:21:26
Я бы наверное решал эту проблему через nginx-ingress перед которым обычный forwarding rule
ой я чет туплю кажись, можно же тот хелсчек удалить и натравить https healthcheck, не?

Dmytro
11.07.2018
21:05:32