
Alex Milushev
01.08.2018
19:33:35
но ингресс вроде tcp не поддерживает :(

Alexey
01.08.2018
19:33:57
Россия aws не поддерживает
А ingress tcp умеет на nginx точно

Alex Milushev
01.08.2018
19:34:13
меня это мало парит

Google

Alex Milushev
01.08.2018
19:34:38

Alexey
01.08.2018
19:36:59
configmap костыль?

Alex Milushev
01.08.2018
19:37:11
как вариант пилить свой CRD и контроллер

Alexey
01.08.2018
19:38:02
там отдельная деректива stream { }
вообще левая тема, которую 99% не юзают. Как это могло в k8s по другому быть реализовано?
отдельный ресурс ingress-tcp?

Alex Milushev
01.08.2018
19:38:57
отдельный ресурс и контроллеры под него под разные платформы, как и с ингресс в принципе
имя не важно, хоть SupaDupaTCPIngressForK8S

Vasilyev
01.08.2018
19:39:45

Alex Milushev
01.08.2018
19:40:05

Alexey
01.08.2018
19:40:20
@zunkree привет передавай там всем в идеальном мире)

Alex Milushev
01.08.2018
19:40:25

Vasilyev
01.08.2018
19:40:28
Аааа. Сенкс

Google

Alex Milushev
01.08.2018
19:40:34

Михаил
01.08.2018
20:37:19

Vasiliy
01.08.2018
20:37:59

Михаил
01.08.2018
20:39:01

Vasiliy
01.08.2018
20:39:29
qps примерно какой ?

Михаил
01.08.2018
20:40:28

Vasiliy
01.08.2018
20:40:43

Andrey
01.08.2018
20:44:33
Ребят, а деплоить через kubectl set image deployment... зло или норм?

Alexey
01.08.2018
22:38:12

Andrey
01.08.2018
23:29:29

Andor
02.08.2018
04:51:24
Или всё ещё говорят "делайте пулинг на стороне приложения"?

Alexey
02.08.2018
06:56:05

Konstantin
02.08.2018
06:59:42

Andrey
02.08.2018
08:30:49

Oleg
02.08.2018
08:52:50
версии приложения /v1/.. /v2/... в одном или разных неймспейсах?

Dmytro
02.08.2018
08:54:14
it's up to you как говорится

Oleg
02.08.2018
08:54:40
ну кто как делает и из каких соображений исходит?

Dmytro
02.08.2018
09:20:02
обе версии будут в проде? или это v1 прод, v2 стейджинг?

Google

Oleg
02.08.2018
09:21:35
обе в проде

Dmytro
02.08.2018
09:21:52
и они ходят обе в одну базу я так понимаю?

Oleg
02.08.2018
09:21:57
конечно

Anton
02.08.2018
09:22:02

Dmytro
02.08.2018
09:22:08
тогда я бы в один неймспейс положил

anapsix
02.08.2018
09:35:27
А как проверить потом что оно встало?
$ kubectl rollout status deploy/nginx-deployment
Waiting for rollout to finish: 2 of 3 updated replicas are available...
deployment "nginx" successfully rolled out
$ echo $?
0

Михаил
02.08.2018
09:38:51

Andor
02.08.2018
09:39:38
Ну и кто они после этого?

Gleb
02.08.2018
09:42:15

Михаил
02.08.2018
09:42:17
для микросервисов вполне хватает

Anton
02.08.2018
09:42:59
hostpath
у мну в одном проекте крутится в docker (consul storage), жаль нет возможности использовать гибридные хранилища, быстренько был перевел, а вручную лениво

Andor
02.08.2018
09:48:13
Так-то можно ваще пкйсмейкер взять

Никита
02.08.2018
09:48:26
Оно как лом по архитектуре, написано на питоне.
Открываешь код и читаешь в случае чего.

Gleb
02.08.2018
09:48:54

Google

Oleg
02.08.2018
09:49:07
env и envFrom вместе норм живут?

Lucky SB
02.08.2018
10:03:49
А чем письмейкер плох для постгресс клястера?

Igor
02.08.2018
12:04:22
всем привет! а может кто-то подсказать по helm'у?
описываю в requirements.yaml зависимость на postgres (https://github.com/sapcc/helm-charts/blob/master/common/postgresql/values.yaml) и хочу каким-то образом переопределить значения переменных из его values.yaml (postgresUser, postgresPassword и т.п.), но они находятся в корне и все никак не могу понять как мне через import-values прокинуть параметры в мой values.yaml.

Evgenii
02.08.2018
12:08:23
Прочитай в доке хелма про values для субчартов. Кратко если, надо добавить в свой values секцию по названию субчарта и со сдвигом форматирования на уровень глубже указать значения для субчарта.

Igor
02.08.2018
12:09:11
типа так
postgresql:
postgresUser:

Igor
02.08.2018
12:09:15
я то прочитал, не совсем очевиден этот факт был
ок, попробую
это будет работать с alias-ами?

Igor
02.08.2018
12:09:36
хз

Igor
02.08.2018
12:15:20
да, работает, спасибо

Михаил
02.08.2018
12:16:29

Andor
02.08.2018
12:17:10
чем плох-то?
он в 2018-ом году работать перестал?
может ещё и lvs с keepalived выкинуть, а то 2018 год уже

Stanislav
02.08.2018
12:19:46
Господа, можно ли вывести наружу nginx-ingress на нижние порты без kube-proxy и без внешнего балансировщика? С установкой по-умолчанию не работает nginx.ingress.kubernetes.io/whitelist-source-range
по-умолчанию - в смысле через NodePort и указанием externalIPs

Anton
02.08.2018
12:39:58
на своем железе hostnetwork должен помочь

Stanislav
02.08.2018
12:42:01
До этого не докопался... Благодарю!

Sergio
02.08.2018
12:42:48
Как вы запускаете кластер etcd? В докерах или как сервисы через systemctl ?

Dmitry
02.08.2018
12:43:55

Denis
02.08.2018
12:45:04
Господа, подскажите как правильно использовать helm в rancher2.0?

Google

Stanislav
02.08.2018
12:45:42
Правда, не факт, что мне надо запускать его на более, чем паре-тройке узлов...

Dmitry
02.08.2018
12:48:45
В чарте же можно аффинити настроить

Stanislav
02.08.2018
12:49:24
А... Ну да, логично...

Anton
02.08.2018
13:06:52

Dmitry
02.08.2018
13:08:56

Anton
02.08.2018
13:09:39
помоему так. добавляется dnat правило на машине с пробросом на адрес пода
я бы избегал такого для ингрес контроллера

Stanislav
02.08.2018
13:11:27
Сейчас там kube-proxy

Dmitry
02.08.2018
13:13:14

Anton
02.08.2018
13:14:21
покажешь?

Stanislav
02.08.2018
13:14:35
Пока не могу сказать, что именно там было в iptables (временно снёс nginx-ingress), но соединения приходили с адреса узла.

Dmitry
02.08.2018
13:16:03
покажешь?
root@worker1 ~ # iptables --table nat -L|grep ingress
KUBE-MARK-MASQ all -- 10.244.6.107 anywhere /* default/lb-nginx-ingress-default-backend:http */
DNAT tcp -- anywhere anywhere /* default/lb-nginx-ingress-default-backend:http */ tcp to:10.244.6.107:8080
KUBE-MARK-MASQ tcp -- !10.244.0.0/16 10.99.20.0 /* default/lb-nginx-ingress-default-backend:http cluster IP */ tcp dpt:http
KUBE-SVC-OWIN2HJEPMT3U425 tcp -- anywhere 10.99.20.0 /* default/lb-nginx-ingress-default-backend:http cluster IP */ tcp dpt:http
KUBE-SEP-TT4GONWV4SFZABTX all -- anywhere anywhere /* default/lb-nginx-ingress-default-backend:http */