@kubernetes_ru

Страница 720 из 958
Alex Milushev
01.08.2018
19:33:35
но ингресс вроде tcp не поддерживает :(

Alexey
01.08.2018
19:33:57
Россия aws не поддерживает

А ingress tcp умеет на nginx точно

Alex Milushev
01.08.2018
19:34:13
меня это мало парит

Google
Alex Milushev
01.08.2018
19:34:38
А ingress tcp умеет на nginx точно
через костыль, что расстраивает

Alexey
01.08.2018
19:36:59
configmap костыль?

Alex Milushev
01.08.2018
19:37:11
как вариант пилить свой CRD и контроллер

Alexey
01.08.2018
19:38:02
там отдельная деректива stream { } вообще левая тема, которую 99% не юзают. Как это могло в k8s по другому быть реализовано?

отдельный ресурс ingress-tcp?

Alex Milushev
01.08.2018
19:38:57
отдельный ресурс и контроллеры под него под разные платформы, как и с ингресс в принципе

имя не важно, хоть SupaDupaTCPIngressForK8S

Vasilyev
01.08.2018
19:39:45
Alex Milushev
01.08.2018
19:40:05
Alexey
01.08.2018
19:40:20
@zunkree привет передавай там всем в идеальном мире)

Alex Milushev
01.08.2018
19:40:25
А что такое этот ваш CRD?
https://kubernetes.io/docs/concepts/extend-kubernetes/api-extension/custom-resources/

Vasilyev
01.08.2018
19:40:28
Аааа. Сенкс

Google
Михаил
01.08.2018
20:37:19
Vasiliy
01.08.2018
20:37:59
Use stolon Luke
а как он с нагрузками дружит ?

Михаил
01.08.2018
20:39:01
как вариант пилить свой CRD и контроллер
Дорого большинству команд

Vasiliy
01.08.2018
20:39:29
qps примерно какой ?

Михаил
01.08.2018
20:40:28
qps примерно какой ?
У меня не большой, но у знакомых прилично

Vasiliy
01.08.2018
20:40:43
Andrey
01.08.2018
20:44:33
Ребят, а деплоить через kubectl set image deployment... зло или норм?

Alexey
01.08.2018
22:38:12
Ребят, а деплоить через kubectl set image deployment... зло или норм?
Я делаю cat template.yml | envsubst | kubectl apply -f - в template.yml что-то вроде: image: service/api:$COMMIT_SHA Почти тоже самое, только чуть гибче

Andor
02.08.2018
04:51:24
Use stolon Luke
Они уже добавили pgbouncer?

Или всё ещё говорят "делайте пулинг на стороне приложения"?

Alexey
02.08.2018
06:56:05
А как проверить потом что оно встало?
так же как и проверить,что kubectl apply в принципе применился... я не делаю проверок. Мониторинг поднимет панику если что не так

Andrey
02.08.2018
08:30:49
Oleg
02.08.2018
08:52:50
версии приложения /v1/.. /v2/... в одном или разных неймспейсах?

Dmytro
02.08.2018
08:54:14
it's up to you как говорится

Oleg
02.08.2018
08:54:40
ну кто как делает и из каких соображений исходит?

Dmytro
02.08.2018
09:20:02
обе версии будут в проде? или это v1 прод, v2 стейджинг?

Google
Oleg
02.08.2018
09:21:35
обе в проде

Dmytro
02.08.2018
09:21:52
и они ходят обе в одну базу я так понимаю?

Oleg
02.08.2018
09:21:57
конечно

Anton
02.08.2018
09:22:02
У меня не большой, но у знакомых прилично
Хранилище у каждой реплики своё?

Dmytro
02.08.2018
09:22:08
тогда я бы в один неймспейс положил

anapsix
02.08.2018
09:35:27
А как проверить потом что оно встало?
$ kubectl rollout status deploy/nginx-deployment Waiting for rollout to finish: 2 of 3 updated replicas are available... deployment "nginx" successfully rolled out $ echo $? 0

Михаил
02.08.2018
09:38:51
Они уже добавили pgbouncer?
нееет) 200 коннектов)

Andor
02.08.2018
09:39:38
Ну и кто они после этого?

Gleb
02.08.2018
09:42:15
Use stolon Luke
а шо не патрони?

Михаил
02.08.2018
09:42:17
для микросервисов вполне хватает

а шо не патрони?
хз, у нас так хорошо полетел столон

Anton
02.08.2018
09:42:59
hostpath
у мну в одном проекте крутится в docker (consul storage), жаль нет возможности использовать гибридные хранилища, быстренько был перевел, а вручную лениво

а шо не патрони?
слишком много магии, столон просто работает

Andor
02.08.2018
09:48:13
Так-то можно ваще пкйсмейкер взять

Никита
02.08.2018
09:48:26
а шо не патрони?
Вот патрони удваиваю.

Оно как лом по архитектуре, написано на питоне.

Открываешь код и читаешь в случае чего.

Google
Oleg
02.08.2018
09:49:07
env и envFrom вместе норм живут?

Lucky SB
02.08.2018
10:03:49
А чем письмейкер плох для постгресс клястера?

Igor
02.08.2018
12:04:22
всем привет! а может кто-то подсказать по helm'у? описываю в requirements.yaml зависимость на postgres (https://github.com/sapcc/helm-charts/blob/master/common/postgresql/values.yaml) и хочу каким-то образом переопределить значения переменных из его values.yaml (postgresUser, postgresPassword и т.п.), но они находятся в корне и все никак не могу понять как мне через import-values прокинуть параметры в мой values.yaml.

Evgenii
02.08.2018
12:08:23
Прочитай в доке хелма про values для субчартов. Кратко если, надо добавить в свой values секцию по названию субчарта и со сдвигом форматирования на уровень глубже указать значения для субчарта.

Igor
02.08.2018
12:09:11
типа так postgresql: postgresUser:

Igor
02.08.2018
12:09:15
я то прочитал, не совсем очевиден этот факт был ок, попробую

это будет работать с alias-ами?

Igor
02.08.2018
12:09:36
хз

Igor
02.08.2018
12:15:20
да, работает, спасибо

Andor
02.08.2018
12:17:10
чем плох-то?

он в 2018-ом году работать перестал?

может ещё и lvs с keepalived выкинуть, а то 2018 год уже

Stanislav
02.08.2018
12:19:46
Господа, можно ли вывести наружу nginx-ingress на нижние порты без kube-proxy и без внешнего балансировщика? С установкой по-умолчанию не работает nginx.ingress.kubernetes.io/whitelist-source-range

по-умолчанию - в смысле через NodePort и указанием externalIPs

Anton
02.08.2018
12:39:58
на своем железе hostnetwork должен помочь

Stanislav
02.08.2018
12:42:01
До этого не докопался... Благодарю!

Sergio
02.08.2018
12:42:48
Как вы запускаете кластер etcd? В докерах или как сервисы через systemctl ?

Denis
02.08.2018
12:45:04
Господа, подскажите как правильно использовать helm в rancher2.0?

Google
Stanislav
02.08.2018
12:45:42
Правда, не факт, что мне надо запускать его на более, чем паре-тройке узлов...

Dmitry
02.08.2018
12:48:45
В чарте же можно аффинити настроить

Stanislav
02.08.2018
12:49:24
А... Ну да, логично...

Dmitry
02.08.2018
13:08:56
Anton
02.08.2018
13:09:39
помоему так. добавляется dnat правило на машине с пробросом на адрес пода

я бы избегал такого для ингрес контроллера

Stanislav
02.08.2018
13:11:27
Сейчас там kube-proxy

Dmitry
02.08.2018
13:13:14
помоему так. добавляется dnat правило на машине с пробросом на адрес пода
В нат таблице чего-то не вижу правил на dnat для ингресс-контроллера, только для дефолт-бэкенда

Anton
02.08.2018
13:14:21
покажешь?

Stanislav
02.08.2018
13:14:35
Пока не могу сказать, что именно там было в iptables (временно снёс nginx-ingress), но соединения приходили с адреса узла.

Dmitry
02.08.2018
13:16:03
покажешь?
root@worker1 ~ # iptables --table nat -L|grep ingress KUBE-MARK-MASQ all -- 10.244.6.107 anywhere /* default/lb-nginx-ingress-default-backend:http */ DNAT tcp -- anywhere anywhere /* default/lb-nginx-ingress-default-backend:http */ tcp to:10.244.6.107:8080 KUBE-MARK-MASQ tcp -- !10.244.0.0/16 10.99.20.0 /* default/lb-nginx-ingress-default-backend:http cluster IP */ tcp dpt:http KUBE-SVC-OWIN2HJEPMT3U425 tcp -- anywhere 10.99.20.0 /* default/lb-nginx-ingress-default-backend:http cluster IP */ tcp dpt:http KUBE-SEP-TT4GONWV4SFZABTX all -- anywhere anywhere /* default/lb-nginx-ingress-default-backend:http */

Страница 720 из 958