
Maksim
20.09.2017
10:05:32
дефолтовый от prometheus

Nikita
20.09.2017
12:42:02
Привет
Гугловый вариант юзабелен?
Есть к нему конкретные вопросы?

Google

Maksim
20.09.2017
12:42:56
А есть не гугловый вариант?)

Nikita
20.09.2017
12:44:06
Я про google container
В части gcp

Maksim
20.09.2017
12:46:53
почему нет?
учитывая что до 1.7 кубер делался по сути гуглом

Artemiy
20.09.2017
13:01:31
привет, чем деплоить в этот ваш кубернейтес, чтоб из CI

bebebe
20.09.2017
13:07:59
модный ответ: спиннакером, но есть нюансы

Let Eat
20.09.2017
13:09:04

kvaps
20.09.2017
13:10:38
народ а кто в курсе почему входящие пакеты на externalIP могут отбрасываться как martian source? - уже всю голову сломал

bebebe
20.09.2017
13:10:41
как он в жизни, а не на картинках?
там нужно понимать саму модель разработки
инженеры нетфликса пилют его как бы опенсорс, но пилят его специфично для внутренних нужд самого нетфликса, а от комьюнити - велком то контрибьют
отсюда например странная особенность, что архитектурно spinnaker нельзя поставить без уже имеющегося облака
и так со многими их продуктами

Let Eat
20.09.2017
13:11:17
ну так в куб же его можно поставить? чем не облако?

bebebe
20.09.2017
13:11:37
да, но если у тебя нет куба - нет мультиков

Google

kvaps
20.09.2017
13:12:27
причем проблема происходит только тогда, когда я обращаюсь к kubeproxy:
PREROUTING: IN=br0.100 OUT= MAC=fa:a3:18:af:cd:c7:44:31:92:73:c8:76:08:00 SRC=1.2.3.4 DST=5.6.7.8 LEN=60 TOS=0x00 PREC=0x00 TTL=61 ID=19612 DF PROTO=TCP SPT=28543 DPT=80 WINDOW=29200 RES=0x00 SYN URGP=0
IPv4: martian source 10.244.79.2 from 1.2.3.4, on dev br0.100
ll header: 00000000: fa a3 18 af cd c7 44 31 92 73 c8 76 08 00 ......D1.s.v..где:
1.2.3.4 - это мой внешний ip
5.6.7.8 - это внешний ip одной из нод Kubernetes'а висит на br.100
10.244.79.2 - под

bebebe
20.09.2017
13:13:11
собственно ему нужно подсунуть вольюмы и инслать чартом stable/spinnaker который тянет за собой jenkins (они с декабря выпилили возможность запускать какие-либо команды, типа тот же hello world) и запускают только через jenkins и еще тянет minio,redis

kvaps
20.09.2017
13:13:41
В INPUT они даже не попадают

Let Eat
20.09.2017
13:15:18
во дела

Anton
20.09.2017
13:27:41
есть вопрос по nginx-ingress. не понимаю зачем на 443 порту в контейнере слушает nginx-ingress-controller, а не сам nginx?

bebebe
20.09.2017
13:35:27
@amaksimov ping

Let Eat
20.09.2017
13:45:22

Anton
20.09.2017
13:46:58
LISTEN 0 0 :::443 :::* users:(("nginx-ingress-c",pid=7,fd=3))

Let Eat
20.09.2017
13:47:20
ну делааа

kvaps
20.09.2017
13:58:59
netstat -natp | grep kube
tcp 0 0 1.2.3.4:80 0.0.0.0:* LISTEN 4875/kube-proxy- а это значит что kube-proxy работает в userspace mode?
или не значит?

Mikhail
20.09.2017
14:02:15
кубе-прокси работает в userspace в любом случае. Как он роутит - зависит от параметров запуска.
ps auxwwww | grep kube-proxy

Anton
20.09.2017
14:04:21

kvaps
20.09.2017
14:04:41
/usr/local/bin/kube-proxy --kubeconfig=/var/lib/kube-proxy/kubeconfig.conf --cluster-cidr=10.244.0.0/16cat /var/lib/kube-proxy/kubeconfig.confapiVersion: v1
kind: Config
clusters:
- cluster:
certificate-authority: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
server: https://10.36.11.20:6443
name: default
contexts:
- context:
cluster: default
namespace: default
user: default
name: default
current-context: default
users:
- name: default
user:
tokenFile: /var/run/secrets/kubernetes.io/serviceaccount/token
хм, правило кстати есть


Mikhail
20.09.2017
14:11:09
у меня не слушает в iptables mode
` --proxy-mode ProxyMode Which proxy mode to use: 'userspace' (older) or 'iptables' (faster). If blank, use the best-available proxy (currently iptables). If the iptables proxy is selected, regardless of how, but the system's kernel or iptables versions are insufficient, this always falls back to the userspace proxy.
`

kvaps
20.09.2017
14:13:17
ага, значит это fallback!

Google

Mikhail
20.09.2017
14:13:58
наверное стоит запустить сервис какой-нибудь и посмотреть изменились правила iptables или нет

kvaps
20.09.2017
14:13:59
благодарю
правила меняются

Anton
20.09.2017
14:18:09

Mikhail
20.09.2017
14:21:36

kvaps
20.09.2017
14:23:15
хмм
отдельных правил нет
если я использую один из локальных адресов ноды как externalIP для сервиса, то все работает отлично
но если я добавляю какой-нибудь внешний IP-адрес на одну из нод и указываю его как externalIP для сервиса, то внешние пакеты на этот IP дальше PREROUTING не уходят
дропаются ядром как martian source
при этом если rp_filtering отключить, оно вообще работает без default route для этого IP о__О
откуда он знает в какой интерфес ему ответные пакеты слать, для меня тоже загадка
Но это вообще здоровое решение? :)
И что если у меня несколько таких таблиц, для каждой таблицы такое правило прописать?

Mikhail
20.09.2017
15:15:58
вопрос ставит меня в тупик если честно. Если конфигурация этого требует - я прописываю, не требует, не прописываю :)
у меня сеть подов совпадает с сетью docker0 на интерфейсе.

kvaps
20.09.2017
15:18:06
огромное тебе спасибо, дружище!

Mikhail
20.09.2017
15:18:46
?

Danich
20.09.2017
15:39:08
Приветствую.
У меня вопрос:
Кто-нибудь сталкивался с тем, что при создании external контейнера, зависает на pending?
kubectl get services:
nginx 10.110.42.173 <pending> 80:80/TCP 20m
Если создавать internal, то все окей:
nginx-internal 10.107.207.123 <none> 33334/TCP 7m

Mikhail
20.09.2017
15:41:16
В describe не написано почему? (Это так, мысли вслух)

Google

Maksim
20.09.2017
15:57:46
pending означает, что нет подходящих нод
тут надо смотреть логи кублета

Danich
20.09.2017
15:59:43
хмм

Paul
20.09.2017
16:03:53
https://www.hashicorp.com/blog/hashicorp-vault-0-8-3/
вдруг кто не видел

Danich
20.09.2017
16:04:08
может нужно создать отдельно External endpoints?

Kaspar
20.09.2017
16:04:50

Антон
20.09.2017
16:10:33

Mikhail
20.09.2017
16:54:27

Fike
20.09.2017
17:03:14

Aleksandra
20.09.2017
17:06:13

Fike
20.09.2017
17:08:27
угу, этим занимается дженкинс

vladget
20.09.2017
17:36:16
User "system:anonymous" cannot get path "/ui/".
это из-за RBAC?

Mikhail
20.09.2017
20:02:36
вестимо )

Дмитрий
21.09.2017
06:33:47
Всем, привет! Вопрос совсем немного не в тему, но по теме. У меня есть образ в котором поднимается rabbimq, который в свою очередь запускает epmd демон. Так вот при порождении потомков демоном epmd, эти самые потомки превращаются в зомби. Сообщение это пишу сюда лишь потому, что в кубере все родительские процессы порождаются процессом /pause, в а чистом докере нет. Так вот если запускать этот образ из чистого докера, то никаких зомби нет, а в случае с кубером - они создаются. У кого есть rabbitmq в проекте. Может кто-то сталкивался с этим?

Maksim
21.09.2017
07:15:08
да

Alexey
21.09.2017
07:41:37
Точно!

Artemiy
21.09.2017
07:48:25
Gitlab CI может
а можно примерчик gitlab-ci.yml файлика? или пошлите меня куда-нибудь по ссылке, буду благодарен

Алексей
21.09.2017
07:48:51

Artemiy
21.09.2017
07:49:14
спасибо!

Google

Алексей
21.09.2017
07:50:54
Там правда в автодеплое шаблон зверский. Сразу фиг поймёшь. Ещё вариант https://habrahabr.ru/company/flant/blog/332712/
тут попроще всё

Mikhail
21.09.2017
07:59:11
http://www.dasblinkenlichten.com/kubernetes-101-networking/ интересно про сеть.

Сергей
21.09.2017
08:17:29
баян 15 года, но по факту еще актуален
ну не во всех кейсах конечно

Mikhail
21.09.2017
08:27:08
Обесценивание как оно есть :)

Kvendingoldo
21.09.2017
08:39:27
Народ, а в к-ве best practice рекомендуется все-таки создавать Deployments, а не чисто pod?

Maksim
21.09.2017
08:41:20
смотря чего ты хочешь добиться

Роман
21.09.2017
09:00:47

Kvendingoldo
21.09.2017
09:01:57
я просто попробовал и то, и то и не понял в чем фундаментальная разница
Разве что deployment в итоге создаст под

Maksim
21.09.2017
09:02:51
как раз в ауто хилинге ))

Kvendingoldo
21.09.2017
09:03:38
-))) facepalm

Maksim
21.09.2017
09:04:05
деплой это котроллер обновление пода)
там пишется история изи rollback делается и т.п.
плюс автоскелинг

Kvendingoldo
21.09.2017
09:55:06
спасибо за объяснение)

vladget
21.09.2017
11:08:15

Роман
21.09.2017
11:24:21
Ребята, дайте совет. Я хочу внутри кластера собирать метрики с nginx-vts ингресс-контроллера. Контроллер у меня - это поды с hostNetwork=true. То есть, они смотрят прямо в интернет. Я, конечно, могу создать контейнер с експортером, который будет читать прямо с внешнего адреса, но я хочу через внутренний сервис. Как это сделать? Пробовал создать сервис, но он мне возвращает дефолтную страницу nginx...

Paul
21.09.2017
11:24:58
это к аннтоациям