
Valentin
25.06.2018
08:21:43
в kubeadm-config , но у тебя не kubeadm :/ сорян

Andrey
25.06.2018
08:22:02
да не за что извиняться :)

Psy
25.06.2018
08:27:43
через kubectl нельзя никак

Google

kvaps
25.06.2018
09:30:04
ну как вариант у controller-manager подсмотреть
kubectl get pod -n kube-system -l component=kube-controller-manager -o yaml | grep 'cluster-cidr'
или в конфигмапе кубеадма:
kubectl get configmap -n kube-system kubeadm-config -o yaml | grep podSubnet

Psy
25.06.2018
09:35:30
оуч, оказывается и правда можно

Andrey
25.06.2018
10:08:11
нету у меня такого, это AKS

kvaps
25.06.2018
10:25:34
@gorilych а что за сетка там?

Andrey
25.06.2018
10:25:56
да даже не знаю, flannel поди

kvaps
25.06.2018
10:26:23
если flannel то в controller-manager точно должно быть


Andrey
25.06.2018
10:26:24
но я уже выяснил подсеть, достал чувака, у которого доступ в портал ажуровский есть
osscore01 ~ # kubectl get pod -n kube-system
NAME READY STATUS RESTARTS AGE
addon-http-application-routing-default-http-backend-66c97fqtsql 1/1 Running 0 4d
addon-http-application-routing-external-dns-79c595c9d9-tftw9 1/1 Running 0 4d
addon-http-application-routing-nginx-ingress-controller-64vrz95 0/1 CrashLoopBackOff 1152 4d
azureproxy-79c5db744-vjtrn 1/1 Running 2 4d
heapster-55f855b47-lcpll 2/2 Running 0 4d
kube-dns-v20-7c556f89c5-2z6nf 3/3 Running 0 4d
kube-dns-v20-7c556f89c5-tz7q6 3/3 Running 0 4d
kube-proxy-2jqpk 1/1 Running 0 4d
kube-proxy-mbzqc 1/1 Running 0 4d
kube-proxy-rtdg7 1/1 Running 0 4d
kube-svc-redirect-h5thh 1/1 Running 1 4d
kube-svc-redirect-n5qmz 1/1 Running 1 4d
kube-svc-redirect-xshh7 1/1 Running 1 4d
kubernetes-dashboard-546f987686-vfs6m 1/1 Running 3 4d
omsagent-45qkw 1/1 Running 0 4d
omsagent-jtkns 1/1 Running 1 4d
omsagent-rs-748d558488-vzn7g 1/1 Running 0 4d
omsagent-wwsgz 1/1 Running 0 4d
tiller-deploy-7f8c9d75cf-2t6lx 1/1 Running 0 3d
tunnelfront-6fdc5dc89-5fgkm 1/1 Running 0 4d


kvaps
25.06.2018
10:29:44
видать в другой неймспейс запрятали

Alexander
25.06.2018
10:30:08
Ребята, сейчас мастер работает как нод, как это отключить?

Andrey
25.06.2018
10:30:11
возможно, там напрямую сеть ажуровская, потому что оно всё напрямую доступно

kvaps
25.06.2018
10:30:34
kubectl get pod --all-namespaces | grep controller-manager

Google

kvaps
25.06.2018
10:34:01

Andrey
25.06.2018
10:34:19
пусто там, да

kvaps
25.06.2018
10:34:44
если этого параметра нет, значит рейндж на ноду и IP для каждого пода выделяется самой сеткой

Psy
25.06.2018
10:36:49

Andrey
25.06.2018
10:36:58
у ажуровского k8s есть две опции для сети. По умолчанию делается внутренняя сеть для кубера, которая не пересекается с VPC. А ещё есть Advanced Networking, для ублюдочных решений, которые хотят лазить в сеть кубера в обход стандартных способов с nodeIP и LoadBalancer. Вот у меня оно самое

Alexander
25.06.2018
10:37:10
чтобы всё норм было

kvaps
25.06.2018
10:38:14
kubectl taint nodes --all node-role.kubernetes.io/master-

Psy
25.06.2018
10:39:27

kvaps
25.06.2018
10:40:45
kubectl taint nodes <node_name> node-role.kubernetes.io/master="":NoSchedule

Ильгиз
25.06.2018
10:48:13

Valentin
25.06.2018
10:49:12
у меня были проблемы, не было времени разбираться в причинах - поставил coreDns
удаление подов приводило лишь к временному лечению

kvaps
25.06.2018
10:51:24
+1
проблема в livenessprobe

Ильгиз
25.06.2018
10:54:35

Valentin
25.06.2018
10:55:07
но это не так просто как может показаться на первый взгляд )

Sergey
25.06.2018
12:05:29
Коллеги, у кого какие отзывы по поводу Coreos-Clair и как в вашей практике происходит проверка контейнеров для окружений на уязвимости

Vitaliy
25.06.2018
12:10:24

Andrey
25.06.2018
12:51:04
наверняка кто нибудь юзал helm prometheus-operator - как там на графану exteranlIP навесить? добавлял в конфиг externalIPs: [ 1.2.3.4 ] - сервис не реагирует. тер сервис подымал заново тоже нифига. причем prometheus из той же пачки спокойно себе слушает

Google

Andrey
25.06.2018
12:52:23
когда пытался прикрутить внутренний балансер (дело происходит на амазоне) графана создала внешний - потер попробовал заново с той же конфигурацией создал внутренний хаос вобщем какой то

Pavel
25.06.2018
13:11:53
в каком именно конфиге задавали exteranlIP?
там их два

Andrey
25.06.2018
15:03:05

Pavel
25.06.2018
15:03:20
угу

Никита
25.06.2018
15:08:05
Всем привет. Кто-то настраивал доступ в кластер гугла через их встроенный VPN? Столкнулся с тем, что ClusterIP у сервисов недоступны из on-premise network. Они с подами в одной сети, поды пингутся и доступны, ноды кластера при этом тоже доступны. Доступ через nodePort есть, к ClusterIP - нет. В firewall все открыто. Куда можно покопать?
spec:
clusterIP: clusterIP
externalTrafficPolicy: Cluster
ports:
- nodePort: 32210
port: 5432
protocol: TCP
targetPort: 5432
selector:
app: app
sessionAffinity: None
type: NodePort
status:
loadBalancer: {}
curl nodeIP:33210 - ок
curl clusterIP:5432 - не ок

Andor
25.06.2018
15:17:26
Потому что они из разных подсетей?
У тебя роут в кластер-айпи подсеть вообще есть?

Никита
25.06.2018
15:18:44
Да, естественно
Сами поды в одной /14 с сервисными адресами, и сами поды доступны

Andor
25.06.2018
15:19:36
Показывай трейс тогда

Никита
25.06.2018
15:20:03
По трейсу уходит в облако, но из него ответ не возвращается
Точнее по счетчикам ipsec

Михаил
25.06.2018
15:22:39

Nikolay
25.06.2018
15:22:52
а вот в ingress-nginx-controller до сих пор не вижу в упор, как роутить в разные неймспейсы
контроллер сам раздеплоил, проблем нет, но дальше не очень понятно

Никита
25.06.2018
15:25:19
mtr не очень помогает, на самом деле:
К кластерному адресу
mtr -t 10.7.242.252
1. Шлюз в on-premise сети
2. ???
К поду
mtr -t 10.4.5.236
1. Шлюз в on-premise сети
2. 10.156.0.8 - IP адрес ноды
3. 10.4.5.236
Под и кластерный адрес в одной подсети 10.4.0.0/14

Andrey
25.06.2018
15:34:49

Google

Nikolay
25.06.2018
16:08:47

Andrey
25.06.2018
16:14:22

Алексей
25.06.2018
16:17:28
Какими костылями увеличить rlimit_nofile в ingress_nginx?

Svyatoslav
25.06.2018
16:25:17

Andrey
25.06.2018
16:33:18
Какими костылями увеличить rlimit_nofile в ingress_nginx?
Он сам запросит максимум. Исходя из системного вызова getrlimit(2). Он покажет значение /proc/sys/fs/file-max, потому что в Kubernetes и Docker по-умолчанию тюнинга ulimit для контейнеров в подах нет нет, да и через API тоже пока никак. Так что крутите file-max и полчите увеличение открытых файлов.
https://github.com/kubernetes/ingress-nginx/blob/c9a0c9029505b8d4258a720ebb76d696eae947c8/internal/ingress/controller/util.go#L63

Алексей
25.06.2018
16:33:31
Варианты:
1) выставить опцией дефолт для контэйнеров в докер демоне
2) перебить контэйнер ингреса для выставления ulimit
Еще варианты?
file-max на хостсистеме стоит 6500000
В контейнере тоже значение

Andrey
25.06.2018
16:35:17
Так в чём проблема?

Алексей
25.06.2018
16:35:33
Он забирает значение ulimit -n
65000
Его уже делит на количество процессов нгинкс минус 1024
Получается около 7000 на процесс
Мне нужно больше, раз в 8
Ингрес берет ulimit а должен fs max

Nikolay
25.06.2018
16:40:03

Алексей
25.06.2018
16:42:38
Докер ulimit кстати умеет
Только поддержка в кубере только планируется
По сырцам я уже прошелся
Поэтому и спрашиваю кто какимикостылями пользуется

Andrey
25.06.2018
16:43:02

Nikolay
25.06.2018
16:43:47
видимо, неправильно думал

Andrey
25.06.2018
16:46:47

Алексей
25.06.2018
16:47:00
Да

Google

Andrey
25.06.2018
16:47:12
Я, кажется, знаю, что это такое. Минуту.

Алексей
25.06.2018
16:47:16
Ну не ровно
Но смысл понятен
Это инт16

Andrey
25.06.2018
16:47:50

Алексей
25.06.2018
16:48:30
Нет
Не за компом
Но там бесконечность
Для докер демона

Andrey
25.06.2018
16:48:46
Ясно всё, я с этим уже сталкивался. Это баг в systemd.
https://github.com/systemd/systemd/issues/6559
Мой issue.
infinity в ранних версиях systemd равны 65535. :)
Я вручную поднял или можно дистрибутив на хостах обновить:
LimitNOFILE=1048576
Проблема у версий systemd <234.
https://github.com/systemd/systemd/issues/6559#issuecomment-320868301

Алексей
25.06.2018
16:54:32
Хм
О как
Они что в константах бесконечность в max int 16 определили?
Ай да Потеринг
Ай да молодец
Проверю
Спасибо

Andrey
25.06.2018
16:55:31

Алексей
25.06.2018
17:03:35
Это логика в ингессе по сырцам

Andrey
25.06.2018
17:04:34
А, хорошо. В них не заглядывал, думал, про Linux только речь.