@kubernetes_ru

Страница 641 из 958
Valentin
25.06.2018
08:21:43
в kubeadm-config , но у тебя не kubeadm :/ сорян

Andrey
25.06.2018
08:22:02
да не за что извиняться :)

Psy
25.06.2018
08:27:43
kubectl config view ?
kubeadm config view

через kubectl нельзя никак

Google
kvaps
25.06.2018
09:30:04
ну как вариант у controller-manager подсмотреть kubectl get pod -n kube-system -l component=kube-controller-manager -o yaml | grep 'cluster-cidr'

или в конфигмапе кубеадма: kubectl get configmap -n kube-system kubeadm-config -o yaml | grep podSubnet

Psy
25.06.2018
09:35:30
оуч, оказывается и правда можно

Andrey
25.06.2018
10:08:11
нету у меня такого, это AKS

kvaps
25.06.2018
10:25:34
@gorilych а что за сетка там?

Andrey
25.06.2018
10:25:56
да даже не знаю, flannel поди

kvaps
25.06.2018
10:26:23
если flannel то в controller-manager точно должно быть

Andrey
25.06.2018
10:26:24
но я уже выяснил подсеть, достал чувака, у которого доступ в портал ажуровский есть

osscore01 ~ # kubectl get pod -n kube-system NAME READY STATUS RESTARTS AGE addon-http-application-routing-default-http-backend-66c97fqtsql 1/1 Running 0 4d addon-http-application-routing-external-dns-79c595c9d9-tftw9 1/1 Running 0 4d addon-http-application-routing-nginx-ingress-controller-64vrz95 0/1 CrashLoopBackOff 1152 4d azureproxy-79c5db744-vjtrn 1/1 Running 2 4d heapster-55f855b47-lcpll 2/2 Running 0 4d kube-dns-v20-7c556f89c5-2z6nf 3/3 Running 0 4d kube-dns-v20-7c556f89c5-tz7q6 3/3 Running 0 4d kube-proxy-2jqpk 1/1 Running 0 4d kube-proxy-mbzqc 1/1 Running 0 4d kube-proxy-rtdg7 1/1 Running 0 4d kube-svc-redirect-h5thh 1/1 Running 1 4d kube-svc-redirect-n5qmz 1/1 Running 1 4d kube-svc-redirect-xshh7 1/1 Running 1 4d kubernetes-dashboard-546f987686-vfs6m 1/1 Running 3 4d omsagent-45qkw 1/1 Running 0 4d omsagent-jtkns 1/1 Running 1 4d omsagent-rs-748d558488-vzn7g 1/1 Running 0 4d omsagent-wwsgz 1/1 Running 0 4d tiller-deploy-7f8c9d75cf-2t6lx 1/1 Running 0 3d tunnelfront-6fdc5dc89-5fgkm 1/1 Running 0 4d

kvaps
25.06.2018
10:29:44
видать в другой неймспейс запрятали

Alexander
25.06.2018
10:30:08
Ребята, сейчас мастер работает как нод, как это отключить?

Andrey
25.06.2018
10:30:11
возможно, там напрямую сеть ажуровская, потому что оно всё напрямую доступно

kvaps
25.06.2018
10:30:34
kubectl get pod --all-namespaces | grep controller-manager

Google
kvaps
25.06.2018
10:34:01
возможно, там напрямую сеть ажуровская, потому что оно всё напрямую доступно
это возможно, короче, если посмотреть на ноду kubectl get node <some_node> -o yaml | grep podCIDRи podCIDR не будет пустым, значит этот рейндж выдает controller-manager как раз из cluster-cidr указанный при установке

Andrey
25.06.2018
10:34:19
пусто там, да

kvaps
25.06.2018
10:34:44
если этого параметра нет, значит рейндж на ноду и IP для каждого пода выделяется самой сеткой

Andrey
25.06.2018
10:36:58
у ажуровского k8s есть две опции для сети. По умолчанию делается внутренняя сеть для кубера, которая не пересекается с VPC. А ещё есть Advanced Networking, для ублюдочных решений, которые хотят лазить в сеть кубера в обход стандартных способов с nodeIP и LoadBalancer. Вот у меня оно самое

Alexander
25.06.2018
10:37:10
через kubectl taint nodes как-то
Эт я понял, но как

чтобы всё норм было

kvaps
25.06.2018
10:38:14
kubectl taint nodes --all node-role.kubernetes.io/master-

Psy
25.06.2018
10:39:27
kubectl taint nodes --all node-role.kubernetes.io/master-
нет, ему наоборот надо

kvaps
25.06.2018
10:40:45
kubectl taint nodes <node_name> node-role.kubernetes.io/master="":NoSchedule

Ильгиз
25.06.2018
10:48:13


Valentin
25.06.2018
10:49:12
у меня были проблемы, не было времени разбираться в причинах - поставил coreDns

удаление подов приводило лишь к временному лечению

kvaps
25.06.2018
10:51:24
+1

проблема в livenessprobe

Valentin
25.06.2018
10:55:07
но это не так просто как может показаться на первый взгляд )

Sergey
25.06.2018
12:05:29
Коллеги, у кого какие отзывы по поводу Coreos-Clair и как в вашей практике происходит проверка контейнеров для окружений на уязвимости

Vitaliy
25.06.2018
12:10:24
Коллеги, у кого какие отзывы по поводу Coreos-Clair и как в вашей практике происходит проверка контейнеров для окружений на уязвимости
Он работает. Вот только что делать с его результатами я так и не понял:) Например в актуальном базовом образе дебиан всегда будут уязвимости на которые еще нет готовых патчей и обновлять нечего. Можно проверять образ в ci через klar В vmware/harbor есть радикальная настройка: он не разрешает docker pull образов с уязвимостями

Andrey
25.06.2018
12:51:04
наверняка кто нибудь юзал helm prometheus-operator - как там на графану exteranlIP навесить? добавлял в конфиг externalIPs: [ 1.2.3.4 ] - сервис не реагирует. тер сервис подымал заново тоже нифига. причем prometheus из той же пачки спокойно себе слушает

Google
Andrey
25.06.2018
12:52:23
когда пытался прикрутить внутренний балансер (дело происходит на амазоне) графана создала внешний - потер попробовал заново с той же конфигурацией создал внутренний хаос вобщем какой то

Pavel
25.06.2018
13:11:53
в каком именно конфиге задавали exteranlIP?

там их два

Andrey
25.06.2018
15:03:05
в каком именно конфиге задавали exteranlIP?
разобрался - там в темплейте почему то не был добавлен блок для externalIPs из values.yaml

Pavel
25.06.2018
15:03:20
угу

Никита
25.06.2018
15:08:05
Всем привет. Кто-то настраивал доступ в кластер гугла через их встроенный VPN? Столкнулся с тем, что ClusterIP у сервисов недоступны из on-premise network. Они с подами в одной сети, поды пингутся и доступны, ноды кластера при этом тоже доступны. Доступ через nodePort есть, к ClusterIP - нет. В firewall все открыто. Куда можно покопать?

spec: clusterIP: clusterIP externalTrafficPolicy: Cluster ports: - nodePort: 32210 port: 5432 protocol: TCP targetPort: 5432 selector: app: app sessionAffinity: None type: NodePort status: loadBalancer: {} curl nodeIP:33210 - ок curl clusterIP:5432 - не ок

Andor
25.06.2018
15:17:26
Потому что они из разных подсетей?

У тебя роут в кластер-айпи подсеть вообще есть?

Никита
25.06.2018
15:18:44
Да, естественно

Сами поды в одной /14 с сервисными адресами, и сами поды доступны

Andor
25.06.2018
15:19:36
Показывай трейс тогда

Никита
25.06.2018
15:20:03
По трейсу уходит в облако, но из него ответ не возвращается

Точнее по счетчикам ipsec

Nikolay
25.06.2018
15:22:52
@Enchantner Я тут интересную штуку нашёл. Похоже, что может помочь вашему кейсу. https://kubernetes.io/blog/2018/06/07/dynamic-ingress-in-kubernetes/ getambassador.io
амбассадор пока не настроил, его на миникубе сложно тестить - каждый из подов требует аж цельный 1 CPU

а вот в ingress-nginx-controller до сих пор не вижу в упор, как роутить в разные неймспейсы

контроллер сам раздеплоил, проблем нет, но дальше не очень понятно

Никита
25.06.2018
15:25:19
mtr не очень помогает, на самом деле: К кластерному адресу mtr -t 10.7.242.252 1. Шлюз в on-premise сети 2. ??? К поду mtr -t 10.4.5.236 1. Шлюз в on-premise сети 2. 10.156.0.8 - IP адрес ноды 3. 10.4.5.236 Под и кластерный адрес в одной подсети 10.4.0.0/14

Andrey
25.06.2018
15:34:49
контроллер сам раздеплоил, проблем нет, но дальше не очень понятно
Вот пример простой автоматической создавалки ингрессов, в зависимости от аннотации в Service объекте. Можете подхакать её в соответствии со своими нуждами. https://github.com/hxquangnhat/kubernetes-auto-ingress

Google
Andrey
25.06.2018
16:14:22
а если будет в двух ингрессах одинаковый урл?
Ну, path (компонент URL) же разный будет, да?

Алексей
25.06.2018
16:17:28
Какими костылями увеличить rlimit_nofile в ingress_nginx?

Svyatoslav
25.06.2018
16:25:17
Andrey
25.06.2018
16:33:18
Какими костылями увеличить rlimit_nofile в ingress_nginx?
Он сам запросит максимум. Исходя из системного вызова getrlimit(2). Он покажет значение /proc/sys/fs/file-max, потому что в Kubernetes и Docker по-умолчанию тюнинга ulimit для контейнеров в подах нет нет, да и через API тоже пока никак. Так что крутите file-max и полчите увеличение открытых файлов. https://github.com/kubernetes/ingress-nginx/blob/c9a0c9029505b8d4258a720ebb76d696eae947c8/internal/ingress/controller/util.go#L63

Алексей
25.06.2018
16:33:31
Варианты: 1) выставить опцией дефолт для контэйнеров в докер демоне 2) перебить контэйнер ингреса для выставления ulimit Еще варианты?

file-max на хостсистеме стоит 6500000

В контейнере тоже значение

Andrey
25.06.2018
16:35:17
Так в чём проблема?

Алексей
25.06.2018
16:35:33
Он забирает значение ulimit -n 65000

Его уже делит на количество процессов нгинкс минус 1024

Получается около 7000 на процесс Мне нужно больше, раз в 8

Ингрес берет ulimit а должен fs max

Nikolay
25.06.2018
16:40:03
Ну, path (компонент URL) же разный будет, да?
не факт. Но попробую так сделать, да

Алексей
25.06.2018
16:42:38
Докер ulimit кстати умеет Только поддержка в кубере только планируется По сырцам я уже прошелся Поэтому и спрашиваю кто какимикостылями пользуется

Andrey
25.06.2018
16:43:02
не факт. Но попробую так сделать, да
Если и он одинаковый, то я не понимаю, как вы собрались через один одинаковый URL ходить в разные сервисы. Идинтификации же не будет никакой.

Nikolay
25.06.2018
16:43:47
видимо, неправильно думал

Andrey
25.06.2018
16:46:47
Он забирает значение ulimit -n 65000
Это ulimit в контейнере выдаёт? Без каких-то дополнительных настроек?

Алексей
25.06.2018
16:47:00
Да

Google
Andrey
25.06.2018
16:47:12
Я, кажется, знаю, что это такое. Минуту.

Алексей
25.06.2018
16:47:16
Ну не ровно Но смысл понятен

Это инт16

Andrey
25.06.2018
16:47:50
Ну не ровно Но смысл понятен
Можете скинуть вывод sudo systemctl cat docker.service с хоста?

Алексей
25.06.2018
16:48:30
Нет Не за компом Но там бесконечность

Для докер демона

Andrey
25.06.2018
16:48:46
Ясно всё, я с этим уже сталкивался. Это баг в systemd.

https://github.com/systemd/systemd/issues/6559

Мой issue.

infinity в ранних версиях systemd равны 65535. :)

Я вручную поднял или можно дистрибутив на хостах обновить: LimitNOFILE=1048576

Проблема у версий systemd <234. https://github.com/systemd/systemd/issues/6559#issuecomment-320868301

Алексей
25.06.2018
16:54:32
Хм О как Они что в константах бесконечность в max int 16 определили? Ай да Потеринг Ай да молодец Проверю Спасибо

Andrey
25.06.2018
16:55:31
Хм О как Они что в константах бесконечность в max int 16 определили? Ай да Потеринг Ай да молодец Проверю Спасибо
Гляньте diff. Он статически был определён, да. https://github.com/systemd/systemd/commit/6385cb31ef443be3e0d6da5ea62a267a49174688#diff-108b33cf1bd0765d116dd401376ca356L1186

Его уже делит на количество процессов нгинкс минус 1024
Вот это неправильно, ulimit -n по процессам работает, никакого деления нет. Можно нафоркать тонну процессов и легко превысить этот лимит.

Алексей
25.06.2018
17:03:35
Это логика в ингессе по сырцам

Andrey
25.06.2018
17:04:34
А, хорошо. В них не заглядывал, думал, про Linux только речь.

Страница 641 из 958