
bebebe
05.07.2018
12:46:00
а у ребят получилось

V
05.07.2018
12:56:47
подскажите как в prometheus писать query? что-то недоходит
есть node_exporter, хочу брать node_disk_io_now а оттуда instance:"10.3.3.21:9100"

Psy
05.07.2018
13:01:56

Google

V
05.07.2018
13:39:14
графики "клонированы" настройки графиков идентичны, скорее всего на ноде надо смотреть, но незнаю что и где

Andor
05.07.2018
14:03:17
а что с ним не так?

Andrey
05.07.2018
14:07:59
Покажи PromQL для какого-нибудь графика.


Vitaliy
05.07.2018
14:27:21
уважаемые. есть спецы в ipvs?
проблема:
трахаюсь с k8s и в новой версии они внедрили ipvs, но оно не работает и я не понимаю что не так.
1) после ребута ноды (kebelet не включен) я делаю руками: ipvsadm -A bla bla, ipvsadm -a ..... с "Masq" и тд и с моей точки зрения все работает. vip есть, ipvsadm -ln показывает ожидаемую конфигурацию, всякие телнеты и тп прокидывают на нужный адрес:порт
2) включаю kubelet, через него kube-proxy начинает настраивать сеть... ipvsadm -ln опять показывает ожидаемую конфигурацию, а в плане того что я сам руками делал - вообще 1 в 1 матч. но с этого момента vip уже не работает. и до ребута я не могу его завести.
это не связано с iptables/ebtables, все очищал. везде accept policy
Куда копать, что проверить?
вот дамп ipvsadm -Sn
-A -t 10.96.0.1:443 -s rr
-a -t 10.96.0.1:443 -r 192.168.6.161:6443 -m -w 1
-a -t 10.96.0.1:443 -r 192.168.6.162:6443 -m -w 1
-a -t 10.96.0.1:443 -r 192.168.6.163:6443 -m -w 1
в случаях когда работает и когда не работает оно совпадает.


V
05.07.2018
14:39:11
уважаемые. есть спецы в ipvs?
проблема:
трахаюсь с k8s и в новой версии они внедрили ipvs, но оно не работает и я не понимаю что не так.
1) после ребута ноды (kebelet не включен) я делаю руками: ipvsadm -A bla bla, ipvsadm -a ..... с "Masq" и тд и с моей точки зрения все работает. vip есть, ipvsadm -ln показывает ожидаемую конфигурацию, всякие телнеты и тп прокидывают на нужный адрес:порт
2) включаю kubelet, через него kube-proxy начинает настраивать сеть... ipvsadm -ln опять показывает ожидаемую конфигурацию, а в плане того что я сам руками делал - вообще 1 в 1 матч. но с этого момента vip уже не работает. и до ребута я не могу его завести.
это не связано с iptables/ebtables, все очищал. везде accept policy
Куда копать, что проверить?
очень интересно, а как вообще управлять iptables на ноде? кубернетес же своих правил имеет много, как оно все коррелирует?

Vitaliy
05.07.2018
14:39:46
вообще не понял вопроса

V
05.07.2018
14:41:31
уважаемые. есть спецы в ipvs?
проблема:
трахаюсь с k8s и в новой версии они внедрили ipvs, но оно не работает и я не понимаю что не так.
1) после ребута ноды (kebelet не включен) я делаю руками: ipvsadm -A bla bla, ipvsadm -a ..... с "Masq" и тд и с моей точки зрения все работает. vip есть, ipvsadm -ln показывает ожидаемую конфигурацию, всякие телнеты и тп прокидывают на нужный адрес:порт
2) включаю kubelet, через него kube-proxy начинает настраивать сеть... ipvsadm -ln опять показывает ожидаемую конфигурацию, а в плане того что я сам руками делал - вообще 1 в 1 матч. но с этого момента vip уже не работает. и до ребута я не могу его завести.
это не связано с iptables/ebtables, все очищал. везде accept policy
Куда копать, что проверить?
я прочитал, что ipvs работает на уровне ядра, и поэтому оно работать должно быстрее, модули ядра установлены?


Vitaliy
05.07.2018
14:41:56
да, конечно модули ядра есть. иначе бы не работало ни в каком случае
с понятием сервиса в k8s я знаком

Google

Vitaliy
05.07.2018
14:42:34
я тестирую в тестовом кластере новый 1.11 не трогая прод и прочее

Pavel
05.07.2018
14:56:24

Vitaliy
05.07.2018
15:00:03
пусто
а должно? ipvs жеж
также пусто там где работает (3 мастера)

Fike
05.07.2018
15:01:58

Алексей
05.07.2018
15:03:02
Марсианские пакеты проверь
Гугли по англицки

Juriy
05.07.2018
15:03:34

Алексей
05.07.2018
15:03:48
Логирование через sysctl включается
sysctl задампь и диф сделай в работающем и не работающем вариантах
И проверь что вип не является реальным ip ноды

Vitaliy
05.07.2018
15:06:58
пробовал марсианов, не видел.
vip не реальный адрес, проверял
точнее.... 1сек

Алексей
05.07.2018
15:08:00
Сисктл сравни
Для разных версий ядра разные работающие комбинации
И в прок фибтрии посмотри
Какие ip куда прибиваются
Можно через ip route rule и тд но через прок фибтри быстрее картину увидиш

Vitaliy
05.07.2018
15:10:11
есть интерфейс kube-ipvs0 на всех нодах (где работает и нет) но он в DOWN STATE
ядра одинаковые, 1 в 1

Алексей
05.07.2018
15:10:51
Ну а руками поднять его?

Google

Vitaliy
05.07.2018
15:12:19
sysctl -a | grep kube-ipvs0 делал и сравнивал
я написал. до старта кублета я руками повторяю ipvsadm-ом и все работает
прок фибтрии <— что?

Алексей
05.07.2018
15:14:02
До старта весь сисктл сдампь и после старта
Потом сравни
Ip на интерфейсе пингуются?
Путь в файловой системе

Vitaliy
05.07.2018
15:15:47
я понял что что-то в /proc... прошу пояснить что именно.

Алексей
05.07.2018
15:22:32
Fibstree чет типа этого
Не с компа
Не могу точно посмотреть
Пинг локально с машинки до випа то есть?

Vitaliy
05.07.2018
15:25:50
до старта kube-proxy все есть и работает. пинг ping 10.96.0.1 не работает, telnet 10.96.0.1 443 работает... что логично
стартует прокси и все, накрылось

Алексей
05.07.2018
15:28:28
10.96.0.1 на kube-ipvs0?

Алексей
05.07.2018
15:30:06
Не совсем понимаю почему пинг до ip на локальном интерфейсе не доходит
Вернее чем это логично

Vitaliy
05.07.2018
15:30:42
но он в DOWN STATE
хотя вы правы
на тех где работает все доходит
смешно: до старта кублета, создаю vip руками 1 в 1 как должно быть и работает telnetб но не пинг. стартует кублет и пинг начинает работать.. ломая остальное

Алексей
05.07.2018
15:37:49
Сисктл смотри

Vitaliy
05.07.2018
15:39:42
уже глаз вытек

Алексей
05.07.2018
15:40:08
rp_filter
accept_local

Google

Алексей
05.07.2018
15:40:41
Для этого интерфейса и общий
Покажи

Vitaliy
05.07.2018
15:42:32
да вот все сразу
net.ipv4.conf.all.accept_local = 0
net.ipv4.conf.all.arp_filter = 0
net.ipv4.conf.all.rp_filter = 1
net.ipv4.conf.default.accept_local = 0
net.ipv4.conf.default.arp_filter = 0
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.docker0.accept_local = 0
net.ipv4.conf.docker0.arp_filter = 0
net.ipv4.conf.docker0.rp_filter = 1
net.ipv4.conf.dummy0.accept_local = 0
net.ipv4.conf.dummy0.arp_filter = 0
net.ipv4.conf.dummy0.rp_filter = 1
net.ipv4.conf.eth0.accept_local = 0
net.ipv4.conf.eth0.arp_filter = 0
net.ipv4.conf.eth0.rp_filter = 1
net.ipv4.conf.kube-ipvs0.accept_local = 0
net.ipv4.conf.kube-ipvs0.arp_filter = 0
net.ipv4.conf.kube-ipvs0.rp_filter = 1
net.ipv4.conf.lo.accept_local = 0
net.ipv4.conf.lo.arp_filter = 0
net.ipv4.conf.lo.rp_filter = 0

Алексей
05.07.2018
15:44:31
Поставь rp_filter=2
Для all и kube-ipvs0
accept_local=1
Для тогоже

Admin
ERROR: S client not available

Алексей
05.07.2018
15:44:55
Прям на тачке где кубелет пингуется и не работает
И отпиши по результату

Vitaliy
05.07.2018
15:45:27
сек
net.ipv4.conf.all.rp_filter = 2
net.ipv4.conf.all.accept_local = 1
net.ipv4.conf.kube-ipvs0.rp_filter = 2
net.ipv4.conf.kube-ipvs0.accept_local = 1
не работает

Алексей
05.07.2018
15:50:30
Больше вариантов гадания по телеграму у меня нет
Только если руками смотреть и тспдампом
Как заборешь напиши
Любопытно

Banschikov
06.07.2018
05:32:26
Всем привет! Не подскажите, можно как-то отследить хелчеки ? Или только не удачные попытки хелтчеков логируются в describe пода ?
RECLAIM POLICY как можно изменить у PV ? В спек дабовляю persistentVolumeReclaimPolicy: Retain но все без успешно

Andrey
06.07.2018
06:47:58

Artyom
06.07.2018
06:48:20
И сам параметр, кажется, не так называется
Я помню, что короче

Banschikov
06.07.2018
06:50:34

Google

Andrey
06.07.2018
06:51:19

Banschikov
06.07.2018
06:52:05

Andrey
06.07.2018
06:52:41
А тот, что ты раньше скинул, - это на PV.
Спеку всегда глядеть нужно: https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.10/#storageclass-v1-storage-k8s-io

Banschikov
06.07.2018
06:57:05

Artyom
06.07.2018
06:58:06
А
```
persistentVolumeReclaimPolicy: Retain
```
тогда откуда?

Banschikov
06.07.2018
06:59:01
Вообщем вот тут пытаюсь указать
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: solr-datadir
annotations:
volume.alpha.kubernetes.io/storage-class: anything
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 50Gi

Andrey
06.07.2018
07:01:01
Интересно, а можно ли без последствий врубить ipvs только на одной ноде

Andrey
06.07.2018
07:02:50
Указывать пытаешься в PVC. А надо в PV.
Которые не в неймспейсах даже. kubectl get pv

Banschikov
06.07.2018
07:09:42

Ivan
06.07.2018
07:51:58
Всем привет!
Есть вопрос к знатокам ))
На тему PersistentVolume (pv)
Как мне привязать конкретный PVC к конкретному PV ?
(либо как то иначе организовать процесс?)
У меня есть кластер ceph, в котором живёт CephFS. (она, как известно, может быть только одна).
Но в ней надо хнарить данные разных проектов, поэтому в ней созданы папки для этих проектов.
Далее в кубе я создаю несколько PV (в каждом монтирую нужную папку).
Далее мне надо как то ассоциировать PVC в конкретном проекте к нужному PV.
Единственную связку, которую я нашёл в мануале - это StorageClass.
Но для CephFS не существует StorageClass (в апи нет такого provisioner-а).

Evgenii
06.07.2018
07:53:58
есть внешний провиженер