
Anton
21.03.2018
15:25:50
@asigatchov, есть вопросы - пиши в личку.

Yuriy
21.03.2018
15:46:42
Всем привет
Я все с той же проблемой воюю
Никак не могу победить сертификаты для etcd

Google

Yuriy
21.03.2018
15:47:22
Делал уже по оф гайду
https://kubernetes.io/docs/setup/independent/high-availability/
Никак не принимает
Уже все перепробовал
Конфиг

Pavel
21.03.2018
15:52:30
Тут это уже обсуждалось несколько раз, причём сегодня с утра очередная итерация была, кажется :)
Нужно коннектиться с клиентским сертификатом т.к. выставлена опция —client-cert-auth

Yuriy
21.03.2018
15:55:02
Тоесть выписать клиентский серф и etcdctl показать сертификат клиента. ???
Etcdctl member-list -- clientcert /path
Типо такого ?
Ещё вопрос получается тогда сертификату сервера в SaN надо указать Ip всех клиентов ???

Google

Pavel
21.03.2018
15:59:00
https://coreos.com/etcd/docs/latest/op-guide/security.html - тут все хорошо расписано

Yuriy
21.03.2018
15:59:37
Ок спасибо щас гляну
И попробую
Спасибо
Работает
Получается клиентский серф надо подсовывать воркерам и прописать туда все Ip etcd мемберов в SAN правильно я понял ???

Pavel
21.03.2018
16:10:04

Yuriy
21.03.2018
16:10:53
Планирую мастера и воркеры держать на тех же хостах
Etcd отдельно , мастер и воркеры вместе

Pavel
21.03.2018
16:19:41
Эм, это не важно. Ходит только апи-сервер, ему нужно будет подсунуть клиентский сертификат. Прописывать ip в клиентский сертификат не надо.

Yuriy
21.03.2018
18:57:56
Никто не подскажет как проверить отрабатывает ли балансер для мастеров ???

Vladislav
21.03.2018
19:04:33

Yuriy
21.03.2018
19:10:48
Без прерывания
Модно как то ?
Обращением к балансеру к примеру
Через curl

Andrey
21.03.2018
19:12:54
Если мастера ставят какую-то свою куку/заголовок, то можно просто подергать их в цикле и убедиться что разные приходят

66271
21.03.2018
19:15:42

Google

Andrey
21.03.2018
19:15:52
тогда будет печалька)
Ну че еще можно предложить. Логи на мастерах посмотреть.
tcpdump'ы снять, прости господи)

Vladislav
21.03.2018
19:17:02

Dmytro
21.03.2018
21:39:42
Без прерывания
так а в чем прерывание, там же leader election пара секунд, весь стейт в etcd
https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/#srv-records
по поводу volume для маленького количества данных - попробуйте прикрутить StorageOS
https://kubernetes.io/docs/concepts/storage/volumes/#storageos
https://docs.storageos.com/docs/install/schedulers/kubernetes
я так понимаю это аналог NFS но все сделано через агент в контейнере

Nikita
21.03.2018
23:21:50
Какие есть подкубные камни у local-storage?
В контексте «кластера» из одного хоста

Dmytro
21.03.2018
23:35:21
Так навскидку могу вспомнить только проблемы с пермишеннами если контейнер бежит не от рута но это решается

Maksim
22.03.2018
04:33:49

Anton
22.03.2018
05:15:29

Stanislav
22.03.2018
05:15:33
Посоны, чо гластер 4ый в проде катает уже кто-нибудь?

Vlad
22.03.2018
05:16:45
Кто-то вообще гластер в проде юзает?

Nick
22.03.2018
05:18:10
Кто-то вообще гластер юзает?

Stanislav
22.03.2018
05:21:39

Aleksey
22.03.2018
05:23:59

Stanislav
22.03.2018
05:25:42
у нас посоны до сих пор в проде на nfs, ceph даже на стэйдж не хотят.
мол сложно поддерживать
а так я бы устроил холивор ceph vs gluster ;)

Google

Nick
22.03.2018
05:26:13
Распределенные fs не для того, чтобы в них пихать бд

Stanislav
22.03.2018
05:26:23

Nick
22.03.2018
05:26:41

Stanislav
22.03.2018
05:26:51
Vs hdfs забыл)
он уже есть, уже несколько лет полет нормальный ;)
но для других целей

Nick
22.03.2018
05:27:41
Лучше тогда сразу в сторону apache ignite посмотреть)

Stanislav
22.03.2018
05:28:05

Nick
22.03.2018
05:28:23
Надеюсь)

Maksim
22.03.2018
05:28:46

Nick
22.03.2018
05:29:50

Andrey
22.03.2018
06:39:05
что-то flannel артачится. коннекты к, например, dnsmasq проходят через раз, а соответственно, и разрешение имен. в логах такая фигня
github.com/coreos/flannel/subnet/kube/kube.go:284: Failed to list *v1.Node: Get https://10.233.0.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.233.0.1:443: getsockopt: connection refused
куда копать?

Alexander
22.03.2018
07:56:51

Andrey
22.03.2018
07:57:52
да, в качестве бэкенда vxlan
вижу, что есть дропнутые пакеты
на второй ноде аж почти 3000
хотелось бы докопаться до причины, если честно
смотреть в правила iptables?

Alexander
22.03.2018
08:02:50
http://machinezone.github.io/research/networking-solutions-for-kubernetes/ есть версии, что на линуксе vxlan работает не очень хорошо под большими нагрузками

Andrey
22.03.2018
08:09:52
спасибо, не думаю, что у меня большие нагрузки, но попробую
однако https://github.com/coreos/flannel/issues/895

Google

Max
22.03.2018
09:52:21
всем прмвет! А кто-то прикручивал к k8s cephfs с dynamic provision или какой-то другой read-write-many storage c dynamic provision?
glusterfs не предлагать, хотя с ним все завелось с пол пинка

Maksim
22.03.2018
09:53:13
а чё так?
почему тебе гластер не нравится?

Max
22.03.2018
09:53:38
мне нрасится, а некоторым нет, сказали искать другое решение

Maksim
22.03.2018
09:53:48
а аргументы?-)

Max
22.03.2018
09:54:28
я так понял какая-то страрая боль, но внятных аргументов до меня не дошло, но вопрос не в этом
кто-то юзал cephfs/nfs?