@kubernetes_ru

Страница 484 из 958
Anton
21.03.2018
15:25:50
@asigatchov, есть вопросы - пиши в личку.

Yuriy
21.03.2018
15:46:42
Всем привет

Я все с той же проблемой воюю

Никак не могу победить сертификаты для etcd

Google
Yuriy
21.03.2018
15:47:22
Делал уже по оф гайду

https://kubernetes.io/docs/setup/independent/high-availability/

Никак не принимает



Уже все перепробовал



Конфиг

Pavel
21.03.2018
15:52:30
Тут это уже обсуждалось несколько раз, причём сегодня с утра очередная итерация была, кажется :)

Нужно коннектиться с клиентским сертификатом т.к. выставлена опция —client-cert-auth

Yuriy
21.03.2018
15:55:02
Тоесть выписать клиентский серф и etcdctl показать сертификат клиента. ???

Etcdctl member-list -- clientcert /path

Типо такого ?

Ещё вопрос получается тогда сертификату сервера в SaN надо указать Ip всех клиентов ???

Google
Pavel
21.03.2018
15:59:00
Etcdctl member-list -- clientcert /path
—cert-file и —key-file

https://coreos.com/etcd/docs/latest/op-guide/security.html - тут все хорошо расписано

Yuriy
21.03.2018
15:59:37
Ок спасибо щас гляну

И попробую



Спасибо

Работает

Получается клиентский серф надо подсовывать воркерам и прописать туда все Ip etcd мемберов в SAN правильно я понял ???

Yuriy
21.03.2018
16:10:53
Планирую мастера и воркеры держать на тех же хостах

Etcd отдельно , мастер и воркеры вместе

Pavel
21.03.2018
16:19:41
Эм, это не важно. Ходит только апи-сервер, ему нужно будет подсунуть клиентский сертификат. Прописывать ip в клиентский сертификат не надо.

Yuriy
21.03.2018
18:57:56
Никто не подскажет как проверить отрабатывает ли балансер для мастеров ???

Yuriy
21.03.2018
19:10:48
Без прерывания

Модно как то ?

Обращением к балансеру к примеру

Через curl

Andrey
21.03.2018
19:12:54
Если мастера ставят какую-то свою куку/заголовок, то можно просто подергать их в цикле и убедиться что разные приходят

Google
Andrey
21.03.2018
19:15:52
тогда будет печалька)

Ну че еще можно предложить. Логи на мастерах посмотреть. tcpdump'ы снять, прости господи)

Dmytro
21.03.2018
21:39:42
Без прерывания
так а в чем прерывание, там же leader election пара секунд, весь стейт в etcd

nslookup consul.sso.svc.cluster.local 10.96.0.10
там же должен быть неймспейс в fqdn

https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/#srv-records

по поводу volume для маленького количества данных - попробуйте прикрутить StorageOS https://kubernetes.io/docs/concepts/storage/volumes/#storageos https://docs.storageos.com/docs/install/schedulers/kubernetes я так понимаю это аналог NFS но все сделано через агент в контейнере

Nikita
21.03.2018
23:21:50
Какие есть подкубные камни у local-storage?

В контексте «кластера» из одного хоста

Dmytro
21.03.2018
23:35:21
Так навскидку могу вспомнить только проблемы с пермишеннами если контейнер бежит не от рута но это решается

Anton
22.03.2018
05:15:29
Какие есть подкубные камни у local-storage?
Недавно для 1.9 обновили local volume provisioner до 2.0 и feature gate появились связанные. В kubespray в мастере доступно.

Stanislav
22.03.2018
05:15:33
Посоны, чо гластер 4ый в проде катает уже кто-нибудь?

Vlad
22.03.2018
05:16:45
Кто-то вообще гластер в проде юзает?

Nick
22.03.2018
05:18:10
Кто-то вообще гластер юзает?

Stanislav
22.03.2018
05:21:39
Aleksey
22.03.2018
05:23:59
Посоны, чо гластер 4ый в проде катает уже кто-нибудь?
А профит у гластера есть по скорости - например БД засунуть или это от лукавого всё?

Stanislav
22.03.2018
05:25:42
у нас посоны до сих пор в проде на nfs, ceph даже на стэйдж не хотят. мол сложно поддерживать

а так я бы устроил холивор ceph vs gluster ;)

Google
Nick
22.03.2018
05:26:13
Распределенные fs не для того, чтобы в них пихать бд

Stanislav
22.03.2018
05:26:51
Vs hdfs забыл)
он уже есть, уже несколько лет полет нормальный ;) но для других целей

Nick
22.03.2018
05:27:41
Лучше тогда сразу в сторону apache ignite посмотреть)

Stanislav
22.03.2018
05:28:05
Nick
22.03.2018
05:28:23
Надеюсь)

Maksim
22.03.2018
05:28:46
Nick
22.03.2018
05:29:50
Игнайт и sds это чуток о дургом.
Эт я про распределённые базы предложил взять игната)

Andrey
22.03.2018
06:39:05
что-то flannel артачится. коннекты к, например, dnsmasq проходят через раз, а соответственно, и разрешение имен. в логах такая фигня github.com/coreos/flannel/subnet/kube/kube.go:284: Failed to list *v1.Node: Get https://10.233.0.1:443/api/v1/nodes?resourceVersion=0: dial tcp 10.233.0.1:443: getsockopt: connection refused куда копать?

Andrey
22.03.2018
07:57:52
да, в качестве бэкенда vxlan

вижу, что есть дропнутые пакеты

на второй ноде аж почти 3000

хотелось бы докопаться до причины, если честно

смотреть в правила iptables?

Alexander
22.03.2018
08:02:50
http://machinezone.github.io/research/networking-solutions-for-kubernetes/ есть версии, что на линуксе vxlan работает не очень хорошо под большими нагрузками

Andrey
22.03.2018
08:09:52
спасибо, не думаю, что у меня большие нагрузки, но попробую

однако https://github.com/coreos/flannel/issues/895

Google
Max
22.03.2018
09:52:21
всем прмвет! А кто-то прикручивал к k8s cephfs с dynamic provision или какой-то другой read-write-many storage c dynamic provision?

glusterfs не предлагать, хотя с ним все завелось с пол пинка

Maksim
22.03.2018
09:53:13
а чё так?

почему тебе гластер не нравится?

Max
22.03.2018
09:53:38
мне нрасится, а некоторым нет, сказали искать другое решение

Maksim
22.03.2018
09:53:48
а аргументы?-)

Max
22.03.2018
09:54:28
я так понял какая-то страрая боль, но внятных аргументов до меня не дошло, но вопрос не в этом

кто-то юзал cephfs/nfs?

Страница 484 из 958