
Mihail
02.07.2018
10:28:25
да

Andor
02.07.2018
10:28:50
я против ухода в личку для обсуждения кубернетисов :)

zigmund
02.07.2018
10:31:26

Артамонов Игорь
02.07.2018
10:31:56

Google

Alexey
02.07.2018
10:32:36
@zigmundkz а в чем плюсы? Кроме того, что это позволяет творить дичь, вместо подгонки проекта под стандарты.

zigmund
02.07.2018
10:32:56
Кластера в разных дц
Дц могут отъебнуть

Alexey
02.07.2018
10:34:30
почему не использовать haproxy -> ingress?

zigmund
02.07.2018
10:36:04
Ну ингресс же внутрикластерная сущность, или я ошибаюсь? Нам нужны балансировщики вне кластеров, чтобы между этими самыми кластерами трафик балансировать
То есть в нашем случае это было бы haproxy - ingress - service

Alexey
02.07.2018
10:36:47
ingress удобно роутит трафик внутри кластера. Просто снаружи выставить haproxy, чтобы править особенности руками, а базовые штуки отдать ingress

zigmund
02.07.2018
10:37:34
В нашем случае это лишняя сущность

Alexey
02.07.2018
10:37:37
чтобы новый сервис развернуть нужно идти к админу?

zigmund
02.07.2018
10:38:08
Нет

Google

Alexey
02.07.2018
10:39:23
С ingress нужно дописать ресурс, а у вас как? К примеру новый сервс хочу замапить на /private/test/service

zigmund
02.07.2018
10:39:40
Через лейблы и аннотации сервис автоматом паблишится на хапрокси
Питонокостыль выбирает соответствующие сервисы по лейблам и берет настройки из аннотаций.

Andor
02.07.2018
10:41:18
кажется этот костыль просто повторяет работу ингресса

Alexey
02.07.2018
10:41:28
тоже самое же делает ingress... 1 в 1. Только в виде ресурса ingress, а не демона сверху.

zigmund
02.07.2018
10:46:32
Да, по сути так и есть. По этому ингресс и не используем в данный момент.
Возможно в даньшейм логику переложим на ингресс, а на внешних балансировщиках костыль уберем. Сейчас устраивает такой вариант.

Andor
02.07.2018
10:47:02
ваще если сделать не "раз в минуту", а по событиям из апи, то будет очень даже ок

Alexey
02.07.2018
10:48:03
У ingress только один минус - он жутко простой для пользователя.
Можно забыться и так же просто наломать дров
https://habr.com/company/southbridge/blog/340238/
ingress интегрируется с cert manager выпускать сертификаты letsencrypt становится так же просто, как и сам ingress. Один из самых жирных плюсов для меня.
Для кучи вкуснях типа service worker нужен https.
для staging, test поддоменов и тп.

Alexander
02.07.2018
10:57:58
Посоны, например я ввел новый нод в кластер, как распрелить нагрузку в кластере?
Чтобы часть подов переехала на ноый нод?

Andor
02.07.2018
10:58:47
поды не перескедулятся сами без пинка

Alexey
02.07.2018
11:00:32
replicas можно поменять если сильно хочется увидеть

Alexander
02.07.2018
11:05:22
Ещё проблемка
нода запустилась, после сбоя в электричестве
но она Ready,SchedulingDisabled

ptchol
02.07.2018
11:05:58

Andrey
02.07.2018
11:10:04
ну или kubectl uncordon, если c кондишенами все норм

Google

Alexey
02.07.2018
11:11:22

ptchol
02.07.2018
11:13:08
Я имел ввиду что после того как вы апнули ноду, наверняка там какой то коммон манифест бежит по ней, репы какие нить создаёт или доступы раскатывает. Я думал там же все эти сисцтлы зафиксированны

Stanislav
02.07.2018
12:14:54
Народ, кто подскажет, если rbd поддерживает ReadWriteOnce и ReadOnlyMany, это значит я могу писать с одного контейнера и читать с многих или выбирать нужно только одно?! По логике понятно что первое, но на всякий случай уточняю.

Andrey
02.07.2018
12:21:17

Stanislav
02.07.2018
12:21:30

Anton
02.07.2018
12:56:41
почему может не резолвиться имя сервиса по service_name.namespace.svc.cluster.local, в то время как резолвится по service_name.namespace.svc.имя_кластера_которое_указал_при_установке_в_kubespray?

Anton
02.07.2018
12:57:43
ответ вроде в вопросе, ты же зону задал. посмотри где используется этот параметр в ролях

Anton
02.07.2018
12:58:40
ну я считал, что cluster.local вообще всегда должно резолвиться, внезависимости от того как у меня кластер называется
если у меня один сервис резолвит другой, он что, всегда должен знать имя кластера, нет же

Dmitry
02.07.2018
13:03:20

Anton
02.07.2018
13:05:24

Igor
02.07.2018
13:06:39

ptchol
02.07.2018
14:49:17
а кто то kubespray'ем катал node_labels ? делаю вроде бы
all:
hosts:
knode1:
node_labels:
cpuint: true
а не работает

Anton
02.07.2018
15:32:45
но непонятно, как мне иметь и имя кластера вменяемое, и cluster.local, чтобы резолвился. Или я не должен этого хотеть?

ptchol
02.07.2018
15:41:15
укажите в конфиге спрея другое имя или вам жестко нужно cluster.local ?

Anton
02.07.2018
15:45:40
ко мне пришел разработчик, показывает документацию вот эту https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/ и говорит, почему у меня в поде не резолвится "my-svc.my-namespace.svc.cluster.local" как там написано

Дмитрий
02.07.2018
15:47:12
А он не жаловался что IP не сходятся?

Google

Anton
02.07.2018
15:48:17
он еще добавил, что "а вот в том кластере у нас работает, поэтому мы это зашили в чарт"
лично мне не совсем ясна ситуация с подстрокой "cluster.local". Это просто пример, или это руководство к действию?

Дмитрий
02.07.2018
15:49:58
У меня это домен моей компании

Anton
02.07.2018
15:50:28
ну то есть если у меня 50 кластеров и у всех разное имя, у меня должно быть 50 конфигураций приложения?

Stanislav
02.07.2018
15:50:34
Это разве не внутренний домен?

ptchol
02.07.2018
15:51:45
поидее ты можешь указать его как домен компании, а у себя в основном DNS сказать что всё что svc.cluster.local форвардить на kube-dns. не ?

Admin
ERROR: S client not available

ptchol
02.07.2018
15:52:00
и дальше уже из одного dns доступаться. и обеспечивать роутинг и т д

Anton
02.07.2018
15:52:28
где указать, где у себя и что такое основной DNS

Igor
02.07.2018
15:54:51
если правильно понял https://kubernetes.io/blog/2017/04/configuring-private-dns-zones-upstream-nameservers-kubernetes/

Дмитрий
02.07.2018
15:54:54
Эм, это внутренние dns для контейнеров, смысл зашивать FQDN, когда обращаться можно в сервис по названию сервиса или по комбинации названия сервиса и namespace?

ptchol
02.07.2018
15:55:37

Fike
02.07.2018
15:55:48

Дмитрий
02.07.2018
15:56:24
Ну так себе решение игнорировать best practices

Igor
02.07.2018
16:03:02

Anton
02.07.2018
16:15:48
я таки не совсем уловил этот ответ и эту статью относительно моего вопроса. Мне не нужно резолвить существующую доменную зону. Мне нужно резолвить cluster.local. Как в документации: my-svc.my-namespace.svc.cluster.local

Владимир Калинин
02.07.2018
16:17:57
Кто нибудь пользовался longhorn от rancher?
есть отзывы?)

Dmitry
02.07.2018
16:20:34
а если нет?
А если в разных неймспейсах, то тогда, насколько мне известно, обязательно надо указывать полное имя

Google

Dmitry
02.07.2018
16:25:16

Anton
02.07.2018
16:26:04
ага "default is cluster.local"
видимо имеется ввиду "default is cluster.local because default cluster name is cluster.local" :)
выходит, если поменял cluster_name, но хочешь оставить domain_name=cluster.local, то укажи это явно

Dmitry
02.07.2018
16:28:25
Ага, судя по документации

Anton
02.07.2018
16:28:49
ну как раз таки из документации это никак не вытекает
нигде же не написано, что если поменять cluster_name, то это повлечет и смену domain_name

Dmitry
02.07.2018
16:31:37
Согласен, документация не до конца ясна, пока не начнешь попой чуять такие места. :)

Anton
02.07.2018
17:25:51

bebebe
02.07.2018
17:40:10
https://blog.alexellis.io/introducing-the-openfaas-operator/amp/?__twitter_impression=true

Huan
02.07.2018
18:23:32
привет всем. кто-то обновлял куб на 1.11?

noname
02.07.2018
18:28:25
Всем привет. пыта.сь создать кластер кубернетес и получаю оишбку на ноде, с которой хочу добавиться:
[discovery] Trying to connect to API Server "192.168.0.9:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://192.168.0.9:6443"
[discovery] Failed to request cluster info, will try again: [configmaps "cluster-info" is forbidden: User "system:anonymous" cannot get configmaps in the namespace "kube-public"]
мастер нода доступна со слэйва, iptables выключен. вот такие поды запущены на мастере. в чем проблема может быть?
root@us1:~# kubectl get po -n kube-system
NAME READY STATUS RESTARTS AGE
etcd-us1 1/1 Running 2 1d
kube-apiserver-us1 1/1 Running 5 1d
kube-controller-manager-us1 1/1 Running 2 1d
kube-flannel-ds-g5wtg 1/1 Running 21 1d
kube-scheduler-us1 1/1 Running 2 1d
куб ставлю версии 1.11

bebebe
02.07.2018
18:56:53
https://github.com/kubeflow/pytorch-operator
С пополнением

Banschikov
02.07.2018
19:15:14

bebebe
02.07.2018
19:16:51

Banschikov
02.07.2018
19:45:26

Ivan
03.07.2018
08:35:51
Всем привет!
А кто нибудь настраивал для куба в liveness probe два или более портов для отслеживания?
В доке непонятно. Такое ощущение, что больше одного нельзя
https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-probes/

Anton
03.07.2018
08:36:49
свой костылек можешь подсадить, который будет в оба порта тыкать