
Sergey
23.01.2018
08:14:54
но кстати, говорят глюстер - весьма дурной тон )
Он у вас снаружи кластера или внутри?

66271
23.01.2018
08:15:37

Vitaliy
23.01.2018
08:16:45

Айбелив
23.01.2018
08:17:03

Google

Роман
23.01.2018
08:20:26

Sergey
23.01.2018
08:20:44

Роман
23.01.2018
08:21:06

66271
23.01.2018
08:21:57
вот-вот... я смотрю с дашбордами вообще печаль, в чарт stable/grafana вообще блин 7 дней назад только закомитили код что бы их цеплять автоматом

Sergey
23.01.2018
08:22:27

66271
23.01.2018
08:22:42
затем что там все автоматизируется на ура, зачем же делать это вручную ?

Роман
23.01.2018
08:22:45

Sergey
23.01.2018
08:24:35
но мне кажется дело здесь в кривости глюстера. Что-то серьезное на него нельзя. По крайней мере в k8s. У меня тоже ендпоинты на гластер отпадали.

Let Eat
23.01.2018
08:27:38

Paul
23.01.2018
08:28:39

Айбелив
23.01.2018
08:29:19
т.к. мне нужна была хапрокся, то я заюзал единственный доступный вариант:
https://github.com/jcmoraisjr/haproxy-ingress
Помогаю разрабу допиливать код по мере надобности

Paul
23.01.2018
08:32:00
посмотрю, спасибо. А то мне надо TCP-потоки чистые тоже принимать, спецпротокол. HTTP-то я через nginx протолкну, это несложно

Google

Айбелив
23.01.2018
08:32:35
поговаривают, что в nginx ingress controller есть модуль stream и он умеет в TCP
но это неточно

Paul
23.01.2018
08:34:45

Sergey
23.01.2018
08:35:32
чем tcp через nginx не устраивает, если не секрет?

Айбелив
23.01.2018
08:35:36
хозяин — барин

Paul
23.01.2018
08:37:18

Dmitry
23.01.2018
08:48:18
Все. Я наигрался. Кубер на двух дешманских нодах это не вариант.
Пойду swarm смотреть. Может веселее будет

Mikhail
23.01.2018
08:50:41
ай, дал ссылку на свой форк
вообщем там есть оригинал )
https://github.com/kuberstack/kuberstack-monitoring-events

Роман
23.01.2018
08:53:21

Alexey B
23.01.2018
09:14:10
КАк сделать чтобы сервис был доступен из под?
тут вариант только ingress?

Paul
23.01.2018
09:14:21

sherzod
23.01.2018
09:16:05
еще зависит от того что у вас за облако, чистый кубер или gcloud какой-нить грёбаный

Alexey B
23.01.2018
09:17:00
Не, внутри кластера

Айбелив
23.01.2018
09:17:04

Alexey B
23.01.2018
09:18:04
с calico можно) я сам удивился

Google

Paul
23.01.2018
09:19:25

Andrey
23.01.2018
09:19:28
helm template ./charts-myservice -f staging.yml | istioctl kube-inject -f - | kubectl apply -f -
кто-нибудь может предложить команду попроще? :)

Paul
23.01.2018
09:19:30
default-to-deny

Айбелив
23.01.2018
09:19:49

sherzod
23.01.2018
09:19:57

Vitaliy
23.01.2018
09:20:33
Если нет внешних сервисов

Andrey
23.01.2018
09:20:42
ну у меня не альфа

Vitaliy
23.01.2018
09:21:44

Andrey
23.01.2018
09:22:09
ммм, че-то упустил момент, почитаю спасибо :)

Vitaliy
23.01.2018
09:24:24
Если копсом разворачивал на awsе, то вот пример
kubeAPIServer:
admissionControl:
- NamespaceLifecycle
- LimitRanger
- ServiceAccount
- PersistentVolumeLabel
- DefaultStorageClass
- ResourceQuota
- DefaultTolerationSeconds
- Initializers
runtimeConfig:
admissionregistration.k8s.io/v1alpha1: "true"
Ну или эти же строчки можно руками добавить на апи
Initializers / —runtime-сonfig=admissionregistration.k8s.io/v1alpha1=true

Andrey
23.01.2018
09:26:56
gke :)

Alexey B
23.01.2018
09:28:43

Mikhail
23.01.2018
09:29:13
Господа, добрый день! Подскажите куда почитать кроме гугла - про особенности настройки k9 поверх vmware. Бывают некоторые проблемы с работой сетей приложения, хочу подиагностировать.

sherzod
23.01.2018
09:30:15
или вероятно такой сервис уже создан

Alexey B
23.01.2018
09:31:38
создан, но я делаю replace

sherzod
23.01.2018
09:31:52
лучше удалить и заново создать
а если создан, то зачем создавать? или там тип NodePort?

Google

Alexey B
23.01.2018
09:33:44
неа, там только
spec:
ports:
- name: "3000"
port: 3000
targetPort: 3000
targetPort можно убрать
nodeport не нужен для сервиса который не должен смотреть в мир
а вот на счет ingress не уверен

sherzod
23.01.2018
09:35:02
я про тип сервиса
kubectl get services
в поле TYPE что показывает для этого сервиса?

Alexey B
23.01.2018
09:35:43
ClusterIP
Создался, ему маска подсети не нравиласьу
сейчас с ingree LoadBalancer

sherzod
23.01.2018
09:36:45
Зачем ingress внутрикластерному сервису? просто обращайтесь на любую ноду по указанному порту и ClusterIP, он перенаправит сам.

Alexey B
23.01.2018
09:46:59

sherzod
23.01.2018
09:47:19
ок)

Alexey B
23.01.2018
10:32:14
Гайз, еще вопрос
почему может не резолвиться dns сервиса?
...exec -it config-5b4f9c9546-kz9t5 -- sh -c "curl -v 10.111.57.167:3000"
- так работает
...exec -it config-5b4f9c9546-kz9t5 -- sh -c "curl -v static:3000"
- не работает

Alik
23.01.2018
10:33:54
Привет!
У меня есть сервис в котором rest api по некоторому префиксу /prefix. Сейчас на него весь трафик бежит через один ингресс. Я хочу чтобы по префиксу /prefix/longer-prefix трафик на этот сервис шел через другой ингресс.
Есть ли в такой схеме какие-нибудь нюансы?

sherzod
23.01.2018
10:34:33
static это конечно так себе имя))

Alexey B
23.01.2018
10:36:40

djaarf
23.01.2018
10:37:53

Alexey B
23.01.2018
10:54:05
Из разных контейнеров DNS то есть, то нету:
а конфг сервисов из которых пытаюсь резолвить такой
с подой и сервисами dns все ок

Google

djaarf
23.01.2018
11:35:34
Из разных контейнеров DNS то есть, то нету:
у меня такое поведение было, когда я читал доку между строк и не загрузил модуль ядра br_netfilter, который в свою очередь выставляет net/bridge/bridge-nf-call-iptables в 1
т.е. убедитесь что br_netfilter загружен и net.bridge.bridge-nf-call-iptables = 1

Roman
23.01.2018
12:37:54
Всем привет. Подскажите пожалуйста с чего начать ознакомление с кубиком.

Mikhail
23.01.2018
12:41:20

Let Eat
23.01.2018
13:07:02
Хотите любой кластер с calico нафиг уронить? Создайте NetworkPolicy где порт прописан именем, а не числом ) желательно в пятницу вечером

Maksim
23.01.2018
13:11:24

Let Eat
23.01.2018
13:13:36
Все calico-node паникуют и становятся недееспособными

Andrey
23.01.2018
13:18:48
народ, я че-то туплю...
хочу чтобы деплойменты просходили один за другим (выкатили первый под, хелсчек сработал, выкатили второй под...)
насколько я понял из доки стратегия такая:
strategy:
type: RollingUpdate
rollingUpdate:
maxSurge: 1
maxUnavailable: 1
один под выкатывается за раз, только один под может быть недоступен (unready)
что концептуального я пропустил с моим знанием английского что они сразу все вываливаются? : )

Роман
23.01.2018
13:23:42
Подскажите, а etcd-кластер обязательно должен иметь нечётное количество нод? Если я подниму четвёртый экземпляр, мне на него руками данные переносить нужно или он сам притянет изменения?

Fike
23.01.2018
13:27:22
Должен все сделать сам
https://coreos.com/etcd/docs/latest/op-guide/runtime-configuration.html#add-a-new-member
> The new member will run as a part of the cluster and immediately begin catching up with the rest of the cluster.
другой вопрос - зачем нужен четвертый участник? чтобы вынуть один из первых трех?

Sergey
23.01.2018
13:29:58
как вариант поставь maxUnavailable: 0 - тогда вообще железобетонно.

Andrey
23.01.2018
13:30:46
ммм… скорее всего поэтому, спасибо

Роман
23.01.2018
13:30:49

Alexey B
23.01.2018
13:33:16

Let Eat
23.01.2018
13:35:13
Я им issue закинул, прямо с строчкой,кода где косяк