@kubernetes_ru

Страница 397 из 958
Sergey
23.01.2018
08:14:54
но кстати, говорят глюстер - весьма дурной тон ) Он у вас снаружи кластера или внутри?

66271
23.01.2018
08:15:37
https://github.com/kubernetes/kube-state-metrics ?
а дашборда для графаны к этому есть ?

Vitaliy
23.01.2018
08:16:45
А в 1.9 что поменяли? etcd-client там той,же версии
В 1.9 флаг deprecated, kubernetes его игнорирует и считает что всегда true

Айбелив
23.01.2018
08:17:03
коллеги, кто-нибудь использует вояджер? как ощущения?
использовал, он какой-то странный. Решил перейти на традиционный ингресс.

Google
Роман
23.01.2018
08:20:26
но кстати, говорят глюстер - весьма дурной тон ) Он у вас снаружи кластера или внутри?
Отдельно. Но бесит, что постоянно (рандомно) пропадают эндпоинты и поды не разворачиваются. Находятся в вечном ContainerCreating. Причину не могу найти никак.

Sergey
23.01.2018
08:20:44
а дашборда для графаны к этому есть ?
мне не попадалась. Но по правде, я сильно не искал. Если найдете - дайте знать.

Роман
23.01.2018
08:21:06
а дашборда для графаны к этому есть ?
А зачем? Есть же названия метрик (и дока по ним), можно самому сделать.

66271
23.01.2018
08:21:57
вот-вот... я смотрю с дашбордами вообще печаль, в чарт stable/grafana вообще блин 7 дней назад только закомитили код что бы их цеплять автоматом

66271
23.01.2018
08:22:42
затем что там все автоматизируется на ура, зачем же делать это вручную ?

Sergey
23.01.2018
08:24:35
но мне кажется дело здесь в кривости глюстера. Что-то серьезное на него нельзя. По крайней мере в k8s. У меня тоже ендпоинты на гластер отпадали.

Let Eat
23.01.2018
08:27:38
Айбелив
23.01.2018
08:29:19
традиционный – это nginx?
традиционный — это Ingress. Voyager — это пародия на Ingress.

т.к. мне нужна была хапрокся, то я заюзал единственный доступный вариант: https://github.com/jcmoraisjr/haproxy-ingress Помогаю разрабу допиливать код по мере надобности

Paul
23.01.2018
08:32:00
посмотрю, спасибо. А то мне надо TCP-потоки чистые тоже принимать, спецпротокол. HTTP-то я через nginx протолкну, это несложно

Google
Айбелив
23.01.2018
08:32:35
поговаривают, что в nginx ingress controller есть модуль stream и он умеет в TCP

но это неточно

Paul
23.01.2018
08:34:45
поговаривают, что в nginx ingress controller есть модуль stream и он умеет в TCP
да, умеет. Но я не хочу его использовать. Хочу сделать два класса ингресса - http через nginx и haproxy для просто TCP

Sergey
23.01.2018
08:35:32
чем tcp через nginx не устраивает, если не секрет?

Айбелив
23.01.2018
08:35:36
хозяин — барин

Paul
23.01.2018
08:37:18
чем tcp через nginx не устраивает, если не секрет?
мне кажется (кажется тут ключевое слово), что nginx будет плохо обрабатывать чистую балансировку TCP под большой нагрузкой. Он не для этого придуман

Dmitry
23.01.2018
08:48:18
Все. Я наигрался. Кубер на двух дешманских нодах это не вариант.

Пойду swarm смотреть. Может веселее будет

Mikhail
23.01.2018
08:50:41
Буду благодарен.
https://github.com/azalio/kuberstack-monitoring-events

ай, дал ссылку на свой форк

вообщем там есть оригинал )

https://github.com/kuberstack/kuberstack-monitoring-events

Роман
23.01.2018
08:53:21
Alexey B
23.01.2018
09:14:10
КАк сделать чтобы сервис был доступен из под? тут вариант только ingress?

Paul
23.01.2018
09:14:21
Пойду swarm смотреть. Может веселее будет
веселее точно не будет. Такого секса у вас еще не было, поверьте

sherzod
23.01.2018
09:16:05
КАк сделать чтобы сервис был доступен из под? тут вариант только ingress?
доступен куда, на внешку? можно неявный ингресс сделать kubectl expose pod/deploy/rs

еще зависит от того что у вас за облако, чистый кубер или gcloud какой-нить грёбаный

Alexey B
23.01.2018
09:17:00
Не, внутри кластера

Айбелив
23.01.2018
09:17:04
Alexey B
23.01.2018
09:18:04
с calico можно) я сам удивился

Google
Paul
23.01.2018
09:19:25
Andrey
23.01.2018
09:19:28
helm template ./charts-myservice -f staging.yml | istioctl kube-inject -f - | kubectl apply -f - кто-нибудь может предложить команду попроще? :)

Paul
23.01.2018
09:19:30
default-to-deny

Айбелив
23.01.2018
09:19:49
через политики сети
я имею в виду сделать так, чтобы нельзя было отменить

sherzod
23.01.2018
09:19:57
Не, внутри кластера
надо через Service. expose --type=ClusterIP

Andrey
23.01.2018
09:20:42
ну у меня не альфа

Vitaliy
23.01.2018
09:21:44
ну у меня не альфа
так там 2 срочки в admissionControl & runtime config добавить )

Andrey
23.01.2018
09:22:09
ммм, че-то упустил момент, почитаю спасибо :)

Vitaliy
23.01.2018
09:24:24
Если копсом разворачивал на awsе, то вот пример kubeAPIServer: admissionControl: - NamespaceLifecycle - LimitRanger - ServiceAccount - PersistentVolumeLabel - DefaultStorageClass - ResourceQuota - DefaultTolerationSeconds - Initializers runtimeConfig: admissionregistration.k8s.io/v1alpha1: "true"

Ну или эти же строчки можно руками добавить на апи Initializers / —runtime-сonfig=admissionregistration.k8s.io/v1alpha1=true

Andrey
23.01.2018
09:26:56
gke :)

Alexey B
23.01.2018
09:28:43
надо через Service. expose --type=ClusterIP
>The Service "config" is invalid: spec.clusterIP: Invalid value: "": field is immutable or >Invalid value: "10.0.171.239": field is immutable

Mikhail
23.01.2018
09:29:13
Господа, добрый день! Подскажите куда почитать кроме гугла - про особенности настройки k9 поверх vmware. Бывают некоторые проблемы с работой сетей приложения, хочу подиагностировать.

sherzod
23.01.2018
09:30:15
или вероятно такой сервис уже создан

Alexey B
23.01.2018
09:31:38
создан, но я делаю replace

sherzod
23.01.2018
09:31:52
лучше удалить и заново создать

а если создан, то зачем создавать? или там тип NodePort?

Google
Alexey B
23.01.2018
09:33:44
неа, там только spec: ports: - name: "3000" port: 3000 targetPort: 3000

targetPort можно убрать nodeport не нужен для сервиса который не должен смотреть в мир а вот на счет ingress не уверен

sherzod
23.01.2018
09:35:02
я про тип сервиса kubectl get services в поле TYPE что показывает для этого сервиса?

Alexey B
23.01.2018
09:35:43
ClusterIP

Создался, ему маска подсети не нравиласьу сейчас с ingree LoadBalancer

sherzod
23.01.2018
09:36:45
Зачем ingress внутрикластерному сервису? просто обращайтесь на любую ноду по указанному порту и ClusterIP, он перенаправит сам.

Alexey B
23.01.2018
09:46:59
Зачем ingress внутрикластерному сервису? просто обращайтесь на любую ноду по указанному порту и ClusterIP, он перенаправит сам.
да, все верно, спасибо! сложность оказалась в том что не супортиться icmp + в бинарных go контейнерах нету нормальных тулов для нетворк дебага

sherzod
23.01.2018
09:47:19
ок)

Alexey B
23.01.2018
10:32:14
Гайз, еще вопрос почему может не резолвиться dns сервиса? ...exec -it config-5b4f9c9546-kz9t5 -- sh -c "curl -v 10.111.57.167:3000" - так работает ...exec -it config-5b4f9c9546-kz9t5 -- sh -c "curl -v static:3000" - не работает

Alik
23.01.2018
10:33:54
Привет! У меня есть сервис в котором rest api по некоторому префиксу /prefix. Сейчас на него весь трафик бежит через один ингресс. Я хочу чтобы по префиксу /prefix/longer-prefix трафик на этот сервис шел через другой ингресс. Есть ли в такой схеме какие-нибудь нюансы?

sherzod
23.01.2018
10:34:33
static это конечно так себе имя))

Alexey B
23.01.2018
10:36:40
static это конечно так себе имя))
как деволеры назвали, так и плаваем)

djaarf
23.01.2018
10:37:53
нейспейс в алиасе Could not resolve host: static.default.svc.cluster.local
- не работает днс-сервис - нет до него доступа

Alexey B
23.01.2018
10:54:05
Из разных контейнеров DNS то есть, то нету:



а конфг сервисов из которых пытаюсь резолвить такой



с подой и сервисами dns все ок

Google
djaarf
23.01.2018
11:35:34
Из разных контейнеров DNS то есть, то нету:
у меня такое поведение было, когда я читал доку между строк и не загрузил модуль ядра br_netfilter, который в свою очередь выставляет net/bridge/bridge-nf-call-iptables в 1

т.е. убедитесь что br_netfilter загружен и net.bridge.bridge-nf-call-iptables = 1

Roman
23.01.2018
12:37:54
Всем привет. Подскажите пожалуйста с чего начать ознакомление с кубиком.

Let Eat
23.01.2018
13:07:02
Хотите любой кластер с calico нафиг уронить? Создайте NetworkPolicy где порт прописан именем, а не числом ) желательно в пятницу вечером

Let Eat
23.01.2018
13:13:36
Все calico-node паникуют и становятся недееспособными

Andrey
23.01.2018
13:18:48
народ, я че-то туплю... хочу чтобы деплойменты просходили один за другим (выкатили первый под, хелсчек сработал, выкатили второй под...) насколько я понял из доки стратегия такая: strategy: type: RollingUpdate rollingUpdate: maxSurge: 1 maxUnavailable: 1 один под выкатывается за раз, только один под может быть недоступен (unready) что концептуального я пропустил с моим знанием английского что они сразу все вываливаются? : )

Роман
23.01.2018
13:23:42
Подскажите, а etcd-кластер обязательно должен иметь нечётное количество нод? Если я подниму четвёртый экземпляр, мне на него руками данные переносить нужно или он сам притянет изменения?

Fike
23.01.2018
13:27:22
Должен все сделать сам https://coreos.com/etcd/docs/latest/op-guide/runtime-configuration.html#add-a-new-member > The new member will run as a part of the cluster and immediately begin catching up with the rest of the cluster.

другой вопрос - зачем нужен четвертый участник? чтобы вынуть один из первых трех?

Andrey
23.01.2018
13:30:46
ммм… скорее всего поэтому, спасибо

Alexey B
23.01.2018
13:33:16
т.е. убедитесь что br_netfilter загружен и net.bridge.bridge-nf-call-iptables = 1
Спасибо, модуль ядра работал Оказалось, проблема в кривом фаерволе DigitalOcen-a, с нормальными правилами он не нормально работает

Let Eat
23.01.2018
13:35:13
Я им issue закинул, прямо с строчкой,кода где косяк

Страница 397 из 958