
DASTAN
04.10.2018
05:49:25
kubectl get nodes все READY?

Konstantin
04.10.2018
05:50:37
@DACTAH все в Ready, на них работают поды, аппы итд итр. Имею ввиду по функционалу никаких нареканий

DASTAN
04.10.2018
05:51:29
unknown node "k8s-worker01" вот это сообщение намекает якобы нет связи, либо днс упал
поэтому лучше перепроверить
cannot get secret kube-system/kube-dns-token-wv9sh
cannot get configmap kube-system/kube-dns
плюс двух случаях kube-dns не доступен

Google

Konstantin
04.10.2018
06:04:53

DASTAN
04.10.2018
06:09:43
https://github.com/kubernetes-incubator/kubespray/issues/1856
здесь говорят что проблема с сертификатами или сервис аккаунтами
https://github.com/kubernetes-incubator/kubespray/issues/1856#issuecomment-339855628
похожая проблема

Antony ??
04.10.2018
07:19:40
#whois
▫️Какой у вас проект или где работаете?
инфраструктура для EMM Enterprise Mobile Management
▫️В чём вы специалист?
На стадии переквалификации
▫️Чем можете быть интересны или полезны сообществу?
доступом к французскому сектору
▫️Чем интересно сообщество вам?
опытом, помощью, новостями.
▫️Откуда вы?
Ница/Монако
▫️Как узнали про группу?
Yandex

Juriy
04.10.2018
07:38:08

Ivan
04.10.2018
07:44:29

Yerlan
04.10.2018
07:52:55

Sergey
04.10.2018
07:56:13

Ivan
04.10.2018
08:01:01

Georgy
04.10.2018
08:46:37
слушайте, а че можно как-то кластер заставить удалять эвиктнутые поды самому?
а то я уже близок к тому чтобы на крон повесить баш дропать их

Anton
04.10.2018
09:20:26

Google

Georgy
04.10.2018
09:24:22
у меня сейчас их около 20, и они просто висят в ошибке
я че делаю, грепаю вывод kubectl где статус Evicted и удаляю каждый

Vadim
04.10.2018
09:33:50

Banschikov
04.10.2018
09:35:15
Товарищи, подскажите по Helm.
TILLER_HISTORY_MAX за что отвечает?
Я раньше думал что она соответсвует значению REVISION при выводе команды "helm list". Я путаю 2 понятия?

Georgy
04.10.2018
09:37:03

Banschikov
04.10.2018
09:37:20
Просто Helm создает тутчу конфигмапов с иториями версий. Жутко не удобно, да и этот функционал не нужен от него. Думал что с помощью этого можно ограничить у него создание этих конфигмапов

Georgy
04.10.2018
09:39:03

Vadim
04.10.2018
09:40:00

Georgy
04.10.2018
09:40:22

Huan
04.10.2018
10:00:48
привет всем. подскажите как перенестить поду стейтфулсета на другую ноду куба?

Mikhail чердак
04.10.2018
10:01:56
NodeSelector?

Huan
04.10.2018
10:03:58
а если в стейтфулсете реплика 3?

Banschikov
04.10.2018
10:04:39

Andrey
04.10.2018
10:05:35
Народ, подскажите вызываю редактирование kubernetes-dashboard на мастере kubectl -n kube-system edit service kubernetes-dashboard
что мне нужно прописать , чтобы web UI было доступно с удаленных компов? NodePort? пните в нужное русло

Artem
04.10.2018
10:06:57
по хорошему - ingress включить

Andrey
04.10.2018
10:11:52

Huan
04.10.2018
10:12:42
Опиши задачу полностью. Что хочешь сделать?
есть стейтфулсет сервиса apache nifi с репликой 3. одна нода куба постоянно вылетает, там где лидирующая нода этого nifi. когда перезапускаю эту поду, то он запускается на той же ноде. а мне нужно перенести на другую ноду

Artem
04.10.2018
10:13:23

Banschikov
04.10.2018
10:13:36

Google

Artem
04.10.2018
10:14:12
или nodePort , но тогда будут порты из серии 32035

Banschikov
04.10.2018
10:16:25

Huan
04.10.2018
10:17:04
на этой ноде есть другие поды

Banschikov
04.10.2018
10:17:51

Huan
04.10.2018
10:18:11
Понял, спасибо

Vitalik
04.10.2018
10:19:05
Привет, для чего kubespray по умолчанию запрещает докеру работать с iptables?
docker_iptables_enabled: "false"

Vasiliy
04.10.2018
10:19:10
А может кто подсказать - у local persistent volume обязательно размер указывать или можно так же как в докере - создай мне volume, а о свободном месте я позабочусь сам ?

Сергей
04.10.2018
10:20:05

Banschikov
04.10.2018
10:20:29

Vitalik
04.10.2018
10:27:29
я из-за этого столкнулся с проблемой, что для вручную запущенного docker-compose на машине в кластере нельзя задать изоляцию сети: контейнеры легко ходят по сети кубера, игнорируя опции в compose.yml. К примеру это легко может дропнуть базу, так как домен postgres резолвится в кубер вместо локального postgres из компоуза.

Vasiliy
04.10.2018
10:46:53
Чот, либо я хочу странного, либо я выбрал неверный инструмент.
Я хочу, чтобы на 3х нодах у меня всегда было 2 экземпляра сервиса, которые бы хранили данные на локальной ФС.
И чтобы селекторами управлять - на какой ноде запускать эти сервисы.
Миграции сервисов не планируется.
Сейчас читаю доки - тип PV hostpath мне не подходит:
HostPath (Single node testing only – local storage is not supported in any way and WILL NOT WORK in a multi-node cluster)

Alexey
04.10.2018
10:48:11
Он тоже не работает на multi-node, нужно крепить поды к нодам, но он позже позволяет без усилий переехать на нормальный fs
А, или крепить не нужно, если под уже привязался к pv?

Vasiliy
04.10.2018
10:54:57
То есть я на двух нодах создаю два local-storage (LS-A и LS-B)
Теперь, чтобы мне нужны 2 экземпляра ноды на разных серверах
Получается - нужно 2 отдельных сервиса делать: svc-A и svc-B, для которых эти local-storage и указывать ?

Alexey
04.10.2018
10:55:28
service это балансер для подов, идет отдельно.

Vasiliy
04.10.2018
10:56:10
Да, поды, верно.
Ладно, скорее всего проще будет попробовать https://kubernetes.io/blog/2018/04/13/local-persistent-volumes-beta/

Google

DASTAN
04.10.2018
11:00:36
ребята, подскажите, если я хочу задеплоить хелм чарт, у которого image repository будет разным в зависимости от ветки git, как мне это сделать?

M
04.10.2018
11:10:10

DASTAN
04.10.2018
11:10:50
спасибо, попробую
пока что в values.yaml сделал url repository короче, а в deployment.yaml дополнил {{ .Release.Namespace }}

Banschikov
04.10.2018
11:13:59
Не могу понять это баг или фича?
Товарищи, подскажите по Helm.
TILLER_HISTORY_MAX за что отвечает?
Я раньше думал что она соответсвует значению REVISION при выводе команды "helm list". Я путаю 2 понятия?
Просто Helm создает тутчу конфигмапов с иториями версий. Жутко не удобно, да и этот функционал не нужен от него. Думал что с помощью этого можно ограничить у него создание этих конфигмапов

Mikhail чердак
04.10.2018
11:15:35
фича же
тиллер же не хранит в себе содержимое конфигмапа
он хранит только values

Banschikov
04.10.2018
11:17:26

Mikhail чердак
04.10.2018
11:18:14

Banschikov
04.10.2018
11:18:56
Но могу ошибатся

Mikhail чердак
04.10.2018
11:19:22
а если делать через helm init —history-max=5 ?

Banschikov
04.10.2018
11:19:37
Щас гляну как было

Google

kvaps
04.10.2018
11:31:07

Артем
04.10.2018
12:51:23
Добрый день, Кто нибудь ставил Kubernetes через sudo snap install conjure-up --classic
Сколько по времени он может ставиться. У меня уже висит более 2-х часов, linux живой ничего не зависло. Сколько он так может висеть?

Ivan
04.10.2018
13:04:36

Артем
04.10.2018
13:07:54

Ivan
04.10.2018
13:09:40

Артем
04.10.2018
13:11:39
Да
Если кластер будет состоять из одного сервера, он нормально встанет?

Ivan
04.10.2018
13:12:13
Да, но если 1 сервер то проще через kubeadmin

Stanislav
04.10.2018
13:12:25
minikube - как раз кластер из одного сервера, по-моему...

Ivan
04.10.2018
13:12:38
или minikube)

Mikhail чердак
04.10.2018
13:13:27

Артем
04.10.2018
13:14:53
в minikube по моему нет ingress

Stanislav
04.10.2018
13:16:04
его вообще нет нигде, кроме готового облака от гуглей с амазонами

Artem
04.10.2018
13:16:18

Stanislav
04.10.2018
13:16:28
В смысле, отдельно добавляется

Artem
04.10.2018
13:16:33
а как же тогда у всех работает?

Vadim
04.10.2018
13:16:52
ингресс - это социальный конструкт

Stanislav
04.10.2018
13:16:53
А хз, что у вас за облако. Лично я - ставил ingress-nginx отдельно на baremetal

Artem
04.10.2018
13:18:09

kvaps
04.10.2018
13:19:59