@kubernetes_ru

Страница 864 из 958
DASTAN
04.10.2018
05:49:25
kubectl get nodes все READY?

Konstantin
04.10.2018
05:50:37
@DACTAH все в Ready, на них работают поды, аппы итд итр. Имею ввиду по функционалу никаких нареканий

DASTAN
04.10.2018
05:51:29
unknown node "k8s-worker01" вот это сообщение намекает якобы нет связи, либо днс упал поэтому лучше перепроверить

cannot get secret kube-system/kube-dns-token-wv9sh cannot get configmap kube-system/kube-dns плюс двух случаях kube-dns не доступен

Google
Konstantin
04.10.2018
06:04:53
cannot get secret kube-system/kube-dns-token-wv9sh cannot get configmap kube-system/kube-dns плюс двух случаях kube-dns не доступен
Так в том то и дело, что работает. /app # nslookup hrsm-web-service.hrsm.svc.cluster.local 10.233.0.3 Server:    10.233.0.3 Address 1: 10.233.0.3 kube-dns.kube-system.svc.cluster.local Name:      hrsm-web-service.hrsm.svc.cluster.local Address 1: 10.233.31.169 hrsm-web-service.hrsm.svc.cluster.local​

unknown node "k8s-worker01" вот это сообщение намекает якобы нет связи, либо днс упал поэтому лучше перепроверить
Если бы что то не работало или отвалилось, то логично было бы ожидать другое severity лога

DASTAN
04.10.2018
06:09:43
https://github.com/kubernetes-incubator/kubespray/issues/1856 здесь говорят что проблема с сертификатами или сервис аккаунтами

https://github.com/kubernetes-incubator/kubespray/issues/1856#issuecomment-339855628 похожая проблема

Antony ??
04.10.2018
07:19:40
#whois ▫️Какой у вас проект или где работаете? инфраструктура для EMM Enterprise Mobile Management ▫️В чём вы специалист? На стадии переквалификации ▫️Чем можете быть интересны или полезны сообществу? доступом к французскому сектору ▫️Чем интересно сообщество вам? опытом, помощью, новостями. ▫️Откуда вы? Ница/Монако ▫️Как узнали про группу? Yandex

Ivan
04.10.2018
07:44:29
Приветствую! А кто-нибудь сертифицировался по PCI DSS? Не могу понять как разделить сеть на CDE и DMZ с использованием VLAN...
В прошлом году успешно прошли аудит как оператор карточных данных, без хранения. Раз вланы, значит где-то есть роутер, которые все это дело маршрутизирует. Значит он же и как брандмауэр выступает между сегментами. Описываете имеющиеся правила и обосновываете ради какой бизнес-необходимости каждое из них существует. Ну и не забываете поддерживать в актуальном состоянии для будущих аудитов.

Yerlan
04.10.2018
07:52:55
В прошлом году успешно прошли аудит как оператор карточных данных, без хранения. Раз вланы, значит где-то есть роутер, которые все это дело маршрутизирует. Значит он же и как брандмауэр выступает между сегментами. Описываете имеющиеся правила и обосновываете ради какой бизнес-необходимости каждое из них существует. Ну и не забываете поддерживать в актуальном состоянии для будущих аудитов.
В прошлом году успешно прошли сертификацию PCI DSS, но инфраструктура состояла только из виртуальных машин + VLAN. Сейчас решили поставить поверх виртуальных машин Kubernetes для сервисов, но как правильно натянуть VLAN (и надо ли вообще?) - не совсем понятно... Думаем возможно достаточно обеспечить разделение доступа подов посредством политик... Сейчас VLANы соединяет виртуалка, но когда она в обслуживании, то разрыв коннекта...

Georgy
04.10.2018
08:46:37
слушайте, а че можно как-то кластер заставить удалять эвиктнутые поды самому?

а то я уже близок к тому чтобы на крон повесить баш дропать их

Anton
04.10.2018
09:20:26
Google
Georgy
04.10.2018
09:24:22
у меня сейчас их около 20, и они просто висят в ошибке

я че делаю, грепаю вывод kubectl где статус Evicted и удаляю каждый

Banschikov
04.10.2018
09:35:15
Товарищи, подскажите по Helm. TILLER_HISTORY_MAX за что отвечает? Я раньше думал что она соответсвует значению REVISION при выводе команды "helm list". Я путаю 2 понятия?

Georgy
04.10.2018
09:37:03
terminationGracePeriodSeconds
о, ништяк, спасибо

Banschikov
04.10.2018
09:37:20
Просто Helm создает тутчу конфигмапов с иториями версий. Жутко не удобно, да и этот функционал не нужен от него. Думал что с помощью этого можно ограничить у него создание этих конфигмапов

Georgy
04.10.2018
09:39:03
terminationGracePeriodSeconds
судя по доке это должно работать только для Terminating, а у меня они evicted

Vadim
04.10.2018
09:40:00
судя по доке это должно работать только для Terminating, а у меня они evicted
https://kubernetes.io/docs/tasks/administer-cluster/out-of-resource/#soft-eviction-thresholds

Georgy
04.10.2018
09:40:22
Huan
04.10.2018
10:00:48
привет всем. подскажите как перенестить поду стейтфулсета на другую ноду куба?

Mikhail чердак
04.10.2018
10:01:56
NodeSelector?

Huan
04.10.2018
10:03:58
а если в стейтфулсете реплика 3?

Banschikov
04.10.2018
10:04:39
а если в стейтфулсете реплика 3?
Опиши задачу полностью. Что хочешь сделать?

Andrey
04.10.2018
10:05:35
Народ, подскажите вызываю редактирование kubernetes-dashboard на мастере kubectl -n kube-system edit service kubernetes-dashboard что мне нужно прописать , чтобы web UI было доступно с удаленных компов? NodePort? пните в нужное русло

Artem
04.10.2018
10:06:57
по хорошему - ingress включить

Andrey
04.10.2018
10:11:52
по хорошему - ingress включить
ингресс не ставил пока, хотел пока в обход его

Huan
04.10.2018
10:12:42
Опиши задачу полностью. Что хочешь сделать?
есть стейтфулсет сервиса apache nifi с репликой 3. одна нода куба постоянно вылетает, там где лидирующая нода этого nifi. когда перезапускаю эту поду, то он запускается на той же ноде. а мне нужно перенести на другую ноду

Artem
04.10.2018
10:13:23
ингресс не ставил пока, хотел пока в обход его
самое простое тогда, у себя на локалхосте делать port-forward

Google
Artem
04.10.2018
10:14:12
или nodePort , но тогда будут порты из серии 32035

Huan
04.10.2018
10:17:04
на этой ноде есть другие поды

Banschikov
04.10.2018
10:17:51
Huan
04.10.2018
10:18:11
Понял, спасибо

Vitalik
04.10.2018
10:19:05
Привет, для чего kubespray по умолчанию запрещает докеру работать с iptables? docker_iptables_enabled: "false"

Vasiliy
04.10.2018
10:19:10
А может кто подсказать - у local persistent volume обязательно размер указывать или можно так же как в докере - создай мне volume, а о свободном месте я позабочусь сам ?

Сергей
04.10.2018
10:20:05
Привет, для чего kubespray по умолчанию запрещает докеру работать с iptables? docker_iptables_enabled: "false"
не знаю, но добавлю, что если этого не сделать: правила внесенные с помощью, например: UFW - контейнерами полностью игнорируются.

Vitalik
04.10.2018
10:27:29
я из-за этого столкнулся с проблемой, что для вручную запущенного docker-compose на машине в кластере нельзя задать изоляцию сети: контейнеры легко ходят по сети кубера, игнорируя опции в compose.yml. К примеру это легко может дропнуть базу, так как домен postgres резолвится в кубер вместо локального postgres из компоуза.

Vasiliy
04.10.2018
10:46:53
Чот, либо я хочу странного, либо я выбрал неверный инструмент. Я хочу, чтобы на 3х нодах у меня всегда было 2 экземпляра сервиса, которые бы хранили данные на локальной ФС. И чтобы селекторами управлять - на какой ноде запускать эти сервисы. Миграции сервисов не планируется.

Сейчас читаю доки - тип PV hostpath мне не подходит: HostPath (Single node testing only – local storage is not supported in any way and WILL NOT WORK in a multi-node cluster)

Alexey
04.10.2018
10:48:11
Он тоже не работает на multi-node, нужно крепить поды к нодам, но он позже позволяет без усилий переехать на нормальный fs

А, или крепить не нужно, если под уже привязался к pv?

Vasiliy
04.10.2018
10:54:57
То есть я на двух нодах создаю два local-storage (LS-A и LS-B) Теперь, чтобы мне нужны 2 экземпляра ноды на разных серверах Получается - нужно 2 отдельных сервиса делать: svc-A и svc-B, для которых эти local-storage и указывать ?

Vasiliy
04.10.2018
10:56:10
Да, поды, верно.

Ладно, скорее всего проще будет попробовать https://kubernetes.io/blog/2018/04/13/local-persistent-volumes-beta/

Google
DASTAN
04.10.2018
11:00:36
ребята, подскажите, если я хочу задеплоить хелм чарт, у которого image repository будет разным в зависимости от ветки git, как мне это сделать?

DASTAN
04.10.2018
11:10:50
через --set image or --set tag
helm install —set image?

спасибо, попробую

пока что в values.yaml сделал url repository короче, а в deployment.yaml дополнил {{ .Release.Namespace }}

Banschikov
04.10.2018
11:13:59
Не могу понять это баг или фича?

Товарищи, подскажите по Helm. TILLER_HISTORY_MAX за что отвечает? Я раньше думал что она соответсвует значению REVISION при выводе команды "helm list". Я путаю 2 понятия?

Просто Helm создает тутчу конфигмапов с иториями версий. Жутко не удобно, да и этот функционал не нужен от него. Думал что с помощью этого можно ограничить у него создание этих конфигмапов

Mikhail чердак
04.10.2018
11:15:35
фича же

тиллер же не хранит в себе содержимое конфигмапа

он хранит только values

Banschikov
04.10.2018
11:17:26
тиллер же не хранит в себе содержимое конфигмапа
TILLER_HISTORY_MAX не за это отвечает переменная?

Mikhail чердак
04.10.2018
11:18:14
TILLER_HISTORY_MAX не за это отвечает переменная?
по идее да. но тебе надо скорее всего тиллер передеплоить с нуля, чтобы оно применилось

Banschikov
04.10.2018
11:18:56
по идее да. но тебе надо скорее всего тиллер передеплоить с нуля, чтобы оно применилось
Я когда тиллер деплоил помоему указывал 5, он их все равно плодит тучу

Но могу ошибатся

Mikhail чердак
04.10.2018
11:19:22
а если делать через helm init —history-max=5 ?

Banschikov
04.10.2018
11:19:37
Щас гляну как было

а если делать через helm init —history-max=5 ?
helm init --service-account tiller --history-max 10

Google
kvaps
04.10.2018
11:31:07
Привет, для чего kubespray по умолчанию запрещает докеру работать с iptables? docker_iptables_enabled: "false"
И правильно делает, по умолчанию docker плодит много iptables-правил, которые в принципе не нужны, т.к. у куба своя сеть. А если их не отключить они могут привести к непредсказуемым последствиям непринужденно влияя на работу некоторых оверлейных сетей.



Артем
04.10.2018
12:51:23
Добрый день, Кто нибудь ставил Kubernetes через sudo snap install conjure-up --classic Сколько по времени он может ставиться. У меня уже висит более 2-х часов, linux живой ничего не зависло. Сколько он так может висеть?

Ivan
04.10.2018
13:09:40
Артем
04.10.2018
13:11:39
Да
Если кластер будет состоять из одного сервера, он нормально встанет?

Ivan
04.10.2018
13:12:13
Да, но если 1 сервер то проще через kubeadmin

Stanislav
04.10.2018
13:12:25
minikube - как раз кластер из одного сервера, по-моему...

Ivan
04.10.2018
13:12:38
или minikube)

Mikhail чердак
04.10.2018
13:13:27
Артем
04.10.2018
13:14:53
в minikube по моему нет ingress

Stanislav
04.10.2018
13:16:04
его вообще нет нигде, кроме готового облака от гуглей с амазонами

Stanislav
04.10.2018
13:16:28
В смысле, отдельно добавляется

Artem
04.10.2018
13:16:33
а как же тогда у всех работает?

Vadim
04.10.2018
13:16:52
ингресс - это социальный конструкт

Stanislav
04.10.2018
13:16:53
А хз, что у вас за облако. Лично я - ставил ingress-nginx отдельно на baremetal

kvaps
04.10.2018
13:19:59
в minikube по моему нет ingress
а какая разница, он ставится как отдельный сервис

Страница 864 из 958