@kubernetes_ru

Страница 713 из 958
Maxim
29.07.2018
18:40:04
Ребят, прометей может по тегам кубера сортировать мониторинг контейнеров?
да Если хочется чтобы все сразу из коробки работало можно этот плагин попробовать: https://grafana.com/plugins/grafana-kubernetes-app

Sergey
29.07.2018
18:40:42
а чтобы не из коробки, я могу ручками в графану забить?

Sergey
29.07.2018
18:41:00
туда то в последнюю очередь, главное чтобы прометей это мог

Google
Maxim
29.07.2018
18:41:13
а чтобы не из коробки, я могу ручками в графану забить?
да, навесить лейблы и сматчить все это в графане

Bro
29.07.2018
18:43:01
всем привет

никто не знает по монгодб есть конфа в телеграме?

Bro
29.07.2018
18:43:49
о спасибо!

Oleg
29.07.2018
18:44:21
я вот думаю может я неправильно minikube приготовил? у меня там в VBox NAT в нетворкинге. Может на бридж перейти или интернал?

потому что kube-dns работает, IP выдает, но они не доступны

а кто как прописывает в контейнерах обращения к другим контейнерам? берете из переменных окружения или dns по именам сервисов?

Georgiy
29.07.2018
18:55:13
а кто знает - есть фейлящаяся всегда корнджоба , которая плодит кучу подов каждый раз пытаясь выполниться, в итоге заканчивается квота подов. можно это дело ограничивать ?

все, нашел

restartPolicy: OnFailure

Google
Georgiy
29.07.2018
18:59:19
спасибо

Never поставлю

Simak
29.07.2018
19:02:46
Добрый вечер, ребят. Начал изучать kubernetes, и столкнулся с такой проблемой: Моё кластер находится на локальных серверах. 1 Master и 2 Slave. И первым делом решил попробывать прокинуть с помощью NodePort nginx наружу. И потерпел неудачу =( Подумал что может с помощью ingress смогу открыть порт. Но тоже потерпел неудачу. Потом заметил что мои сервера не имеют external-ip адреса. Спасибо zsh-completion он выдал мне ключик —external-ip и соответсвтенно с этим ключем завелся мой сервис для nginx. Но получается висит он только на одной ноде. Я походу чё то не догоняю) Можно как то external-ip задать сервакам кластера? И вообще нужно ли это делать? Потому что поиском посмотрел, у многих external-ip <None> и вроде как все портики открываются. Вообщем в чем может быть проблема?)

Maxim
29.07.2018
19:12:45
Simak
29.07.2018
19:15:56
Maxim
29.07.2018
19:16:22
Simak
29.07.2018
19:18:21
на сервисе ингресс контроллера
А указать самой ноде не получится?

Maxim
29.07.2018
19:18:33
вот популярный вариант - nginx ingress controller https://kubernetes.github.io/ingress-nginx/ ставите его как baremetal только в сервисе прописываете свой external-ip

А указать самой ноде не получится?
тоже можно, тогда нужно указать экстернал ип на сервисе, который хотите чтобы доступен был по этому адресу

Simak
29.07.2018
19:20:12
Отлично) Спасибо)

Dmytro
29.07.2018
19:25:37
не пашет. думаю что icmp тоже должен пробрасываться
не должен, сервис это не более чем правило в iptables

Oleg
29.07.2018
19:27:49
ну и в чем проблема форвардить icmp?

ну не суть. сервис не доступен

c Bridge или Host-only в Vbox minikube вообще запускаться не захотел

то есть NAT на адаптере приколочен гвоздями

Dmytro
29.07.2018
19:42:05
да нет проблемы, просто by design сервис и это правило в iptables

Oleg
29.07.2018
19:45:07
попробуйте между делом из контейнера пингануть сервис на рабочем кубере

у меня ощущение что это заморочки minikube

при этом это может быть только на Mac

у кого-нибудь стоит minikube на linux?

Google
Sergey
29.07.2018
20:23:37
Чел Завязывай с миникубом никому он не нужен)

Он изначально был недо-кубером с косяками, зачем в него сейчас то лезть, лучше неймспейс в кубере выкатывать

Maxim
29.07.2018
20:40:45
ну и в чем проблема форвардить icmp?
правило в iptables создается только для определенного порта, какой в service укажешь

Дмитрий
29.07.2018
20:45:22
+1: iptables прописывается только для сервиса, пока не встречал тех, кто создавал бы сервис для ICMP, а значит не встречал и тех кто пинговал сервис...

Есть исключение когда сервис - запись в DNS, но такие редко кто делает

Andrey
29.07.2018
21:51:41
Ребят, а кто как энвы разделяет. Ну типо девелоперский/стейджинг/прод? Если забыть о проде, то нормальная ли практика делить по неймспейсам? Какая вообще главная роль неймспейсов в кубере, какие принципы разделения?

Andrey
29.07.2018
22:10:53
главная цель неймспейсов в кубе делать вид, что в кубе есть мультитенанси, натягиванием совы на глобус
А почему его на самом деле нет? Я просто только захожу на него, и чот очень хочется не накосячить сильно.

Stas
29.07.2018
22:13:20
сравните как задизайнены апи настоящих тенанси систем хоть того же прости господи опенстека и как апи куба. Я в неймспейсах держу разные экземпляры окружений одного типа, например разные бранчи в дев кластере или разные задачи раскатанные для qa на регресс

Andrey
29.07.2018
22:16:23
сравните как задизайнены апи настоящих тенанси систем хоть того же прости господи опенстека и как апи куба. Я в неймспейсах держу разные экземпляры окружений одного типа, например разные бранчи в дев кластере или разные задачи раскатанные для qa на регресс
Ага, вот я что-то вроде этого не хочу. Ещё немного тупой наверное вопрос. А это норм что ingress controller требует для себя отдельного неймспейса и работает с сервисами всех неймспейсов сразу? Или у меня просто руки из жопы?

Andrey
29.07.2018
22:22:35
зависит от того, что вы из куба делаете. Если шаред хостинг для приложений, то гаверное нет)
Не, у меня как раз 1 проект с микросервисами и неймспейсы хорошо бы легли как отдельные окружения. Но я деплоил по доке с гитхаба, там была строка с некими “mandatory command”. Благодаря которым создаётся неймспейс, контроллер, дефолтный сервис и сервис nginx

И он кароч судя по всему читает ингрессы из всех неймспейсов

https://github.com/kubernetes/ingress-nginx/blob/master/docs/deploy/index.md Вот по этой доке.

Stas
29.07.2018
22:25:38
короче это нормально для такого кейса

Juriy
30.07.2018
06:00:22
Dmitry
30.07.2018
06:50:19
Доброе утро )

Alexey
30.07.2018
06:53:20
И он кароч судя по всему читает ингрессы из всех неймспейсов
Ну как-бы ингресс-контроллер может быть только один на хост. Потому что он занимает порт хоста. А то что он может читать все неймспейсы - это разрешается через rbac. А вот уже сами правила ингресс создаёшь в неймспейсах нужных, причём и сервисы и секреты должны быть в этом же неймспейсе

Alexey
30.07.2018
07:56:40
Ребят, посоветуйте туториал установки k8s с нуля (scratch). Хочется в кишочках разобраться. в представленной доке от куберов все свалено в кучу https://kubernetes.io/docs/setup/scratch/ и плохо понимаемо . Может кто заморочился да статейку сваял ?

Google
Pavel
30.07.2018
07:57:35
https://habr.com/post/342232/

Dmitry
30.07.2018
08:02:43
https://docs.containerum.com/kubernetes/installation/

Sergey
30.07.2018
08:06:43
https://github.com/kelseyhightower/kubernetes-the-hard-way/tree/master/docs
вопрос, это старая дока, или на 1.11 переписанная? если старая, то она уже бесполезна

Andor
30.07.2018
08:07:08
прям-таки "бесполезна"?

Alexey
30.07.2018
08:07:13
Sergey
30.07.2018
08:07:47
Чем бесполезная?
ну а смысл хард вей старый ковырять, а потом через новые грабли проходить опять

Andor
30.07.2018
08:08:01
какие новые грабли?

Anton
30.07.2018
08:08:11
1.10.2 там последняя версия, я думаю, вполне актуально

Mikhail
30.07.2018
08:08:37
Какие черезвыяайно новые концепции в 11?

Что все, дока версии 10 не подходит.

Andor
30.07.2018
08:09:06
наверное аписервер стал по-другому запускаться

или етцд

Sergey
30.07.2018
08:09:12
https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG-1.11.md

Andor
30.07.2018
08:10:22
так чем бесполезна-то?

Sergey
30.07.2018
08:11:41
скажем так менее полезна, чем последняя потом опять перековыривать у меня вон до сих пор 1.10 стоит ща все на новый лад переписывать, там кор-днсы всякие

Andor
30.07.2018
08:12:06
что "перековыривать"-то?

Google
Andor
30.07.2018
08:12:16
у нас ваще 1.8

Anton
30.07.2018
08:13:19
я так понял, человек хочется разобраться в архитектуре, в целом, а не продакшн накатить. Даже если в 1.11 придется что-то доперековырять, это будет еще полезнее, если цель — разобраться.

Alexey
30.07.2018
08:40:45
Есть непонятка. Вот если взять статью на хабре, как то уж больно закручено, авторизация SSL + ключи + пароли, не слишком перемудрили,если в большинстве кейсов SSL вполне хватает (если CA свой ествественно)

Сильно не пинайте, пока на уровне «вникаю». Потому могу и глупость спросить

Alex
30.07.2018
08:53:22
Всем привет. Подскажите пожалуйста У меня есть StatefulSet c подом, который состоит из 2х контейнеров с шарены вольюмом https://kubernetes.io/docs/tasks/access-application-cluster/communicate-containers-same-pod-shared-volume/ Если обновляется один из 2х контейнеров - куб завершает оба контейнера и снова поднимает их Можно сделать так, чтобы куб не завершал контейнер, который не обновляется?

Страница 713 из 958