@kubernetes_ru

Страница 832 из 958
DASTAN
19.09.2018
05:30:50
выдает неинформативные сообщения, аля “Kubernetes error.”

уже сны вижу с этими нодами)

насколько плохо деплоить образы в кластер напрямую через gitlab runner?

Google
DASTAN
19.09.2018
06:08:21
абсолютно нормально)
))) здорово, потому что я устал дебажить проблему интеграции с гитлабом, скудное количество инцидентов что-ли или кубер так быстро развивается, что гитлаб не поспевает синхронизироваться

Alexandr
19.09.2018
06:09:04
абсолютно нормально)
я думаю через docker registry правильнее

DASTAN
19.09.2018
06:10:14
я думаю через docker registry правильнее
да, вы правы, деплоить из докер реджистри, но запуск команды будет происходить из гитлаб раннера

Alexandr
19.09.2018
06:11:37
ну да, правильно, нужно же команду послать

DASTAN
19.09.2018
06:12:34
ну спасибо ребят, успокоили)

Andrey
19.09.2018
06:13:26
ну спасибо ребят, успокоили)
helm это как раз обертка вокруг обычного деплоя

ну если это можно так назвать ?

DASTAN
19.09.2018
06:13:53
то есть ставить его в гитлаб раннер и деплоить через него?

Alexander N.
19.09.2018
06:16:14
Подскажите - можно ли ингрессу подсунуть регулярку для server name?

есть куча поддоменов отличающихся парой-тройкой букв

писать 80+ алиасов совсем дико как-то

на обычном nginx это делается без проблем, а вот на ингрессе непонятно

Sergei
19.09.2018
06:25:17
Я в своё время пофейлился с регулярками и ингрессом. Пришлось делать кастомный шаблон конфига

Google
DASTAN
19.09.2018
06:27:32
А как ты делал иначе?
Пытался настроить автоматическую интеграцию гитлаба и кубера

Alexander N.
19.09.2018
06:28:00
mio
19.09.2018
06:32:05
доброе утро! я правильно понимаю, что в случае с nbd невозможно "заказать" нарезать новое блочное устройство? т.е. в качестве бэкенда для pvc с динамическим выделением ресурсов не подходит?

Alexander
19.09.2018
08:23:33
Как правильно делать, у меня кластер 3 мастера и 5 воркеров,на воркерах крутится веб прилодение. Где размещать правильно ингресс нджинкса, на каждом воркере или на мастерах? Нужно ли вообще чтото на мастерах ставить или не стоит?

Artem
19.09.2018
08:24:59
по хорошему надо выделить 1+ воркер для ингресса, поставить на него метку, что-то типа role=ingress и запускать ингресс там

Artem
19.09.2018
08:25:33
не менее 1

у нас 2

т.е. пролейблить несколько нод

ну и ингресс контроллер запускать демонсетом

Alexander
19.09.2018
08:26:44
А если нода перестала существовать то на оьорудовании выше которое смотрит на адрес воркера тоже надо будет производить изменения?

Artem
19.09.2018
08:26:50
да

Alexander
19.09.2018
08:27:26
Разве это правильно? В том плане что мастера их адреса и колво в основном стаичны, не выгодней ли разместить там?

В чем профит от размещения на 1+ ноде а не на всех?

Artem
19.09.2018
08:28:35
в том, что нет опасности заафектить ингресс каким-нибудь сломанным подом, который ноду положит

можно и так,

up to you

kvaps
19.09.2018
08:42:31
доброе утро! я правильно понимаю, что в случае с nbd невозможно "заказать" нарезать новое блочное устройство? т.е. в качестве бэкенда для pvc с динамическим выделением ресурсов не подходит?
Привет, nbd - это просто протокол доставки блочного устройства, очень простой и не очень надежный. И насколько мне известно kubernetes не поддерживает его из коробки. Имхо iscsi - намного стабильнее.

Google
kvaps
19.09.2018
08:42:43
Как в случае и с iscsi экспортируемое устройство должно быть уже создано на сервере.

Artem
19.09.2018
08:42:52
В чем профит от размещения на 1+ ноде а не на всех?
У нас на этих нодах только ингресс, ну и filebeat с prometheus-node-exporter для логирования и мониторинга

Artem
19.09.2018
08:44:09
нет, про ноды с role=ingress

mio
19.09.2018
09:25:13
@kvaps но спомощью кастомного CSI можно их создавать получается

DASTAN
19.09.2018
10:25:33
что я делаю не так, я создал деплоймент, создал сервис и теперь пытаюсь стучаться по NodePort и порту на этот сервис, но в браузере site cannot be reached

кластер через kubespray развернул

mio
19.09.2018
10:39:47
А у вас прямая видимость этого хоста есть?

Посмотрите на хосте вывод netstat -antp | grep LIST

Roman
19.09.2018
11:47:44
всем привет

пытаюсь прикрутить цеф к кубу, имею следующую проблему: kubectl get pvc -n kubecloud NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE claim Pending fast 4m kubectl describe pvc -n kubecloud Name: claim Namespace: kubecloud StorageClass: fast Status: Pending Events: Type Reason Age From Message ---- ------ ---- ---- ------- Warning ProvisioningFailed 8s (x20 over 4m) persistentvolume-controller Failed to provision volume with StorageClass "fast": failed to create rbd image: executable file not found in $PATH, command output:

подскажите как посмотреть подробные логи, что не получается у него?

Alexander
19.09.2018
11:50:42
потому что в дефолтном kube-controller нету бинарника

Roman
19.09.2018
11:53:04
можно подробней? я не понял, что где посмотреть?

Andrey
19.09.2018
11:53:49
ceph-common стоит на нодах?

Roman
19.09.2018
11:55:28
да 12.2.8-1~bpo90+1

цеф установлен не в кубе, отдельно

Alexander
19.09.2018
11:57:24
у тебя в контейнере должен быть rbd,что бы маунтить волюмы

его там в стандартном контейнере нету

ссылку не дает вставить

Google
Roman
19.09.2018
12:00:30
интересно, в сиписке чатов ссылка есть а в чате нет)

Maksim
19.09.2018
12:19:13
цеф установлен не в кубе, отдельно
К тебя kubelet контейнеризирован? Дык прокинь библиотеки через bind mount

Roman
19.09.2018
12:19:59
мне тут вроде подсказали я пропустил пунк про замену образа kube-controller-manager

еще не проверил, отпишусь

Maksim
19.09.2018
12:20:49
Не. Тебе провижен нужен контроллер заменять точно не надо

Провижен ты можешь натравить и на внешний цеф.

Andrey
19.09.2018
12:23:18
бинарь rbd нужен, а его нет в текущем image для kube-controller-manager, хотя у меня с 1.9.2 (еще на coreos в контейнерах) бинарник уже был

и сейчас есть в 1.11 (gcr.io/google-containers/hyperkube:v1.11.1)

Alexander
19.09.2018
12:24:14
ну bind-mount - костыль

Andrey
19.09.2018
12:24:15
да, самое простое - биндить

Roman
19.09.2018
12:24:29
где тут смайл с взорвавшимся мозгомм

Maksim
19.09.2018
12:24:37
ну bind-mount - костыль
Почему? И что такое костыль?)

Andrey
19.09.2018
12:25:00
я просто удивился что внутри образа нет rbd бинарника. Интересна версия k8s

Maksim
19.09.2018
12:25:07
Мне всегда интересно как люди определяют что костыль а что нет.)

Alexander
19.09.2018
12:25:30
у каждого свое понятие.Для кого-то это нормально,для кого-то "и тааак сойдет (с)"

Maksim
19.09.2018
12:25:35
Кстати офф тема от цефа это делать отдельный контейнер с провизингом

Roman
19.09.2018
12:26:52
в общем помогло подменить образ

осталось понять как теперь этот волюм юзать

Maksim
19.09.2018
12:28:23
https://github.com/ceph/ceph-container/blob/master/examples/kubernetes/rbd-provisioner/README.md

Google
Maksim
19.09.2018
12:29:32
Так что замена образа то же в какой-то мере костыль)

kvaps
19.09.2018
12:32:49
почему? я пробовал rbd-provisioner - отлично работает

Михаил
19.09.2018
12:33:39
а так мне просто не нравится держать части ceph в докере

любые части)

Страница 832 из 958