@kubernetes_ru

Страница 702 из 958
Pavel
23.07.2018
11:58:20
ptchol
23.07.2018
12:33:43
Подскажите плиз по Jobs. я вроде бы выставил restartPolicy: Never но джоба всё равно наровит рестартится.

и поставил backoffLimit: 1

Google
Sergei
23.07.2018
12:38:58
Подскажите плиз по Jobs. я вроде бы выставил restartPolicy: Never но джоба всё равно наровит рестартится.
а версия кубера какая? если между 1.10.0 и 1.10.4 (включительно), то там был баг с backoffLimit, он не работал, пофиксили в 1.10.5

ptchol
23.07.2018
12:39:10
чйорт

Sergei
23.07.2018
12:39:50
вот этот был https://github.com/kubernetes/kubernetes/issues/62382

очень сильно мне попортил жизнь в свой время ?

ptchol
23.07.2018
12:40:10
у меня 1.10.4

Sergei
23.07.2018
12:41:49
как воркэраунд можно всем джобам прописать activeDeadlineSeconds

ptchol
23.07.2018
12:42:28
я думаю настало время в первый раз обновить кубер и поучиться этому.

Psy
23.07.2018
12:51:56
О, такаяж проблема

Artyom
23.07.2018
12:52:47
Подскажите, а кто-нибудь делал мульти мастер с помощью kubeadm? Есть годная статья?

Artyom
23.07.2018
13:12:16
Есть ссылочка?

Не на kubespray, а на туториал, если по нему делали

Arslanbekov
23.07.2018
13:13:54
не, туториалов на сколько мне помнится не нашли, делали сами

Google
Arslanbekov
23.07.2018
13:14:06
в бою не заиспользовали, но поднялось как нужно ?

там основной поинт был правильно расставить лейблы на ноды, если память не подводит

Pavel
23.07.2018
13:19:23
Artyom
23.07.2018
13:20:03
Я нашел в оф доке, как это делается, но там еще вкурить надо

kvaps
23.07.2018
13:22:21
еще такая статья была https://medium.com/@bambash/ha-kubernetes-cluster-via-kubeadm-b2133360b198

Dmitry
23.07.2018
13:23:06
Подскажите, а кто-нибудь делал мульти мастер с помощью kubeadm? Есть годная статья?
Делал, статья находится прямо в оф.доке k8s, там ж все просто. Я только по 1.10 делал, в 1.11 ее перепилили сильно вроде.

66271
23.07.2018
13:32:00
Your clusters must run Kubernetes version 1.11 or later. You should also be aware that setting up HA clusters with kubeadm is still experimental.

kvaps
23.07.2018
13:33:45
Запускайте мастер в HA-виртуалке/lxc-контейнере и будет вам счастье

Artyom
23.07.2018
13:36:53
Ок, будем посмотреть, спасибо

Vadim
23.07.2018
13:36:56
в офицальной доке написано "In a cloud environment, neither approach documented here works with Service objects of type LoadBalancer, or with dynamic PersistentVolumes."

66271
23.07.2018
13:39:51
Pavel
23.07.2018
13:42:45
Egor
23.07.2018
13:43:50
docker ps -a | grep apiserver docker logs [id]
исчезает контейнер с api во время проблемы

Andrey
23.07.2018
13:44:19
исчезает контейнер с api во время проблемы
Похоже на eviction. Уберите его в параметрах kubelet'а.

Т.е. оверрайдните дефолтные значения.

И логи заодно посмотрите kubelet'а. Docker сам не будет удалять контейнер.

Egor
23.07.2018
13:46:02
ещё момент, я сделал IP на keepalived между этими тремя нодами, и kubectl натравил именно на него. это норм?

Egor
23.07.2018
13:48:25
Т.е. оверрайдните дефолтные значения.
есть пример под рукой? не могу нагуглить

Google
Andrey
23.07.2018
13:48:44
Нет, я сейчас не за клавиатурой.

Artyom
23.07.2018
13:49:15
Там же везде заточкаНа Google?
А вот мне на baremetal надо

twwlf
23.07.2018
13:50:09
Pavel
23.07.2018
13:53:27
А вот мне на baremetal надо
Кину чуть позже. Как до ноута дойду

Artyom
23.07.2018
13:53:41
Спасибо

Kubespray уже смотрю

Pavel
23.07.2018
13:54:31
Kubespray уже смотрю
Он на 1.10-1.11 вроде не взлетал на железяках судя по мату в сети

На 1.9 ещё ок вроде

Artyom
23.07.2018
13:54:45
плак

ptchol
23.07.2018
13:58:13
У меня 1.10.4 кубспреем на бейрметале

Pavel
23.07.2018
14:00:49
плак
вот тут завелся kubespray https://medium.com/@pmvk/deploying-production-grade-kubernetes-cluster-on-bare-metal-b11c6f3beb87

Artyom
23.07.2018
14:01:23
Спасибо, буду пробовать

Anton
23.07.2018
14:01:58
у меня кубспреем 1.10.2 на BM и на VM несколько кластеров

Pavel
23.07.2018
14:02:48
а вот этот свежий и он собрал на kubeadm https://joshrendek.com/2018/04/kubernetes-on-bare-metal/

у меня собрался rancher'ом 2.0

видимо на вкус и цвет все фломастеры разные)

Спасибо, буду пробовать
требования к хостам только не забудьте соблюсти иначе будут странные глюки с кластером

Salem
23.07.2018
14:37:09
забаньте уже плз

Igor
23.07.2018
14:37:11
а можно в боте автобан сделать на эту штуку?

забаньте уже плз
это не один и тот же, их сотни

Google
Михаил
23.07.2018
14:44:13
а зачем вам бареметал?

зачем мне он я знаю)

Pavel
23.07.2018
14:59:08
плак
кстати, если секса пока мало - можете поробовать ubuntj kubernetes - в 18.04 встроен вроде

я сам хочу как-нибудь но не успел еще)

ptchol
23.07.2018
15:06:12
а зачем вам бареметал?
я бейрметалом называю VM'очки уже )

ой всё. народ тут kubectl с ssh сравнивает )

Valentin
23.07.2018
15:14:35
Driver
23.07.2018
15:16:37
здравый смысл

ptchol
23.07.2018
15:16:50
точняк !

Михаил
23.07.2018
15:16:57
здравый смысл
Не всегда

Valentin
23.07.2018
15:17:07
Driver
23.07.2018
15:17:43
т.е. ssh?
tty на локальный порт

Pavel
23.07.2018
15:33:02
ptchol
23.07.2018
16:59:33
А можно в nginx ingress controller как то сделать nginx.ingress.kubernetes.io/rewrite-target но не целиком для vhost а для отдельного backend ?

Alexey
23.07.2018
17:01:00
2 ingress

ptchol
23.07.2018
17:07:11
Непонял

Валентин
23.07.2018
17:24:30
Я нашел в оф доке, как это делается, но там еще вкурить надо
Да даж на хабре от фланта была статья, там еще и с containerd, но суть схемы с 3мя мастерами от этого не зависит. Они keepalived + nginx использовали для HA'шности, помнится

Igor
23.07.2018
17:27:38
Непонял
Один ингресс контроллер. Два ингресс объекта деплоишь

Andrey
23.07.2018
17:29:54
А можно в nginx ingress controller как то сделать nginx.ingress.kubernetes.io/rewrite-target но не целиком для vhost а для отдельного backend ?
У вас будет 2 ямла. В одном будет ВХОСТ + path специфичный. для которого надо сделать rewrite И будет ямлик с этим же ВХОСтом и всеми остальными path'ами без аннотации реврайта

Google
Igor
23.07.2018
17:30:46
Вот Андрей намного лучше чем я объяснил

Valera
23.07.2018
17:41:43
Всем привет. А как на GKE заставить nginx ingress использовать выделенный ранее global-static-ip-name? У GKE ingress это делалось выставлением metadata.annotations.kubernetes.io/ingress.global-static-ip-name: 'ip-name'

А ещё стоит вот такая аннотация, но всё равно с http на https редиректит, как отключить-то? nginx.ingress.kubernetes.io/ssl-redirect: "false"

ptchol
23.07.2018
19:29:58
Вроде всё заработало. Спасибо огромное.

Andrey
23.07.2018
19:30:41
не за что

Andrey
23.07.2018
20:57:17
Всем привет. Ребят, а почему дашборд может повисать? Просто в какой то момент перестает грузить информацию при смене неймспейса например, и после перезагрузки страницы не грузится вообще

scale=0 -> scale=1 помогает на 1 запрос

Страница 702 из 958