
Pavel
23.07.2018
11:58:20

ptchol
23.07.2018
12:33:43
Подскажите плиз по Jobs. я вроде бы выставил restartPolicy: Never но джоба всё равно наровит рестартится.
и поставил backoffLimit: 1

Михаил
23.07.2018
12:36:52

Google

Sergei
23.07.2018
12:38:58

ptchol
23.07.2018
12:39:10
чйорт

Sergei
23.07.2018
12:39:50
вот этот был https://github.com/kubernetes/kubernetes/issues/62382
очень сильно мне попортил жизнь в свой время ?

ptchol
23.07.2018
12:40:10
у меня 1.10.4

Sergei
23.07.2018
12:41:49
как воркэраунд можно всем джобам прописать activeDeadlineSeconds

ptchol
23.07.2018
12:42:28
я думаю настало время в первый раз обновить кубер и поучиться этому.

Psy
23.07.2018
12:51:56
О, такаяж проблема

Artyom
23.07.2018
12:52:47
Подскажите, а кто-нибудь делал мульти мастер с помощью kubeadm? Есть годная статья?

Arslanbekov
23.07.2018
13:11:47

Artyom
23.07.2018
13:12:16
Есть ссылочка?
Не на kubespray, а на туториал, если по нему делали

Arslanbekov
23.07.2018
13:13:54
не, туториалов на сколько мне помнится не нашли, делали сами

Google

Arslanbekov
23.07.2018
13:14:06
в бою не заиспользовали, но поднялось как нужно ?
там основной поинт был правильно расставить лейблы на ноды, если память не подводит

Pavel
23.07.2018
13:19:23

Artyom
23.07.2018
13:20:03
Я нашел в оф доке, как это делается, но там еще вкурить надо

kvaps
23.07.2018
13:22:21
еще такая статья была
https://medium.com/@bambash/ha-kubernetes-cluster-via-kubeadm-b2133360b198

Dmitry
23.07.2018
13:23:06

66271
23.07.2018
13:32:00
Your clusters must run Kubernetes version 1.11 or later. You should also be aware that setting up HA clusters with kubeadm is still experimental.

kvaps
23.07.2018
13:33:45
Запускайте мастер в HA-виртуалке/lxc-контейнере и будет вам счастье

Artyom
23.07.2018
13:36:53
Ок, будем посмотреть, спасибо

Vadim
23.07.2018
13:36:56
в офицальной доке написано "In a cloud environment, neither approach documented here works with Service objects of type LoadBalancer, or with dynamic PersistentVolumes."

Pavel
23.07.2018
13:39:00

66271
23.07.2018
13:39:51

Pavel
23.07.2018
13:42:45

Egor
23.07.2018
13:43:50

Andrey
23.07.2018
13:44:19
Т.е. оверрайдните дефолтные значения.
И логи заодно посмотрите kubelet'а. Docker сам не будет удалять контейнер.

Egor
23.07.2018
13:46:02
ещё момент, я сделал IP на keepalived между этими тремя нодами, и kubectl натравил именно на него. это норм?

Andrey
23.07.2018
13:48:12

Egor
23.07.2018
13:48:25

Google

Andrey
23.07.2018
13:48:44
Нет, я сейчас не за клавиатурой.

Artyom
23.07.2018
13:49:15

twwlf
23.07.2018
13:50:09

Pavel
23.07.2018
13:53:27

Artyom
23.07.2018
13:53:41
Спасибо
Kubespray уже смотрю

Pavel
23.07.2018
13:54:31
На 1.9 ещё ок вроде

Artyom
23.07.2018
13:54:45
плак

ptchol
23.07.2018
13:58:13
У меня 1.10.4 кубспреем на бейрметале

Pavel
23.07.2018
14:00:49
плак
вот тут завелся kubespray
https://medium.com/@pmvk/deploying-production-grade-kubernetes-cluster-on-bare-metal-b11c6f3beb87

Artyom
23.07.2018
14:01:23
Спасибо, буду пробовать

Anton
23.07.2018
14:01:58
у меня кубспреем 1.10.2 на BM и на VM несколько кластеров

Pavel
23.07.2018
14:02:48
а вот этот свежий и он собрал на kubeadm
https://joshrendek.com/2018/04/kubernetes-on-bare-metal/
у меня собрался rancher'ом 2.0
видимо на вкус и цвет все фломастеры разные)

Salem
23.07.2018
14:37:09
забаньте уже плз

Igor
23.07.2018
14:37:11
а можно в боте автобан сделать на эту штуку?

Google

Михаил
23.07.2018
14:44:13
а зачем вам бареметал?
зачем мне он я знаю)

Pavel
23.07.2018
14:59:08
плак
кстати, если секса пока мало - можете поробовать ubuntj kubernetes - в 18.04 встроен вроде
я сам хочу как-нибудь но не успел еще)

ptchol
23.07.2018
15:06:12
ой всё. народ тут kubectl с ssh сравнивает )

Михаил
23.07.2018
15:13:27

Valentin
23.07.2018
15:14:35

Driver
23.07.2018
15:16:37
здравый смысл

ptchol
23.07.2018
15:16:50
точняк !

Михаил
23.07.2018
15:16:57

Valentin
23.07.2018
15:17:07

Driver
23.07.2018
15:17:43

Pavel
23.07.2018
15:33:02

ptchol
23.07.2018
16:59:33
А можно в nginx ingress controller как то сделать nginx.ingress.kubernetes.io/rewrite-target но не целиком для vhost а для отдельного backend ?

Alexey
23.07.2018
17:01:00
2 ingress

ptchol
23.07.2018
17:07:11
Непонял

Валентин
23.07.2018
17:24:30

Igor
23.07.2018
17:27:38
Непонял
Один ингресс контроллер. Два ингресс объекта деплоишь

Andrey
23.07.2018
17:29:54

Google

Igor
23.07.2018
17:30:46
Вот Андрей намного лучше чем я объяснил

Михаил
23.07.2018
17:34:28

Valera
23.07.2018
17:41:43
Всем привет. А как на GKE заставить nginx ingress использовать выделенный ранее global-static-ip-name? У GKE ingress это делалось выставлением metadata.annotations.kubernetes.io/ingress.global-static-ip-name: 'ip-name'
А ещё стоит вот такая аннотация, но всё равно с http на https редиректит, как отключить-то? nginx.ingress.kubernetes.io/ssl-redirect: "false"

Andrey
23.07.2018
18:50:51

ptchol
23.07.2018
19:29:38

Andrey
23.07.2018
19:29:49

ptchol
23.07.2018
19:29:58
Вроде всё заработало. Спасибо огромное.

Andrey
23.07.2018
19:30:41
не за что

Andrey
23.07.2018
20:57:17
Всем привет.
Ребят, а почему дашборд может повисать?
Просто в какой то момент перестает грузить информацию при смене неймспейса например, и после перезагрузки страницы не грузится вообще
scale=0 -> scale=1 помогает на 1 запрос