
Sergey
28.06.2018
12:22:18
ну

Nikolay
28.06.2018
12:22:44
так вот, если я сношу неймспейс и все в нем, то в PV остается висеть ссылка на несуществующий claim в несуществующем неймспейсе

Sergey
28.06.2018
12:23:04
ты хочешь чтобы pvc удалялся с ним?

Nikolay
28.06.2018
12:23:05
я понимаю на базовом уровне, что это издержки политики Reclaim

Google

Nikolay
28.06.2018
12:23:24

Sergey
28.06.2018
12:23:53
типа ты хочешь его реклеймить после того как убил неймспейс?

Andor
28.06.2018
12:23:59
PV не привязан к неймспейсам

Nikolay
28.06.2018
12:24:06
да, потому что он не привязан к неймспейсу

Sergey
28.06.2018
12:24:15

Nikolay
28.06.2018
12:24:24
я хочу, чтобы его можно было спокойно зареклеймить из другого

Andor
28.06.2018
12:24:30
ну так они в обратную сторону тоже не привязаны
"его" - кого? pv хочешь заклеймить из другого неймспейса?

Nikolay
28.06.2018
12:24:47
но низя, ибо висит claimref на то, чего больше тупо нет
имхо, это баг, но, может, я чего не понимаю

Andor
28.06.2018
12:25:51
слушай, а расскажи лучше чо за задача такая что надо между неймспейсами волюм перекидывать

Google

Nikolay
28.06.2018
12:26:42

Andor
28.06.2018
12:27:00
а другой нельзя?

Nikolay
28.06.2018
12:27:08
а с чего бы другой?

Andor
28.06.2018
12:27:08
а старый просто грохнуть

Sergey
28.06.2018
12:27:28
может просто pvc новый передавать и все?

Nikolay
28.06.2018
12:27:33
так зачем его грохать? если я отредактирую его руками и выкину оттуда невалидный claimref - все работает
но это ощущается, как костыль

Andor
28.06.2018
12:27:52
нельзя ли грохать пв и давать новый?

Sergey
28.06.2018
12:27:54
^_^

Nikolay
28.06.2018
12:28:28
то есть гвоздями прибиты к нодам, поэтому я создаю их заранее

Andor
28.06.2018
12:28:43
не вижу связи между "локал" и "не очень хорошая идея"

Nikolay
28.06.2018
12:28:55
а от лица команд я не должен думать о том, на какой ноде создавать pv
то есть пересоздавать его каждый раз - идея плохая

Andor
28.06.2018
12:29:21
что плохого-то?
не очень понимаю

Nikolay
28.06.2018
12:29:25
клеймиться должен просто первый свободный на любой ноде
что плохого-то?
ну представь, у тебя сотня машин и на каждой по сотне разделов

Andor
28.06.2018
12:29:51
сотня?

Sergey
28.06.2018
12:29:56
PV оставляете живым
удаляете pvc
привязываете на новый
или я что то упускаю

Google

Nikolay
28.06.2018
12:29:57
ты что, каждый раз при создании окружения будешь искать, на какой есть один незанятый раздел?

Andor
28.06.2018
12:30:03
я скорее ceph подниму чем с локал волюмами будут радовать себя

Nikolay
28.06.2018
12:30:21

Andor
28.06.2018
12:30:33

Sergey
28.06.2018
12:30:38
?

Andor
28.06.2018
12:30:41
а как именно у тебя спиливается привязка?

Nikolay
28.06.2018
12:30:49
я сношу неймспейс целиком, вместе с клеймами

Andor
28.06.2018
12:31:00
ну ты сказал что есть способ удалить реф

Nikolay
28.06.2018
12:31:11

Andor
28.06.2018
12:31:25
ага

Nikolay
28.06.2018
12:31:41
если удалить ref - то pv сразу становится опять available

Nikolay
28.06.2018
12:31:44
и все работает
но это ж треш

Andor
28.06.2018
12:32:40
Ну да, некрасиво
Чо в багтрекере про это есть?
Версия какая?

Nikolay
28.06.2018
12:33:08
1.10
есть что-то такое https://github.com/kubernetes/kubernetes/issues/29051
но это не совсем то, и большая часть таких закрыта уже

Google

Sergey
28.06.2018
12:33:28
Documentation for Kubernetes v1.10 is no longer actively maintained. The version you are currently viewing is a static snapshot. For up-to-date documentation, see the latest version

Andor
28.06.2018
12:33:52
Но сначала глянь чейнжлог для 1.11, там было что-то похожее

Nikolay
28.06.2018
12:35:13

Sergey
28.06.2018
12:35:54
☺️

Nikolay
28.06.2018
12:41:01
попробую обновиться, что ли

Admin
ERROR: S client not available

Andor
28.06.2018
12:42:03
Сначала прочитай
Возможно я неправильно запомнил

Nikolay
28.06.2018
12:42:34
у меня это тестовый кластер, я могу позволить себе его апнуть без особых проблем
хоть что-то хорошее
но потом такого счастья уже не будет

Andor
28.06.2018
12:44:02
Всё равно лучше сначала прочитать

Nikolay
28.06.2018
12:44:56
я пока вижу только StorageProtection
для PVC

Banschikov
28.06.2018
12:45:44
Всем привет! Некогда не сталкивались с таким, если через helm создавать больше 10 портов для сервиса, то после этого апишка k8s перестает отвечать?
и естевтсвенно операция заканчивается ошибкой
helm install --name test ftp-accessor 1 ↵
E0628 17:42:53.787983 28705 portforward.go:178] lost connection to pod
Error: transport is closing
Логи kube-api смотрел. Когда начинает работу tiller, то связь сразу обрывается

Google

Vitaliy
28.06.2018
13:17:43
Потому что у тебя тиллер на tls
helm ls —tls

Banschikov
28.06.2018
13:21:24
helm ls —tls
Нет. Если внимательно посмотреть мой лог выше, то можно увидеть что данная ошибка появляется после выполнения команды helm install.

Vitaliy
28.06.2018
13:24:15

Banschikov
28.06.2018
13:29:42

Anton
28.06.2018
13:31:54
Добрый день! Подскажите по этому вопросу https://stackoverflow.com/questions/51083020/can-i-use-kubespray-without-kubespray-git-repo

Vitaliy
28.06.2018
13:41:52

Banschikov
28.06.2018
13:43:38

Andrey
28.06.2018
13:44:59

Banschikov
28.06.2018
13:45:59

Andrey
28.06.2018
13:46:17
Пропадает связь и больше нет логов?

Banschikov
28.06.2018
13:54:28

Andrey
28.06.2018
13:54:33
Кто отменил docker logs [id_контейнера_apiserver'а_на_ноде]? Почему я не в курсе? :)

Banschikov
28.06.2018
13:55:26

Andrey
28.06.2018
13:56:33
Божечки, что же у вас происходит такое в инфраструктуре?

Banschikov
28.06.2018
13:58:06

Andor
28.06.2018
13:58:48