@kubernetes_ru

Страница 649 из 958
Sergey
28.06.2018
12:22:18
ну

Nikolay
28.06.2018
12:22:44
так вот, если я сношу неймспейс и все в нем, то в PV остается висеть ссылка на несуществующий claim в несуществующем неймспейсе

Sergey
28.06.2018
12:23:04
ты хочешь чтобы pvc удалялся с ним?

Nikolay
28.06.2018
12:23:05
я понимаю на базовом уровне, что это издержки политики Reclaim

Google
Nikolay
28.06.2018
12:23:24
ты хочешь чтобы pvc удалялся с ним?
я хочу, чтобы из pv удалялась ссылка на Claim и он снова был available

Sergey
28.06.2018
12:23:53
типа ты хочешь его реклеймить после того как убил неймспейс?

Andor
28.06.2018
12:23:59
PV не привязан к неймспейсам

Nikolay
28.06.2018
12:24:06
да, потому что он не привязан к неймспейсу

Sergey
28.06.2018
12:24:15
Nikolay
28.06.2018
12:24:24
я хочу, чтобы его можно было спокойно зареклеймить из другого

Andor
28.06.2018
12:24:30
ну так они в обратную сторону тоже не привязаны

"его" - кого? pv хочешь заклеймить из другого неймспейса?

Nikolay
28.06.2018
12:24:47
ну так они в обратную сторону тоже не привязаны
так ссылка-то остается на несуществующий объект

но низя, ибо висит claimref на то, чего больше тупо нет

имхо, это баг, но, может, я чего не понимаю

Andor
28.06.2018
12:25:51
слушай, а расскажи лучше чо за задача такая что надо между неймспейсами волюм перекидывать

Google
Nikolay
28.06.2018
12:26:42
слушай, а расскажи лучше чо за задача такая что надо между неймспейсами волюм перекидывать
ну, есть LVM разделы, и поверх них должны разные команды работать с разграничением по ресурсам. Одна команда поработала - снесла неймспейс - вольюм должен освободиться, чтобы с ним могла поработать другая

Andor
28.06.2018
12:27:00
а другой нельзя?

Nikolay
28.06.2018
12:27:08
а с чего бы другой?

Andor
28.06.2018
12:27:08
а старый просто грохнуть

Sergey
28.06.2018
12:27:28
может просто pvc новый передавать и все?

Nikolay
28.06.2018
12:27:33
так зачем его грохать? если я отредактирую его руками и выкину оттуда невалидный claimref - все работает

но это ощущается, как костыль

Andor
28.06.2018
12:27:52
нельзя ли грохать пв и давать новый?

Sergey
28.06.2018
12:27:54
^_^

Nikolay
28.06.2018
12:28:28
нельзя ли грохать пв и давать новый?
не очень хорошая идея, потому что pv - Local

то есть гвоздями прибиты к нодам, поэтому я создаю их заранее

Andor
28.06.2018
12:28:43
не вижу связи между "локал" и "не очень хорошая идея"

Nikolay
28.06.2018
12:28:55
а от лица команд я не должен думать о том, на какой ноде создавать pv

то есть пересоздавать его каждый раз - идея плохая

Andor
28.06.2018
12:29:21
что плохого-то?

не очень понимаю

Nikolay
28.06.2018
12:29:25
клеймиться должен просто первый свободный на любой ноде

что плохого-то?
ну представь, у тебя сотня машин и на каждой по сотне разделов

Andor
28.06.2018
12:29:51
сотня?

Sergey
28.06.2018
12:29:56
PV оставляете живым удаляете pvc привязываете на новый или я что то упускаю

Google
Nikolay
28.06.2018
12:29:57
ты что, каждый раз при создании окружения будешь искать, на какой есть один незанятый раздел?

Andor
28.06.2018
12:30:03
я скорее ceph подниму чем с локал волюмами будут радовать себя

Nikolay
28.06.2018
12:30:21
PV оставляете живым удаляете pvc привязываете на новый или я что то упускаю
так в том и вопрос, что при удалении PVC ссылка на него остается в PV

Andor
28.06.2018
12:30:33
Sergey
28.06.2018
12:30:38
?

Andor
28.06.2018
12:30:41
а как именно у тебя спиливается привязка?

Nikolay
28.06.2018
12:30:49
я сношу неймспейс целиком, вместе с клеймами

Andor
28.06.2018
12:31:00
ну ты сказал что есть способ удалить реф

Nikolay
28.06.2018
12:31:11
Andor
28.06.2018
12:31:25
ага

Nikolay
28.06.2018
12:31:41
если удалить ref - то pv сразу становится опять available

Nikolay
28.06.2018
12:31:44
и все работает

но это ж треш

Andor
28.06.2018
12:32:40
Ну да, некрасиво

Чо в багтрекере про это есть?

Версия какая?

Nikolay
28.06.2018
12:33:08
1.10

есть что-то такое https://github.com/kubernetes/kubernetes/issues/29051

но это не совсем то, и большая часть таких закрыта уже

Google
Sergey
28.06.2018
12:33:28
Documentation for Kubernetes v1.10 is no longer actively maintained. The version you are currently viewing is a static snapshot. For up-to-date documentation, see the latest version

Andor
28.06.2018
12:33:52
Но сначала глянь чейнжлог для 1.11, там было что-то похожее

Nikolay
28.06.2018
12:35:13
Sergey
28.06.2018
12:35:54
☺️

Nikolay
28.06.2018
12:41:01
Но сначала глянь чейнжлог для 1.11, там было что-то похожее
спасибо, есть шанс, что там реально это уже пофикшено

попробую обновиться, что ли

Admin
ERROR: S client not available

Andor
28.06.2018
12:42:03
Сначала прочитай

Возможно я неправильно запомнил

Nikolay
28.06.2018
12:42:34
у меня это тестовый кластер, я могу позволить себе его апнуть без особых проблем

хоть что-то хорошее

но потом такого счастья уже не будет

Andor
28.06.2018
12:44:02
Всё равно лучше сначала прочитать

Nikolay
28.06.2018
12:44:56
я пока вижу только StorageProtection

для PVC

Banschikov
28.06.2018
12:45:44
Всем привет! Некогда не сталкивались с таким, если через helm создавать больше 10 портов для сервиса, то после этого апишка k8s перестает отвечать?

и естевтсвенно операция заканчивается ошибкой

helm install --name test ftp-accessor 1 ↵ E0628 17:42:53.787983 28705 portforward.go:178] lost connection to pod Error: transport is closing

Логи kube-api смотрел. Когда начинает работу tiller, то связь сразу обрывается

Google
Vitaliy
28.06.2018
13:17:43
Потому что у тебя тиллер на tls

helm ls —tls

Banschikov
28.06.2018
13:21:24
helm ls —tls
Нет. Если внимательно посмотреть мой лог выше, то можно увидеть что данная ошибка появляется после выполнения команды helm install.

Потому что у тебя тиллер на tls
Я про то что имнно с этим чартом такое происходит. Все остальное норм

Vitaliy
28.06.2018
13:24:15
Нет. Если внимательно посмотреть мой лог выше, то можно увидеть что данная ошибка появляется после выполнения команды helm install.
сорян, если хелм изначально не был инициализирован с tls, то тогда да, отпадает. И не важно, что ты будешь делать с helm'ом - install/delete и тд. Он все равно всегда обращается к тиллеру. Попробуй запустить в —debug —dry-run

Anton
28.06.2018
13:31:54
Добрый день! Подскажите по этому вопросу https://stackoverflow.com/questions/51083020/can-i-use-kubespray-without-kubespray-git-repo

Vitaliy
28.06.2018
13:41:52
Конечно пробовал. Чарт валидный показывает все ок. потом все крашется.
Ну ты же понимаешь, что не может быть просто так такого, если у тебя один чарт нормально ставится, а другой - нет. Соответственно, выведи темплейт и руками попробуй поставить, увидишь, где затык. Мб вообще в timeout или еще в чем

Banschikov
28.06.2018
13:45:59
А что в логах apiserver-то?
Видно что Tiller начинает работу, а потом связь с apiserver пропадает

Andrey
28.06.2018
13:46:17
Пропадает связь и больше нет логов?

Banschikov
28.06.2018
13:54:28
Пропадает связь и больше нет логов?
Ага.И некоторое время s apiserver не доступен

Andrey
28.06.2018
13:54:33
Кто отменил docker logs [id_контейнера_apiserver'а_на_ноде]? Почему я не в курсе? :)

Banschikov
28.06.2018
13:55:26
Andrey
28.06.2018
13:56:33
Божечки, что же у вас происходит такое в инфраструктуре?

Banschikov
28.06.2018
13:58:06
Божечки, что же у вас происходит такое в инфраструктуре?
В том что в облачке кластер тестовый. У меня нет от него креденшелов. Да и какая разница. Я задал вопрос, а тебя вообще понесло кудато

Божечки, что же у вас происходит такое в инфраструктуре?
Ладно, бессмысленный разговор.Буду завтра разбиратся

Andor
28.06.2018
13:58:48
На ноду в данное время нет доступа
А сделай привелигированый контейнер и смонтируй в него / с хоста :)

Страница 649 из 958