@kubernetes_ru

Страница 551 из 958
Anton
07.05.2018
15:21:49
сам создаст certificate

вообще это ведь в доке освещено и в общем это ж основной вопрос и смысл использования cert-manager

Andrey
07.05.2018
15:27:10
Я то понимаю, думаю вся проблема в разных namespace’ах. Хотя тип cluster-issue

Ладно, спасибо, поковыряю еще завтра

Google
Andrey
07.05.2018
15:27:47
Они вроде как vault прикрутили наконец-то, не тестили?

Andor
07.05.2018
15:28:06
Где?

Andrey
07.05.2018
15:28:59
В cert-manager

Andor
07.05.2018
15:29:25
Только для сертов?

Andrey
07.05.2018
15:31:51
https://github.com/jetstack/cert-manager/pull/292

Andor
07.05.2018
16:54:28
это только для сертификатов?

или там же аутентификация к кубе-апи?

Huan
07.05.2018
17:07:23
странная вообще ошибка. А раннер какого типа?
оказалось что не подтягивалась переменная энва

Anton
07.05.2018
17:35:52
Я то понимаю, думаю вся проблема в разных namespace’ах. Хотя тип cluster-issue
Там же issue and clusterissue, нужно создать или в ns или глобальный

Andrey
07.05.2018
17:42:08
Там же issue and clusterissue, нужно создать или в ns или глобальный
Я об этом писал в сообщении, есть глобальный

Иван
07.05.2018
17:55:33
Всем здравствуйте. Кто может объяснить как кубернетис ведёт себя, когда достигает порогов по imagefs?

Наблюдаю следующую картину, docker ps - выдает список запущенных контейнеров. А при вызове kubectl get pods, пишет что недоступен сервис апи.

И получается, что контейнер запущен, а кубы умерли...

Google
Fike
07.05.2018
17:59:26
imagefs - подразумевается заполненность файловой системы образами?

Иван
07.05.2018
18:01:39
Ну как я понял, что это говорит о заполненности системы и что при достижении порога очистить ненужные образы

Fike
07.05.2018
18:02:00
> If imagefs filesystem has met eviction thresholds, kubelet frees up disk space by deleting all unused images.

Иван
07.05.2018
18:02:52
Это я понимаю. Только в системе все образы нужные и у всех есть запущенные контейнеры.

Fike
07.05.2018
18:02:56
судя по всему, у вас именно апи упал, то, что все остальные контейнеры продолжают жить - так и должно быть, но никаких операций администрирования вы пока, понятно, сделать не можете

В этом случае он не может освободить место, и те контейнеры, которые пишут себе что-то в верхний слой, рискуют рано или поздно столкнуться с ошибкой записи

Иван
07.05.2018
18:04:30
Хорошо, но почему поды умирают?

Как кубы могут удалить под и оставить при этом живой контейнер?

Ведь он должен прибить под, при удаление пода умрет и контейнер.

А у него поды умерли, а контейнеры живее всех живых

Fike
07.05.2018
18:06:07
"Поды умирают" - это по каким физическим признакам был сделан вывод?

Иван
07.05.2018
18:06:31
По признакам, что я не могу достучаться до апишки кубов

Fike
07.05.2018
18:06:50
это не поды умерли, это вы до апишки не можете достучаться

Иван
07.05.2018
18:07:25
Хорошо, но я вижу в netstat, что порт не забинжен

Fike
07.05.2018
18:07:39
теоретически там уже возможно уже никто ни за чем не следит, но в случае падения самого кубера как системы предполагается, что контейнеры продолжают жить, это ожидаемое поведение

Иван
07.05.2018
18:08:30
А можно как понять без апишки, что в системе есть поды?

Скажем по etcd?

Andor
07.05.2018
18:09:02
у тебя мастера на тех же нодах живут что ли, где и поды запускаются?

Иван
07.05.2018
18:09:19
Ну да... Это издержки системы

Fike
07.05.2018
18:09:36
Если умеете читать исходный код, то да, можете с его помощью проанализировать содержимое etcd и понять текущее состояние системы, но я бы в первую очередь сконцетрировался на возврате привычной работоспособности

Google
Иван
07.05.2018
18:09:40
На то есть причины вообщем.

Andor
07.05.2018
18:09:45
ваще апи же вроде стейтлесс, они только в етцд смотрят

может у тебя етцд помер?

Иван
07.05.2018
18:10:09
Ну его контейнер я вижу

Andor
07.05.2018
18:10:14
и?

Иван
07.05.2018
18:10:17
В списке запущенных...

Andor
07.05.2018
18:10:21
это не значит что он жив

Иван
07.05.2018
18:10:46
А что вы подразумеваете под словом жив, тогда?

Если бы он умер, в смысле процесс, то и контейнер за ним?

Fike
07.05.2018
18:11:18
отвечает на запросы в разумное время

Andor
07.05.2018
18:11:28
контейнер может например постоянно перезапускаться и примерно ничего не делать

логи пробовал смотреть?

апи-то почему помер?

Fike
07.05.2018
18:12:05
к тому же у вас все инстансы могли просто потерять друг друга и ждать восстановления кластера. опросить такую штуку тоже вряд ли получится.

Иван
07.05.2018
18:12:06
ImageGc что-то там пришел и попытался очистить память

В смысле образ

Andor
07.05.2018
18:12:27
и задай себе вопрос: почему рекомендуют мастера и етцд отселять на отдельные ноды

стрелять себе в ногу мало любителей

Иван
07.05.2018
18:15:20
Вообщем из всего выше сказано может следовать примерно следующее 1) мертвый под != Мертвый контейнер ?

Fike
07.05.2018
18:15:42
я бы все-таки еще раз проакцентировал, что мертвых подов пока нет

Google
Иван
07.05.2018
18:16:13
Но апишка недоступна...

Fike
07.05.2018
18:16:33
логической связи-то между этим никакой

Иван
07.05.2018
18:16:34
Я бы согласился, но тогда хотя бы сокет был забинжен

Или это тоже ничего не значит?

Fike
07.05.2018
18:18:06
мы не знаем, что это за сокет, многие вещи делаются через iptables и не отображаются в привычном выводе

Andor
07.05.2018
18:18:24
точно место кончилось?

и аписервер запуститься не может?

Иван
07.05.2018
18:21:08
Да, уверен. Да он судя по логам даже не особо старается запуститься. Scheduler усиленно старается всех на свете прибить подряд. Пока не дошел до api сервиса, у него были ошибки вида - не могу удалить образ, т.к. есть запущенный контейнер. А после того, как постарался прибить апишку, стали валится ошибки - недоступен сервис апи

Поэтому я сделал вывод, что он каким-то образом прибил апишку...

Вот и стараюсь выяснить, что кубы делают, когда начинали чистить контейнеры и возможна ли смерть пода без убийства контейнера

Andor
07.05.2018
18:24:29
а логи-то читал той же самой апишки?

Иван
07.05.2018
18:24:29
Кубы очень много чего делают магического... Это одно из них.

Andor
07.05.2018
18:24:39
наоборот, там никакой особой магии нет

Иван
07.05.2018
18:24:43
Да, в syslog

Andor
07.05.2018
18:24:43
читаешь логи и обычно всё понятно

и?

Иван
07.05.2018
18:24:52
И я написал.

Да, уверен. Да он судя по логам даже не особо старается запуститься. Scheduler усиленно старается всех на свете прибить подряд. Пока не дошел до api сервиса, у него были ошибки вида - не могу удалить образ, т.к. есть запущенный контейнер. А после того, как постарался прибить апишку, стали валится ошибки - недоступен сервис апи

Вот что я вычитал в логах

Или сам лог надо?

Google
Andor
07.05.2018
18:25:38
про логи апишки ты ничего вообще не написал

Иван
07.05.2018
18:26:04
Хммм, посмотрю

Спасибо большое. Посмотрю, отпишусь

Nick
08.05.2018
04:02:09
Коллеги подскажите. Gitlab который в облаке использовать в связке ci/cd и k8s использовать можно? До этого в проектах обычно был self hosted всегда. А тут облако на free тарифе. Я так понял там особо ничего изменить под себя нельзя или без разницы будет?

Kanat
08.05.2018
06:36:15
Что такое cattle server в rancher?

Андрэ
08.05.2018
07:18:58
Ну «особо изменить под себя нельзя» - выясняется просто же) есть дока, можно потыкать и понять, хватает всего или нет. Я правка их кубер ещё не пользовал, но вот хочу потестить тоже. CI вполне себе ок Работает все

Kanat
08.05.2018
08:10:16
https://rancher.com/docs/rancher/v2.x/en/installation/server-installation/ha-server-install/#provision-linux-hosts

Кто нибудь пробовал rancher ставить?

Vasilyev
08.05.2018
08:11:02
забудьте вы это язделие

Kanat
08.05.2018
08:11:49
Почему?

Alexandr
08.05.2018
08:15:30
Что такое cattle server в rancher?
В версии 1 это движок который проглатывает docker-compose v2

Uncle
08.05.2018
08:18:58
Господа, добрый день. Я правильно понимаю, что поднять nginx ingress-controller на своём облаке и без внешнего балансировщика невозможно?

Страница 551 из 958