@kubernetes_ru

Страница 570 из 958
Harry
18.05.2018
12:21:20
Но такая проблема в основном у тех, кто делает по чьим-то howto, которые быстро протухают

Сам на это попался

Anton
18.05.2018
12:21:33
Именно

Dmytro
18.05.2018
12:22:18
так самый правильный путь - почитать как люди делают и сделать по аналогии

Google
Anton
18.05.2018
12:22:37
Как делают или как делали?

Dmytro
18.05.2018
12:22:45
а не пытаться натянуть сову на глобус не понимая что там как с чем работает да еще и от версии разнится

Как делают или как делали?
а откуда тебе знать если ты видишь этот продукт первый раз?

Anton
18.05.2018
12:26:28
Несколько раз встретив подобные вещи, появляется понимание, что продукт несколько бежит вперёд хаутушечек и документации

Konstantin
18.05.2018
12:26:44
Столкулся еще с одной проблемой. Как правильно сгенерировать tls секрет лля ingress, в случае, когда есть цепочка своих untrusted сертификатов, подписанных своим CA? Каков порядок catа файлов в файл сертификата и в файл ключа, которые потом станут секретом?

Andor
18.05.2018
12:33:14
а без ингресса и кубера умеешь это настраивать?

Anton
18.05.2018
12:33:43
Наверно, цепочку cert, CA, root в certfile, ключ в keyfile, да kubectl create secret tls secretname --key keyfile --cert certfile

Konstantin
18.05.2018
12:37:28
а без ингресса и кубера умеешь это настраивать?
Судя по гуглежу там есть определенный порядок.

Andor
18.05.2018
12:37:57
То есть ты это никогда раньше в жизни не настраивал, так?

Dmytro
18.05.2018
12:39:21
сделай сначала локально что нжинкс взлетел, потом уже подкинешь в нужные места в ингрессе

но по сути там сертификат первый и дальше все CA по цепочке конкатенируешь в один файл

Harry
18.05.2018
12:44:41
Кстати, в кубе все в принципе понятно, остальное доходится при помощи смекалки. Либо это уже проблемы порога вхождения.

Я прям в восторге от того, как там классно все устроено.

Google
Andor
18.05.2018
12:46:27
ты ещё скажи "просто"

Harry
18.05.2018
12:47:44
Кстати, да.

Konstantin
18.05.2018
12:49:03
Harry
18.05.2018
12:50:27
Нужно просто понять все сущности куба и их иерархию. Это описано в первых страницах мануала. Остальное - мелочи, которые решаются либо тыком, либо скрупулёзным изучением мануалов.

Алексей
18.05.2018
12:56:25
Деплою в куб, нужно понять что деплой успешен или нет в рамках задаваемого таймаута У когонить готовые рецепты есть или костылить на баше?

Алексей
18.05.2018
12:58:29
Нет

Kontemplate для шаблонизации и скрипты

bebebe
18.05.2018
12:59:16
я имею в виду, вы не рассматривали возможность его использовать вместо того что бы костылить на баше?

там этот функционал из коробки.

Andrey
18.05.2018
13:00:00
В тему актуальной документации: у кого-нибудь есть рабочий пример мониторинга, например, nginx с помощью prometheus operator?

Алексей
18.05.2018
13:01:20
У меня нет желания бороться с приколами helm Трогал, не понравилось Простые шаблоны + немного обвязки меня устраивает

Andor а что не так?

Harry
18.05.2018
13:16:35
Приколы Хелм? Там же просто все.

Dmytro
18.05.2018
13:19:39
а kubectl rollout status не подходит?

для кейса когда меняется только image в деплоейменте - должно быть достаточно

Sergey
18.05.2018
13:34:53
ну если вы хельм не хотите) пушьте ямлик, и смотрите пока все не станет Running, обновлением инфы раз в сколько то сек))

bebebe
18.05.2018
13:37:48
watch kubectl get pods —all-namespaces?
нужно так же смотреть и в loadbalancer если они существуют например на aws, иногда они деплояются сильно долго (до 3-4 минут), а поды уже ready

Google
Stanislav
18.05.2018
13:42:56
Парни, могу ли я забиндить SA на несколько NS ? kubectl create rolebinding user-role —clusterrole=admin —serviceaccount=user:default —namespace=user-ns

Andrey
18.05.2018
14:09:06
Так с prom operator никто не работал?

Andor
18.05.2018
14:09:56
В чяте метрик спроси

Nikita
18.05.2018
14:29:27
Не могу удалить поды, где копать? $ kubectl delete -n kube-system --force=true --now=true pod kube-dns-bb945d984-jrqrh pod "kube-dns-bb945d984-jrqrh" deleted $ kubectl delete -n kube-system --force=true --now=true pod kube-dns-bb945d984-jrqrh pod "kube-dns-bb945d984-jrqrh" deleted $ kubectl delete -n kube-system --force=true --now=true pod kube-dns-bb945d984-jrqrh pod "kube-dns-bb945d984-jrqrh" deleted $ kubectl -n kube-system get pod kube-dns-bb945d984-jrqrh NAME READY STATUS RESTARTS AGE kube-dns-bb945d984-jrqrh 0/3 Terminating 28 11d

Они не стартуют новые и ничего не работает

Anton
18.05.2018
14:30:26
describe?

Nikita
18.05.2018
14:32:08
describe?
Warning FailedKillPod 34m kubelet, localhost error killing pod: [failed to "KillContainer" for "kubedns" with KillContainerError: "rpc error: code = Unknown desc = Error response from daemon: cannot stop container: 9d2f1a078f7765841f4709c0d092b43da49a646e56216ef844ae8fc4259cab55: Cannot kill container 9d2f1a078f7765841f4709c0d092b43da49a646e56216ef844ae8fc4259cab55: grpc: the client connection is closing: failed precondition" ...

Причем эти логи я смотрю за 34 минуты назад

О деплоймент я удалить тоже не могу

А чего-то я ничего удалить не могу видимо

Anton
18.05.2018
14:38:45
надо кластер наверное подебажить сам, логи кубелета посмотреть, к примеру

Dmytro
18.05.2018
14:40:18
на вид похоже на проблемы с нодой где бежит этот днс под, я бы зашел на саму ноду почитал логи

кублета и системные

Nikita
18.05.2018
14:41:45
на вид похоже на проблемы с нодой где бежит этот днс под, я бы зашел на саму ноду почитал логи
Я пробовал убить ноду, удалить все контейнеры на ней. И запустить ее опять. Оно начинает вроде стартовать но потом опять та же ситуация

Andor
18.05.2018
14:42:11
dmesg?

Stanislav
18.05.2018
14:43:23
Народ, чото я не пойму, а где включаются класические пользователи? Kind: User ?

Nikita
18.05.2018
14:44:23
dmesg?
dmesg чистый, обычный, без ошибок

Stanislav
18.05.2018
14:54:23
Что вообще такое Kind: User? Может я не совсем понимаю его назначение?

Dmytro
18.05.2018
15:03:27
https://kubernetes.io/docs/admin/authorization/rbac/#user-facing-roles а тут читали?

Google
Дмитрий
18.05.2018
15:04:10
Как лучше сделать? для единовременного выполнения миграций в базе данных лучше в деплойменте сделать контейнер с политикой restartPolicy: Never или как-то через job сделать?

Stanislav
18.05.2018
15:06:40
https://kubernetes.io/docs/admin/authorization/rbac/#user-facing-roles а тут читали?
Читал, но видимо не так понял, в голове уже все перемешалось :) А можно как то групировать ресурсы в кубике? К примеру я хочу дать админский доступ одному ServiceAccout до нескольких Namespace?! Можно это реализовать не прибивая его к каждому ручками?

Dmytro
18.05.2018
15:12:22
по миграциям тут все сильно зависит от базы и самих миграций

Andor
18.05.2018
15:12:44
у нас джобами сделаны миграции

Dmytro
18.05.2018
15:13:00
если миграция бежит несколько часов или дней то инит контейнеры не пойдут, и деплоймент с невер тоже. надо делать джобы и следить за их статусами

Stanislav
18.05.2018
15:14:16
у меня 1.5 везде и только планируем переезд на 1.10 так что я в RBAC плаваю :(
Вот и я чтото плаваю, не логичный он нихрена, либо слишком примитивный

Дмитрий
18.05.2018
15:14:44
Андрэ
18.05.2018
15:22:33
Так с prom operator никто не работал?
Вопрос именно в этом, работал или нет?)

Andrey
18.05.2018
15:22:55
Вопрос именно в этом, работал или нет?)
Да никак не могу прицепить свой ServiceMonitor

Андрэ
18.05.2018
15:23:26
А что именно не получается? Я первый раз по их доке на coreos все делал, вроде все ок

Может с labels намудрил чего то?

Andrey
18.05.2018
15:24:55
Может. В deployment и сервисе стоит labels: exporter: clickhouse в ServiceMonitor selector: matchLabels: exporter: clickhouse namespaceSelector: any: true Создаю в namespace где и пром, monitoring. После добавления operator в логах пишет "updating config skipped, no configuration change"

Андрэ
18.05.2018
15:32:11
А в ServiceMonitor прописываешь label, которые ждет kind: Prometheus?

Andrey
18.05.2018
15:38:39
Ставил через helm coreos/kube-prometheus, на сколько я понял, по умолчанию SerivceMonitorSelector пустой, что означает что он должен дискаверить все ServiceMonitor

Андрэ
18.05.2018
15:39:52
Кинул в личку свой пример. Про "дискаверить все ServiceMonitor" - не понмю, кажется я не пробовал. Я сразу label прописвывал

Andrey
18.05.2018
15:59:06
Всем спасибо, всё взлетело

Vasilyev
18.05.2018
17:33:49
Так а в чем проблема-то была? Интересно же)

Andrey
18.05.2018
17:39:48
Так а в чем проблема-то была? Интересно же)
Пока хз, но прописал в values файл то же самое и взлетело. Грешу на метки, узнаю уже в понедельник

Google
Vasilyev
18.05.2018
17:40:57
Окееей. Спасибо

Alex Milushev
18.05.2018
19:50:23
привет, настраиваю tls bootstrapping для кублетов и не работают ни logs ни exec, валятся с ошибкой: x509: certificate signed by unknown authority

как это поправить?

Andrey
18.05.2018
20:04:56
ну если вы хельм не хотите) пушьте ямлик, и смотрите пока все не станет Running, обновлением инфы раз в сколько то сек))
Вот кстати интересно. Деплою через bamboo, как узнать статус успешно прошел деплой или нет ? Сейчас деплою через yaml. Например возникает следующая ситуация yaml принят успешно, но допустим есть ошибка в коде и под валится после старта. И узнаю я об этом только от прометея. Helm может как то решить эту проблему ? Ну что бы я в выхлопе деплоя в bamboo выдел что что-то пошло не так ?

Andrey
18.05.2018
20:07:24
Добавить еще один таск с тестами?
Ну не знаю... сам по себе pull образа из реджестри может быть долгим ... Хотя вполне вариант , спасибо за идею

Andor
18.05.2018
20:08:18
Добавить еще один таск с тестами?
а откуда этот таск узнает что всё что надо раздеплоилось?

и что надо тест запустить

Alex Milushev
18.05.2018
20:08:33
а кто-то настраивал у себя tls bootstrapping?

Andrey
18.05.2018
20:09:30
и что надо тест запустить
Сделать N retry’ев c интервалом в секунд 10

Andrey
18.05.2018
20:09:50
и что надо тест запустить
Ну он может быть последним в списке. И соответсвенно из переменных окружения будет знать какой под чекать

Andor
18.05.2018
20:09:52
Сделать N retry’ев c интервалом в секунд 10
отличный костыль, но ведь надо проверять не старую версию?

Andrey
18.05.2018
20:10:07
можно отдавать release через nginx

Andor
18.05.2018
20:10:28
это теория или сам так делал?

Andrey
18.05.2018
20:11:02
Пока не делал, но сделать чек внутри приложения с отдачей нужных данных не проблема

Andrey
18.05.2018
20:11:05
можно отдавать release через nginx
Ну release может и от старого придти...

Andor
18.05.2018
20:11:54
а новое может вообще не запуститься например

ну короче смысл делать такой тест если всё равно прометей есть, который по сути частично этот тест дублирует

Andrey
18.05.2018
20:12:11
Ну release может и от старого придти...
Не вижу проблем. N попыток в надежде получить текущий релиз

Страница 570 из 958