@kubernetes_ru

Страница 830 из 958
Сагындык
17.09.2018
15:49:27
А ты ищешь gbrqq

Alexandr
17.09.2018
15:50:45
Спасибо за помощь, видимо после ребута забыл поправить, теперь работает.

Кроме того что tiller все равно офф, пишу kubectl logs -n kube-system tiller-deploy-64c9d747bd-xdvtt ничего не выводи, возможно ли опередлить в чем может быть причина? Пробовал заного инициализировать tiller

Andor
17.09.2018
15:54:50
а зачем смотреть на имя пода?

Google
Alexandr
17.09.2018
15:58:40
а зачем смотреть на имя пода?
Не совсем понял, разьве это не верный способ получить логи?

Andor
17.09.2018
15:58:54
логи - возможно

Дмитрий
17.09.2018
16:25:44
там coredns лежит, никого не беспокоит?

Антон
17.09.2018
17:24:29
Привет, можете подсказать как лучше всего делать миграции схемы бд? Видел варианты с джобами, initContainer, вшивать в сами сервисы. Выглядит, что джобы самый хороший вариант - запускается 1 раз, если фейлится, то можно не пытаться перезапускать и остановить весь билд

Sergei
17.09.2018
17:27:39
ну я делал джобами через Helm hook'и. пока честно говоря не понял насколько это хорошо. Helm хуки запускает последовательно, даже если у них веса одинаковые. В итоге не очень быстро получается. Миграции на разные базы так-то можно было бы параллельно запускать.

Антон
17.09.2018
17:43:01
Спасибо!

bebebe
17.09.2018
17:45:01
коллеги, я потрачу два дня на ресерч ouath и авторизации и напишу отчет что вышло одна проблема, есть большая вероятность, что кластер с ouath переедет в amazon china и как там будет работать таже гугл авторизация - большой вопрос к китайской великой стене

Mikhail
17.09.2018
17:50:52
Я в обычном Прометее указывал role: pod и дискаверил все поды, а как это в прометеус операторе?

Что-то у меня такое ощущение что там для каждого сервиса надо писать свой сервис монитор

Andor
17.09.2018
17:54:29
я думал в этом и соль

Google
Mikhail
17.09.2018
17:55:21
Да, возможно.

Alexey
17.09.2018
18:49:57
Зачем писать костыли с ожиданием нужной версии базу и тп. С ограничениями на «запустить 1 раз» и тп. Вместо того, чтобы просто запускать миграции до kubectl apply

+ у меня в принципе миграции отдельный подпроект на sqitch. От которого зависят куча других сервисов.

Banschikov
17.09.2018
18:53:49
Привет, можете подсказать как лучше всего делать миграции схемы бд? Видел варианты с джобами, initContainer, вшивать в сами сервисы. Выглядит, что джобы самый хороший вариант - запускается 1 раз, если фейлится, то можно не пытаться перезапускать и остановить весь билд
Тоже думаю над этим. В итоге остановился над решением с созданием отдельно сервиса, который запускается как кронджобс и делает все необходимое. Так же хочу его заюзать для резервного копирования баз данных

Alexey
17.09.2018
18:54:31
И опять, ну почемууу не запускать в ci/cd?

Huan
17.09.2018
18:54:37
привет всем. подскажите плз как прикрутить к ingress-nginx блокировку по странам?

Антон
17.09.2018
18:57:57
Я запускаю в ci/cd. И там и не полян, почему так никто не делает.
т.е. миграции не изнутри k8s запускаются? Или я не понимаю значение "запускаю в ci/cd"

Alexey
17.09.2018
18:58:39
У меня базы не в кластере. А были бы в кластере... ну тоже не проблема подключится и выполнить.

Banschikov
17.09.2018
18:58:50
т.е. миграции не изнутри k8s запускаются? Или я не понимаю значение "запускаю в ci/cd"
Имеется в виду что в пайплане CI | CD инструмента запускается таска, которая делает все это дело.

И опять, ну почемууу не запускать в ci/cd?
ну кстать да. Хорошая идея.

Alexey
17.09.2018
19:02:15
И это на 100% решает проблему «миграции не прошли», а в кубе пошла раскатка

т.е. миграции не изнутри k8s запускаются? Или я не понимаю значение "запускаю в ci/cd"
Там где вы делаете kubectl apply... где-то перед этим делать migrate. Это не обязательно ci/cd

Но по хорошему ci/cd конечно

Антон
17.09.2018
19:13:00
Там где вы делаете kubectl apply... где-то перед этим делать migrate. Это не обязательно ci/cd
Да, я понял идею, спасибо, выглядит хорошо, за исключением того, что если база в кластере, то потребуются доступы со всех билд агентов

Alexey
17.09.2018
19:13:50
На kubectl тоже доступы нужны. А там можно даже kube proxy к базе, если она в кубе

Агенты у меня разделены на обычные и protected которые могут лезть в базу. Те на docker build, тесты и тп база не нужна.

А там где можно сделать kubectl apply можно и дописать код, которы залезет в базу и сделает что нужно. Т.е в этом месте нет смыла ограничивать доступ к базе.

bebebe
17.09.2018
19:24:05
@SinTeZoiD ^^^

Google
Михаил
17.09.2018
20:13:33
@SinTeZoiD ^^^
че? снесли?

Vadim
17.09.2018
20:14:06
че? снесли?
Погляди плиз в логах чата, видимо ИИ заработало

Михаил
17.09.2018
20:15:00
меня пугает твои ИИ правда

Vadim
17.09.2018
20:15:58
https://media2.giphy.com/media/8fen5LSZcHQ5O/200.gif

да
если лень тянутся в админку, то в ответ на спам реплайни /ban и готово

Alexey
17.09.2018
21:48:25
https://stackoverflow.com/questions/37523615/dynamic-proxy-pass-in-nginx-to-another-pod-in-kubernetes пример 2 контейнеров в поде. Так просто под руку попалось, часто спрашивают.

nginx + dns resolver на сервисы кластера

Конретно мне это нужно для nginx, который делает proxy_pass на imageproxy (resize), который берёт соседний сервис с картинками. nginx с proxy_cache location ~ ^/images/(?<size>\d+)/(?<path>.*)$ { expires 15d; add_header Pragma public; add_header Cache-Control "public"; proxy_pass http://imageproxy:8080/$size,q80/http://erp:3000/uploads/$path; proxy_cache thumbs; proxy_cache_valid 200 24h; } Может такое как-то по другому лучше решить?

Maxim
17.09.2018
22:24:55
Привет, можете подсказать как лучше всего делать миграции схемы бд? Видел варианты с джобами, initContainer, вшивать в сами сервисы. Выглядит, что джобы самый хороший вариант - запускается 1 раз, если фейлится, то можно не пытаться перезапускать и остановить весь билд
я через отдельный деплоймент делаю: - через ci поднимаю деплоймент с 1 подом, в котором новые миграции - через kubectl exec pod_name запускаю команду для миграций - если все ок и код возврата команды 0 то удаляется деплоймет и дальше хелмом выкатывается приложение разрабы пишут обратно совместимые миграции, т.е новая схема не ломает старую версию приложения через джобы чот не понравилось, т.к не удобно смотреть что там сломалось в миграции, а так сразу в зафейленой джобе в ci это видно

Andrey
18.09.2018
06:42:37
кстати да, это то, что меня в helm раздражает - нельзя достать оттуда логи свалившегося ресурса

bebebe
18.09.2018
06:48:18
подкинули такую штуку https://github.com/Praqma/helmsman

Alexey
18.09.2018
06:57:42
Есть какой-то тул, чтобы сделать backward tunnel, который будет service в кубе? Нужно из-за ната достать сервис.

Vasilyev
18.09.2018
06:59:43
Любой контейнер с ссх у которого есть доступ к сервису

Google
Let Eat
18.09.2018
07:31:36
Andrey
18.09.2018
07:32:03
только http

Артем
18.09.2018
07:37:48
Добрый день, подскажите пытаюсь подключить в куб хранилище ceph(rbd), создал пул и токены, опирался на статью https://habr.com/company/flant/blog/329666/ Создаю PersistentVolumeClaim провиженер создаёт PersistentVolume в статусе Bound но когда я создаю поду она постоянно висит в ContainerCreating и валит Unable to mount volumes for pod "nginx-kzk9q_default(67554154-bb0d-11e8-a168-d2e32a8364ee)": timeout expired waiting for volumes to attach or mount for pod "default"/"nginx-kzk9q". list of unmounted volumes=[mypvc]. list of unattached volumes=[mypvc default-token-dkrnn]

Banschikov
18.09.2018
07:37:54
Товарищи, подскажите . У меня в кластере есть нода, которая помечена как NoSchedule. тут произошла авария в кластере, и все поды смигрировали на этот воркер. Это нормально?

Артем
18.09.2018
07:37:56
kube-controller-manager брал quay.io/attcomdev/kube-controller-manager:v1.6.1 куб версии v1.10.5

Andrey
18.09.2018
07:39:17
kubectl logs -l release=релиз чарта
спс, хороший вариант. Надо ещё покрыть те случаи, когда до аппликухи дело не доходит, например, когда образ не скачивается

Andrey
18.09.2018
07:40:05
о. ещё раз спасибо

решение было на поверхности

Артем
18.09.2018
07:44:23
посмотрите, есть ли у вас ceph-common на ндах и доступна ли цефовая сеть
да на нодах установлена версия ceph-common-12.2.8-0.el7.x86_64 на мастере правда небыло, доставил. Целевая сеть доступна

Banschikov
18.09.2018
07:47:15
Товарищи, подскажите . У меня в кластере есть нода, которая помечена как NoSchedule. тут произошла авария в кластере, и все поды смигрировали на этот воркер. Это нормально?
Нода в статусе: Ready,SchedulingDisabled. Я в первые столкнулся с такой проблемой, и думал раньше что отсутсвие толерантности у подов, они не смогут запустится на этой ноде(

M
18.09.2018
08:07:31
подскажет кто где в ui гугл клаудового кубера посмотреть крон джобы

через консоль понятно kubectl --namespace=trata get cronjob

а в ui

Артем
18.09.2018
08:18:52
Если победишь, поделись плиз инфой, у меня уже небыло времени на бой, надо было вчера как всегда
хорошо, ребята говорят что нужно брать kube-controller-manager той же версии что и сам куб

Google
Tores
18.09.2018
08:20:39
1.7.3 последний брал

Andrey
18.09.2018
08:33:04
в workloads

Denis
18.09.2018
08:36:28
Добрый день, пожскажите пожалуйста. Использую связку Rancher 2 и kubernetes v1.10.5. Создан кластер из 3 тачек на амазоне(control, etcd, worker). И при загрузке рам воеркера более чем на 70 процентов кластер падает. Куда копать, что читать?

Andrey
18.09.2018
08:42:49
куда падает? на пол?

S
18.09.2018
08:43:23
Вопрос: кто как борится с rbd locked images? Сейчас приходится в ручную, т.е. ansible скриптом если не отпускает image нод.

Denis
18.09.2018
08:44:03
Зависает control, а точнее перестает отвечать kubelet

Страница 830 из 958