
Сагындык
17.09.2018
15:49:27
А ты ищешь gbrqq

Alexandr
17.09.2018
15:50:45
Спасибо за помощь, видимо после ребута забыл поправить, теперь работает.
Кроме того что tiller все равно офф, пишу kubectl logs -n kube-system tiller-deploy-64c9d747bd-xdvtt ничего не выводи, возможно ли опередлить в чем может быть причина? Пробовал заного инициализировать tiller

Andor
17.09.2018
15:54:50
а зачем смотреть на имя пода?

Google

Alexandr
17.09.2018
15:58:40

Andor
17.09.2018
15:58:54
логи - возможно

Дмитрий
17.09.2018
16:25:44
там coredns лежит, никого не беспокоит?

Let Eat
17.09.2018
16:37:30
Там из примера нефига не понятно, но работает через https://nginx.org/en/docs/http/ngx_http_auth_request_module.html

Leo
17.09.2018
17:20:17

Антон
17.09.2018
17:24:29
Привет, можете подсказать как лучше всего делать миграции схемы бд? Видел варианты с джобами, initContainer, вшивать в сами сервисы. Выглядит, что джобы самый хороший вариант - запускается 1 раз, если фейлится, то можно не пытаться перезапускать и остановить весь билд

Sergei
17.09.2018
17:27:39
ну я делал джобами через Helm hook'и. пока честно говоря не понял насколько это хорошо. Helm хуки запускает последовательно, даже если у них веса одинаковые. В итоге не очень быстро получается. Миграции на разные базы так-то можно было бы параллельно запускать.

Антон
17.09.2018
17:43:01
Спасибо!

bebebe
17.09.2018
17:45:01
коллеги, я потрачу два дня на ресерч ouath и авторизации и напишу отчет что вышло
одна проблема, есть большая вероятность, что кластер с ouath переедет в amazon china
и как там будет работать таже гугл авторизация - большой вопрос к китайской великой стене

Mikhail
17.09.2018
17:50:52
Я в обычном Прометее указывал role: pod и дискаверил все поды, а как это в прометеус операторе?
Что-то у меня такое ощущение что там для каждого сервиса надо писать свой сервис монитор

Andor
17.09.2018
17:54:29
я думал в этом и соль

Google

Mikhail
17.09.2018
17:55:21
Да, возможно.

Alexey
17.09.2018
18:49:57
Зачем писать костыли с ожиданием нужной версии базу и тп. С ограничениями на «запустить 1 раз» и тп. Вместо того, чтобы просто запускать миграции до kubectl apply
+ у меня в принципе миграции отдельный подпроект на sqitch. От которого зависят куча других сервисов.

Banschikov
17.09.2018
18:53:49

Alexey
17.09.2018
18:54:31
И опять, ну почемууу не запускать в ci/cd?

Huan
17.09.2018
18:54:37
привет всем. подскажите плз как прикрутить к ingress-nginx блокировку по странам?

Антон
17.09.2018
18:57:57

Alexey
17.09.2018
18:58:39
У меня базы не в кластере. А были бы в кластере... ну тоже не проблема подключится и выполнить.

Banschikov
17.09.2018
18:58:50

Alexey
17.09.2018
19:02:15
И это на 100% решает проблему «миграции не прошли», а в кубе пошла раскатка
Но по хорошему ci/cd конечно

Антон
17.09.2018
19:13:00

Alexey
17.09.2018
19:13:50
На kubectl тоже доступы нужны. А там можно даже kube proxy к базе, если она в кубе
Агенты у меня разделены на обычные и protected которые могут лезть в базу.
Те на docker build, тесты и тп база не нужна.
А там где можно сделать kubectl apply можно и дописать код, которы залезет в базу и сделает что нужно. Т.е в этом месте нет смыла ограничивать доступ к базе.

Banschikov
17.09.2018
19:20:17

bebebe
17.09.2018
19:24:05
@SinTeZoiD ^^^

Google

Alexey
17.09.2018
19:31:44

Михаил
17.09.2018
20:13:33

Vadim
17.09.2018
20:14:06
че? снесли?
Погляди плиз в логах чата, видимо ИИ заработало

Михаил
17.09.2018
20:15:00
меня пугает твои ИИ правда

Vadim
17.09.2018
20:15:58
https://media2.giphy.com/media/8fen5LSZcHQ5O/200.gif
да
если лень тянутся в админку, то в ответ на спам реплайни /ban и готово

Alexey
17.09.2018
21:48:25
https://stackoverflow.com/questions/37523615/dynamic-proxy-pass-in-nginx-to-another-pod-in-kubernetes
пример 2 контейнеров в поде. Так просто под руку попалось, часто спрашивают.
nginx + dns resolver на сервисы кластера
Конретно мне это нужно для nginx, который делает
proxy_pass на imageproxy (resize), который берёт соседний сервис с картинками.
nginx с proxy_cache
location ~ ^/images/(?<size>\d+)/(?<path>.*)$ {
expires 15d;
add_header Pragma public;
add_header Cache-Control "public";
proxy_pass http://imageproxy:8080/$size,q80/http://erp:3000/uploads/$path;
proxy_cache thumbs;
proxy_cache_valid 200 24h;
}
Может такое как-то по другому лучше решить?


Maxim
17.09.2018
22:24:55
Привет, можете подсказать как лучше всего делать миграции схемы бд? Видел варианты с джобами, initContainer, вшивать в сами сервисы. Выглядит, что джобы самый хороший вариант - запускается 1 раз, если фейлится, то можно не пытаться перезапускать и остановить весь билд
я через отдельный деплоймент делаю:
- через ci поднимаю деплоймент с 1 подом, в котором новые миграции
- через kubectl exec pod_name запускаю команду для миграций
- если все ок и код возврата команды 0 то удаляется деплоймет и дальше хелмом выкатывается приложение
разрабы пишут обратно совместимые миграции, т.е новая схема не ломает старую версию приложения
через джобы чот не понравилось, т.к не удобно смотреть что там сломалось в миграции, а так сразу в зафейленой джобе в ci это видно

Anton
18.09.2018
05:17:32

Let Eat
18.09.2018
06:18:33

Andrey
18.09.2018
06:42:37
кстати да, это то, что меня в helm раздражает - нельзя достать оттуда логи свалившегося ресурса

bebebe
18.09.2018
06:48:18
подкинули такую штуку https://github.com/Praqma/helmsman

Alexey
18.09.2018
06:57:42
Есть какой-то тул, чтобы сделать backward tunnel, который будет service в кубе? Нужно из-за ната достать сервис.

Vasilyev
18.09.2018
06:59:43
Любой контейнер с ссх у которого есть доступ к сервису

Juriy
18.09.2018
07:22:19

Google

Juriy
18.09.2018
07:30:42

Let Eat
18.09.2018
07:31:36

Andrey
18.09.2018
07:32:03
только http

Artem
18.09.2018
07:37:24

Артем
18.09.2018
07:37:48
Добрый день, подскажите пытаюсь подключить в куб хранилище ceph(rbd), создал пул и токены, опирался на статью https://habr.com/company/flant/blog/329666/
Создаю PersistentVolumeClaim провиженер создаёт PersistentVolume в статусе Bound но когда я создаю поду она постоянно висит в ContainerCreating и валит Unable to mount volumes for pod "nginx-kzk9q_default(67554154-bb0d-11e8-a168-d2e32a8364ee)": timeout expired waiting for volumes to attach or mount for pod "default"/"nginx-kzk9q". list of unmounted volumes=[mypvc]. list of unattached volumes=[mypvc default-token-dkrnn]

Banschikov
18.09.2018
07:37:54
Товарищи, подскажите . У меня в кластере есть нода, которая помечена как NoSchedule.
тут произошла авария в кластере, и все поды смигрировали на этот воркер. Это нормально?

Артем
18.09.2018
07:37:56
kube-controller-manager брал quay.io/attcomdev/kube-controller-manager:v1.6.1 куб версии v1.10.5

Artem
18.09.2018
07:39:01

Andrey
18.09.2018
07:39:17

Artem
18.09.2018
07:39:44

Andrey
18.09.2018
07:40:05
о. ещё раз спасибо
решение было на поверхности

Артем
18.09.2018
07:44:23

Banschikov
18.09.2018
07:47:15

M
18.09.2018
08:07:31
подскажет кто где в ui гугл клаудового кубера посмотреть крон джобы
через консоль понятно kubectl --namespace=trata get cronjob
а в ui

Tores
18.09.2018
08:14:35

Артем
18.09.2018
08:18:52

Google

Tores
18.09.2018
08:20:39
1.7.3 последний брал

Andrey
18.09.2018
08:33:04
в workloads

Denis
18.09.2018
08:36:28
Добрый день, пожскажите пожалуйста.
Использую связку Rancher 2 и kubernetes v1.10.5. Создан кластер из 3 тачек на амазоне(control, etcd, worker). И при загрузке рам воеркера более чем на 70 процентов кластер падает. Куда копать, что читать?

Andrey
18.09.2018
08:42:49
куда падает? на пол?

S
18.09.2018
08:43:23
Вопрос: кто как борится с rbd locked images? Сейчас приходится в ручную, т.е. ansible скриптом если не отпускает image нод.

Denis
18.09.2018
08:44:03
Зависает control, а точнее перестает отвечать kubelet