
Banschikov
27.06.2018
10:44:14

Andrey
27.06.2018
10:45:21

Mikhail
27.06.2018
10:47:24
https://www.spinnaker.io - использует кто? Норм? Или хотите съехать куда-нибудь?
(думаю что использовать для CI/CD)

Google

Эдуард
27.06.2018
10:49:42

Mikhail
27.06.2018
10:50:22

Эдуард
27.06.2018
10:50:42

bebebe
27.06.2018
10:50:51
и не факт что потом будет приятно

Mikhail
27.06.2018
10:51:04

Эдуард
27.06.2018
10:51:37
Нафига платное облачное хрень?

Andor
27.06.2018
10:51:54
autodevops кстати стейбл вроде стал
с 11 версии

Mikhail
27.06.2018
10:51:58

Andor
27.06.2018
10:52:02
(то есть уже целую неделю)

Mikhail
27.06.2018
10:52:24

Google

Fike
27.06.2018
10:52:46
У него хранилище должно быть в S3 или аналоге (лол)

Эдуард
27.06.2018
10:53:08

Fike
27.06.2018
10:53:24
Из интересных аналогов GoCD, и его кажется допилили до стадии нормальной автоматизации https://docs.gocd.org/current/advanced_usage/pipelines_as_code.html

Эдуард
27.06.2018
10:53:31

Mikhail
27.06.2018
10:55:50
Просто встроенным в докер собирай, не мучай себя
что встроенным в докер? У меня есть коммит, мне надо собрать образ докера, провести его через тестинг, выложить на 1/5 например в кубер, посмотреть за мониторингом, выложить на все остальное. А если что-то пошло не так, откатить. Желательно без моего участия ?

Алексей
27.06.2018
10:56:06

Эдуард
27.06.2018
10:56:26

Алексей
27.06.2018
10:56:40

bebebe
27.06.2018
10:58:19

Fike
27.06.2018
10:58:36
minio с ограниченным функционалом?

bebebe
27.06.2018
10:58:37

Mikhail
27.06.2018
11:00:05

Banschikov
27.06.2018
11:00:48

Andrey
27.06.2018
11:02:11

Эдуард
27.06.2018
11:02:31
познакомься с kubespray.
Вопрос, что почитать и где документация. Честно пытался пару раз деплоить им, но безуспешно, трэйсы не поборол.

Алексей
27.06.2018
11:03:35

Fedor
27.06.2018
11:08:25
привет! подскажите куда лучше задать вопрос про docker?
вопрос примерно такой: что делать с контейнером, на котором зависают и docker inspect и docker stop?

ptchol
27.06.2018
11:09:13
Ребят, а подскажите чуточку. Вот задеплоил я в кубере несколько сервисов, всё вроде нормально, они доступны внутри между контейнерами по именами вида svcname.namespace.svc.cluster.name и теперь я хочу доступатсья к ним из вне.
Хочу что то вроде nginx \ haproxy на паре нод где есть внешние адреса разместить, и прокидывать доступ в сервисы, при всём этом хочу чтобы это тоже были контейнеры и они сами там upstream list обновляли.
Мне какие ключевые слова гуглить, и как это принято делать ?

Google

ptchol
27.06.2018
11:09:55
я так понимаю это ingress balancer

kvaps
27.06.2018
11:11:16

Fedor
27.06.2018
11:12:33
внутри dotNet апликуха. больше подробностей не знаю, но в крайнем случае есть рядом разработчики и исходники этой апликухи. Но кажется что дело не в ней

Алексей
27.06.2018
11:12:54

Igor
27.06.2018
11:12:57
или есть еще ingress на haproxy, traefik, envoy ...

Nik
27.06.2018
11:20:52
вопрос от новичков - как выставить api сервер наружу?
дашбор смог выставить, с аписервером не получается

Дмитрий
27.06.2018
11:52:28
А как-то можно отдельные ноды сделать такими, чтобы на них поднимались поды только поселектору привязанные?

Mikhail
27.06.2018
11:53:40

Дмитрий
27.06.2018
11:56:03
Это как навесить на ноду по селектору. А как запретить что-то поднимать если в поде не прописано селектор на эти ноды?

Andor
27.06.2018
11:56:39
NoSchedule
повесь taint

Alexey
27.06.2018
12:06:49

Dmitriy
27.06.2018
12:08:20
С какой версии он udp умеет?
Только плюсовая версия ж вроде
Или я что-то путаю? Могу ж и ошибаться

Дмитрий
27.06.2018
12:10:52

Igor
27.06.2018
12:18:11

Andrew
27.06.2018
12:33:55
А кто-то уже юзал куберовский дешедьюлер, который в инкубаторе?

Google

Alexey
27.06.2018
12:33:55


ptchol
27.06.2018
12:44:37
я уже этим занимаюсь, но только ставить пытаюсь nginx-ingress через их доку а не через хелм
и как то тяжковато, не вдупляю зачем у них default-http-backend

Dmitriy
27.06.2018
12:45:12

Alexey
27.06.2018
12:45:25
ловит все, что плохо маршрутизировано (default-http-backend)
* как
server {
listen 80 default_server;
}

ptchol
27.06.2018
12:48:59
ну да я так и подумал, но не понял зачем это
чтобы типа невалидные запросы не прилетали на первую апишку ?

Alexey
27.06.2018
12:50:16
Да. Мне помогало, когда опечатку делаешь, то получаешь не "сервер не отвечает", а "default backend - 404". Ясно куда идти смотреть.

ptchol
27.06.2018
12:55:29
Понятно.
А дальше я пытаюсь реджистри вытащить через ingress-nginx.
Но не получается даже до default достучаться.
По рекомендации вроде создал service в котором spec.type: NodePort
Вот тока меня смущает, у него Endpoints должны быть от ingress controller pods ?
и смущает что у сервиса ingress-nginx есть internal endpoints на портах аля 32649 и как раз там default почему то а не на 80
такое ощущение что я чо то где то местами попутал )

Tores
27.06.2018
13:00:34
А точно нодепорт должен быть??

bebebe
27.06.2018
13:06:34
Коллеги, немного странный вопрос, коллега спрашивает а есть ли простой но внятный туториал что бы делать свои операторы в k8s

Pavel
27.06.2018
13:07:11
да https://coreos.com/blog/introducing-operator-framework
https://github.com/operator-framework

Vadim
27.06.2018
13:07:57

bebebe
27.06.2018
13:08:37
Спасибо

Google

Stanislav
27.06.2018
14:25:21
Кто нибудь как то синкает имажи между нодами?

Sergey
27.06.2018
14:25:37
О.о зачем
они же и без того синьканы

Stanislav
27.06.2018
14:26:19
Ну вот кейс с гитлабом и приватными режистри к примеру
Т.е. во время деплоя делаем кронжобу, на одной ноде она пулится во время деплоя, затем когда она оканчивается и пересоздается на другой, то там уже нет имажа актуального и креды гитлаба протухли

Andor
27.06.2018
14:27:22
А синкать зачем, они же при пулле сами синкнутся

Vadim
27.06.2018
14:27:26
пульте по диджесту, делов-то

Stanislav
27.06.2018
14:27:41
"Креды гитлаба протухли", они активны только во время джобы гитлаба

Andor
27.06.2018
14:28:00
Так может этот вопрос решать?

Stanislav
27.06.2018
14:28:34
Он не решается, с гитлабом ничего не поделаешь это его логика, использовать персональные креды не секурно в крупной компании
В идеале при деплое имаж должен попадать на все ноды

Andrey
27.06.2018
14:29:24
Создайте деплоящего юзера в GitLab. Как вам такой ход конём?

Stanislav
27.06.2018
14:29:56
Сервисные учетки тоже не в почете
Все простые и логичные решения я уже обдумал

Vadim
27.06.2018
14:30:58
развернуть регистри внутри куба, пушить в нё из гитлаба и пуллить из неё без sso?

Stanislav
27.06.2018
14:31:11

Vadim
27.06.2018
14:31:34
разрешить доступ только одному SA

Stanislav
27.06.2018
14:32:24
Поэтому сопсно и полез сюды, может у кого похожий кейс есть со злыми ИБ

Anton
27.06.2018
14:38:01
гайс, а кто https://github.com/jetstack/cert-manager юзает? как сделать чтобы тот ингресс который для ACME создаётся, получал определённый annotate?

Anton
27.06.2018
14:49:43
чет посмотрел на tcp stream в ingress nginx, в конфигмапе и в шаблоне нет поддержки access директив allow\deny
https://github.com/kubernetes/ingress-nginx/blob/master/docs/user-guide/exposing-tcp-udp-services.md
https://github.com/kubernetes/ingress-nginx/blob/master/rootfs/etc/nginx/template/nginx.tmpl#L588
или я не прав и можно намутить чтото? там есть глобальный whitelist, но блэклиста для tcp stream нет =(