@kubernetes_ru

Страница 646 из 958
Banschikov
27.06.2018
10:44:14
Выделяйте виртуалку и делайте hostNetwork: true не вижу чистых решений.
А если я к примеру helm-ом буду этот сервис ставить и через range эти порты создам? у кубернетиса есть интерсено лимиты на открытые порты?

Andrey
27.06.2018
10:45:21
А если я к примеру helm-ом буду этот сервис ставить и через range эти порты создам? у кубернетиса есть интерсено лимиты на открытые порты?
Думаю, с производительностью не будет проблем, 100 сервисов - это не особая проблема. Вопрос только в том, что все они разные хостнеймы будут иметь.

Mikhail
27.06.2018
10:47:24
https://www.spinnaker.io - использует кто? Норм? Или хотите съехать куда-нибудь?

(думаю что использовать для CI/CD)

Google
Эдуард
27.06.2018
10:49:42
(думаю что использовать для CI/CD)
Что собирать будешь и в какой вид?

Mikhail
27.06.2018
10:50:22
Что собирать будешь и в какой вид?
ну пока у меня ожидается пачка го приложений. В какой вид - не ясен вопрос.

bebebe
27.06.2018
10:50:51
и не факт что потом будет приятно

Mikhail
27.06.2018
10:51:04
Код где храните?
в гите. Гитлабе.

Эдуард
27.06.2018
10:51:37
в гите. Гитлабе.
Тык встроенный CI

Нафига платное облачное хрень?

Andor
27.06.2018
10:51:54
autodevops кстати стейбл вроде стал

с 11 версии

Mikhail
27.06.2018
10:51:58
Тык встроенный CI
я про него знаю. Мне надо понять какие есть альтернативы.

Andor
27.06.2018
10:52:02
(то есть уже целую неделю)

Mikhail
27.06.2018
10:52:24
Нафига платное облачное хрень?
Spinnaker is an open source говорят

Google
Fike
27.06.2018
10:52:46
У него хранилище должно быть в S3 или аналоге (лол)

Fike
27.06.2018
10:53:24
Из интересных аналогов GoCD, и его кажется допилили до стадии нормальной автоматизации https://docs.gocd.org/current/advanced_usage/pipelines_as_code.html

Mikhail
27.06.2018
10:55:50
Просто встроенным в докер собирай, не мучай себя
что встроенным в докер? У меня есть коммит, мне надо собрать образ докера, провести его через тестинг, выложить на 1/5 например в кубер, посмотреть за мониторингом, выложить на все остальное. А если что-то пошло не так, откатить. Желательно без моего участия ?

Алексей
27.06.2018
10:56:06
тогда хз. я недавно обновлял - пришлось руками поды убивать по одному
решение есть. Нужно доавить либо в env переменную которая будет меняться какждый раз при выкате либо нужно, чтобы при выкате имидж менялся. В общем я по первому пути пошёл - всё работает, поды перекатываются по очереди.

bebebe
27.06.2018
10:58:19
У него хранилище должно быть в S3 или аналоге (лол)
можно отучить, это только на первый взгляд

Fike
27.06.2018
10:58:36
minio с ограниченным функционалом?

bebebe
27.06.2018
10:58:37
Spinnaker is an open source говорят
да, но нет, по факту его пилят гугл+нетфликс особо не обращая внимание на комьюнити

Mikhail
27.06.2018
11:00:05
можно отучить, это только на первый взгляд
s3 аналог не проблема для меня в принципе.

Banschikov
27.06.2018
11:00:48
Думаю, с производительностью не будет проблем, 100 сервисов - это не особая проблема. Вопрос только в том, что все они разные хостнеймы будут иметь.
kind: Service apiVersion: v1 metadata: name: my-service spec: ports: - name: ftp1 protocol: TCP port: 6001 targetPort: 6001 - name: ftp2 protocol: TCP port: 6002 targetPort: 6002 Если же таким образом создам порты . Теоритически все должно быть ок

Эдуард
27.06.2018
11:02:31
познакомься с kubespray.
Вопрос, что почитать и где документация. Честно пытался пару раз деплоить им, но безуспешно, трэйсы не поборол.

Алексей
27.06.2018
11:03:35
Вопрос, что почитать и где документация. Честно пытался пару раз деплоить им, но безуспешно, трэйсы не поборол.
На гитхабе в его репо всё. Главное настроить правильно инвентарь, а дальше он всё сам делает. Просто до безобразия.

Fedor
27.06.2018
11:08:25
привет! подскажите куда лучше задать вопрос про docker? вопрос примерно такой: что делать с контейнером, на котором зависают и docker inspect и docker stop?

ptchol
27.06.2018
11:09:13
Ребят, а подскажите чуточку. Вот задеплоил я в кубере несколько сервисов, всё вроде нормально, они доступны внутри между контейнерами по именами вида svcname.namespace.svc.cluster.name и теперь я хочу доступатсья к ним из вне. Хочу что то вроде nginx \ haproxy на паре нод где есть внешние адреса разместить, и прокидывать доступ в сервисы, при всём этом хочу чтобы это тоже были контейнеры и они сами там upstream list обновляли. Мне какие ключевые слова гуглить, и как это принято делать ?

Google
ptchol
27.06.2018
11:09:55
я так понимаю это ingress balancer

Fedor
27.06.2018
11:12:33
внутри dotNet апликуха. больше подробностей не знаю, но в крайнем случае есть рядом разработчики и исходники этой апликухи. Но кажется что дело не в ней

Nik
27.06.2018
11:20:52
вопрос от новичков - как выставить api сервер наружу?

дашбор смог выставить, с аписервером не получается

Дмитрий
27.06.2018
11:52:28
А как-то можно отдельные ноды сделать такими, чтобы на них поднимались поды только поселектору привязанные?

Дмитрий
27.06.2018
11:56:03
Это как навесить на ноду по селектору. А как запретить что-то поднимать если в поде не прописано селектор на эти ноды?

Andor
27.06.2018
11:56:39
NoSchedule

повесь taint

Alexey
27.06.2018
12:06:49
Dmitriy
27.06.2018
12:08:20
С какой версии он udp умеет?

Только плюсовая версия ж вроде

Или я что-то путаю? Могу ж и ошибаться

Дмитрий
27.06.2018
12:10:52
Igor
27.06.2018
12:18:11
С какой версии он udp умеет?
Week of March 28, 2016 – NGINX version 1.9.13 will be released and include UDP load balancing

Andrew
27.06.2018
12:33:55
А кто-то уже юзал куберовский дешедьюлер, который в инкубаторе?

Google
ptchol
27.06.2018
12:44:37
я уже этим занимаюсь, но только ставить пытаюсь nginx-ingress через их доку а не через хелм

и как то тяжковато, не вдупляю зачем у них default-http-backend

Alexey
27.06.2018
12:45:25
ловит все, что плохо маршрутизировано (default-http-backend)

* как server { listen 80 default_server; }

ptchol
27.06.2018
12:48:59
ну да я так и подумал, но не понял зачем это

чтобы типа невалидные запросы не прилетали на первую апишку ?

Alexey
27.06.2018
12:50:16
Да. Мне помогало, когда опечатку делаешь, то получаешь не "сервер не отвечает", а "default backend - 404". Ясно куда идти смотреть.

ptchol
27.06.2018
12:55:29
Понятно. А дальше я пытаюсь реджистри вытащить через ingress-nginx. Но не получается даже до default достучаться. По рекомендации вроде создал service в котором spec.type: NodePort

Вот тока меня смущает, у него Endpoints должны быть от ingress controller pods ?

и смущает что у сервиса ingress-nginx есть internal endpoints на портах аля 32649 и как раз там default почему то а не на 80

такое ощущение что я чо то где то местами попутал )

Tores
27.06.2018
13:00:34
А точно нодепорт должен быть??

bebebe
27.06.2018
13:06:34
Коллеги, немного странный вопрос, коллега спрашивает а есть ли простой но внятный туториал что бы делать свои операторы в k8s

Pavel
27.06.2018
13:07:11
да https://coreos.com/blog/introducing-operator-framework

https://github.com/operator-framework

bebebe
27.06.2018
13:08:37
Спасибо

Google
Stanislav
27.06.2018
14:25:21
Кто нибудь как то синкает имажи между нодами?

Sergey
27.06.2018
14:25:37
О.о зачем

они же и без того синьканы

Stanislav
27.06.2018
14:26:19
Ну вот кейс с гитлабом и приватными режистри к примеру

Т.е. во время деплоя делаем кронжобу, на одной ноде она пулится во время деплоя, затем когда она оканчивается и пересоздается на другой, то там уже нет имажа актуального и креды гитлаба протухли

Andor
27.06.2018
14:27:22
А синкать зачем, они же при пулле сами синкнутся

Vadim
27.06.2018
14:27:26
пульте по диджесту, делов-то

Stanislav
27.06.2018
14:27:41
"Креды гитлаба протухли", они активны только во время джобы гитлаба

Andor
27.06.2018
14:28:00
Так может этот вопрос решать?

Stanislav
27.06.2018
14:28:34
Он не решается, с гитлабом ничего не поделаешь это его логика, использовать персональные креды не секурно в крупной компании

В идеале при деплое имаж должен попадать на все ноды

Andrey
27.06.2018
14:29:24
Создайте деплоящего юзера в GitLab. Как вам такой ход конём?

Stanislav
27.06.2018
14:29:56
Создайте деплоящего юзера в GitLab. Как вам такой ход конём?
Найн, гитлаб завязан на sso/ldap, и админится другими людьми.

Сервисные учетки тоже не в почете

Все простые и логичные решения я уже обдумал

Vadim
27.06.2018
14:30:58
развернуть регистри внутри куба, пушить в нё из гитлаба и пуллить из неё без sso?

Vadim
27.06.2018
14:31:34
разрешить доступ только одному SA

Stanislav
27.06.2018
14:32:24
разрешить доступ только одному SA
Не вариант, мы не можем использовать для каждого проекта по SA, а если использовать один SA то ломается логика приватных режистри.

Поэтому сопсно и полез сюды, может у кого похожий кейс есть со злыми ИБ

Anton
27.06.2018
14:38:01
гайс, а кто https://github.com/jetstack/cert-manager юзает? как сделать чтобы тот ингресс который для ACME создаётся, получал определённый annotate?

Anton
27.06.2018
14:49:43
чет посмотрел на tcp stream в ingress nginx, в конфигмапе и в шаблоне нет поддержки access директив allow\deny https://github.com/kubernetes/ingress-nginx/blob/master/docs/user-guide/exposing-tcp-udp-services.md https://github.com/kubernetes/ingress-nginx/blob/master/rootfs/etc/nginx/template/nginx.tmpl#L588 или я не прав и можно намутить чтото? там есть глобальный whitelist, но блэклиста для tcp stream нет =(

Страница 646 из 958