@kubernetes_ru

Страница 632 из 958
Сергей
20.06.2018
12:14:12
< HTTP/1.1 403 Forbidden < x-amz-request-id: 9040F56F7A211FCA < x-amz-id-2: Jjx02adA89BeJvVeCSM+rECxb1ISYNgznMnrHVFnAzvzVJgsSPNqJJqsN2RsGzwrwpxMEGCMH/Y= < Content-Type: text/html; charset=utf-8 < Content-Length: 338 < Date: Wed, 20 Jun 2018 12:13:27 GMT < Server: AmazonS3

Denis
20.06.2018
12:41:17
кажется не успею добраться
Будет запись в https://t.me/kubernetesMSK

Sergey
20.06.2018
12:49:28
https://www.youtube.com/watch?v=7VRyeMxQqTA

это оно?

Google
Александр
20.06.2018
13:26:04
это оно?
Сегодня будет в 19 вроде, это трансялция?

Sergey
20.06.2018
13:26:51
ну вот это она

ток почему то трансляцией делюсь я а не организаторы ?

Denis
20.06.2018
13:39:46
Блин, такой сюрприз испортили

Готовьте вопросы:)

Репортаж будет в https://t.me/kubernetesMSK

Pavel
20.06.2018
15:01:31
Может и правда не доехать а послушать транлсяцию. Блин)

Denis
20.06.2018
15:38:21


Mikhail
20.06.2018
15:55:34
Говорят гостевого wifi нет

Pasha
20.06.2018
15:55:45
Все так)

Denis
20.06.2018
15:58:45


Nikolay
20.06.2018
15:59:19
Ingress
а ингресс умеет трафик балансировать по тэгам?

или ему надо каждый раз список айпишников явно скармливать?

Google
Andrey
20.06.2018
16:00:03
а ингресс умеет трафик балансировать по тэгам?
По тегам? Список IP? Я не совсем понимаю вашей архитектуры.

Nikolay
20.06.2018
16:00:49
По тегам? Список IP? Я не совсем понимаю вашей архитектуры.
ну, у нас ингресс используется, чтобы разные пути по запросу на внешний для кластера домен маппить на разные порты на воркерах

но чтобы оно работало - приходится сейчас прописывать список айпишников этих самых воркеров явно внутрь ресурса ингресса

можно этого избежать?

Nikolay
20.06.2018
16:01:39
Andrey
20.06.2018
16:01:48
Тогда ведь можно просто указать на сервис, а сервис привязать через selector к нужным подам.

Как всё и делается обычно. Или я чего-то недопонимаю?

Nikolay
20.06.2018
16:03:05
я не очень сам знаю пока, как именно трафик балансируется на сервисе. Вроде как в ингрессе уже есть ha-proxy или nginx, зачем тогда трафик дополнительно еще и через сервис гнать?

или я неправильно рассуждаю?

Andrey
20.06.2018
16:04:20
Давай разберём подробно.

Есть Ingress Controller. Это что угодно, что взаимодействует с API Kubernetes и понимает, что такое Ingress объект в Kubernetes и позволяет роутить трафик снаружи внутрь кластера.

Контроллер может быть хоть nginx, хоть haproxy, хоть traefik, и есть ещё тонна реализаций.

Мы используем этот. По совместительству самый популярный. https://github.com/kubernetes/ingress-nginx

У вас какой?

Nikolay
20.06.2018
16:05:49
окей, да

у нас на основе ha-proxy сейчас стоит

его не я настраивал, не помню точно, откуда его взяли

Andrey
20.06.2018
16:07:59
Я расскажу, как этот работает, а haproxy по аналогии должен уметь всё, только я с ним не работал. Для него создаётся т.н. Ingress ресурс, там описывается список хостов и URL paths и куда их роутить. Это им объекта Service и порт в нём.

Сервис в свою очередь указывает на нужные поды с воркерами.

Google
Andrey
20.06.2018
16:08:35
Nginx получается список IP из объекта Endpoint, который автоматически создаётся вместе с сервисом.

И по нему делает балансировку по свои внутреннием механизмам (upstreams).

Nikolay
20.06.2018
16:08:55
да, это я, вроде как, понимаю. А что если я не хочу явно список хостов передавать?

Andrey
20.06.2018
16:09:16
wildcard звёздочку ввалить в Ingress объект?

Nikolay
20.06.2018
16:09:21
а хочу спокойно добавлять воркеры без изменений в самом контроллере

Andrey
20.06.2018
16:09:36
На нескольких клиентах работает.

Но это сильно зависит от самого контроллера. Nginx Ingress Controller поддерживает.

Nikolay
20.06.2018
16:10:53
спасибо, попробуем

Mikhail
20.06.2018
16:12:05
Documentation is available here.
http://romana.readthedocs.io/en/latest/ - правильный линк

Andrey
20.06.2018
16:12:33
спасибо, попробуем
Т.е. у вас воркеры разные по доменам что ли?

Nikolay
20.06.2018
16:13:04
у нас несколько неймспейсов и нам надо трафик балансировать по ним в зависимости от пути в урле

внутри неймспейса ингресс, вроде как, умеет, а вот на несколько его, как я понял, не очень рекомендуют

Andrey
20.06.2018
16:14:24
Он совсем не умеет на несколько.

Это бы лучше в один namespace, конечно. Какие бонусы вы получаете от разных?

Nikolay
20.06.2018
16:14:43
а что использовать в таком случае лучше?

Это бы лучше в один namespace, конечно. Какие бонусы вы получаете от разных?
надо разным юзерам ресурсы ограничивать по-разному

Andrey
20.06.2018
16:15:09
Окей, я понял, используете квоты.

Nikolay
20.06.2018
16:15:17
да

Google
Andrey
20.06.2018
16:16:05
Если нужно динамически менять ингрессы в разных неймспейсах, то напишите просто клиент в API Kubernetes, который будет менять пути в этих Ingress ресурсах, чтобы можно было указывать на разные сервисы и поды, соответственно.

На каком языке программируете?

Nikolay
20.06.2018
16:16:33
основная логика пока на питоне, но на го тоже можем

но что именно будет балансировать на разные неймспейсы? ставить отдельно руками nginx/haproxy вне кластера?

Andrey
20.06.2018
16:18:11
Балансировка ведь в пределах одного namespace? Т.е. один URL (domain + path) ведёт в один сервис в каком-то конкретном namespace, верно?

Nikolay
20.06.2018
16:19:25
Балансировка ведь в пределах одного namespace? Т.е. один URL (domain + path) ведёт в один сервис в каком-то конкретном namespace, верно?
есть один урл, допустим, example.com . Может быть так, что example.com/abc ведет на один сервис в одном неймспейсе, а example.com/def - на другой в другом. Нужен ресурс, где можно прописывать роутинг в таком виде

Andrey
20.06.2018
16:20:16
Так без проблем же это стандартным Ingress ресурсом делается.

Nikolay
20.06.2018
16:20:17
я, вроде как, понимаю, что можно настроить внешний nginx и разложить все по ингрессам, но хочется встроенными средствами и динамически

Andrey
20.06.2018
16:20:49
Встроенно всё и настраивается. Просто, чтобы не словить геморроя от большого количества ingress'ов с кучей правил, можно с API напрямую поработать.

Denis
20.06.2018
16:21:31
Полетели!



Nikolay
20.06.2018
16:22:17
Встроенно всё и настраивается. Просто, чтобы не словить геморроя от большого количества ingress'ов с кучей правил, можно с API напрямую поработать.
перефразирую вопрос. Какой ресурс, не привязанный к конкретному неймспейсу, поможет раскидать трафик по разным ингрессам в разных неймспейсах?

Andrey
20.06.2018
16:23:18
перефразирую вопрос. Какой ресурс, не привязанный к конкретному неймспейсу, поможет раскидать трафик по разным ингрессам в разных неймспейсах?
Никакого. Но без труда можно насоздавать много Ingress ресурсов в каждом Namespace и динамически управлять ими извне.

Nikolay
20.06.2018
16:23:19
а разве поды могут быть не в неймспейсе?
вопрос не в подах. Вопрос в том, что надо трафик по нескольким неймспейсам раскидывать, а ингресс так не умеет по дефолту

Andor
20.06.2018
16:23:33
ингресс создаёт поды

Andrey
20.06.2018
16:23:37
К контроллер БУДЕТ роутить и балансировать в разные неймспейсы.

ингресс создаёт поды
Не путайте Ingress и Ingress Controller.

Nikolay
20.06.2018
16:25:34
К контроллер БУДЕТ роутить и балансировать в разные неймспейсы.
а если создать новый неймспейс - то контроллер его автоматом подцепит?

Andrey
20.06.2018
16:25:58
а если создать новый неймспейс - то контроллер его автоматом подцепит?
Да, если там будет Ingress ресурс создан, а вы его создадите через вашу Python программу. Сразу же.

Google
Andrey
20.06.2018
16:27:14
Вся суть Kubernetes, в том, что он невероятно гибок. Это самое важное, что в нём есть. Стабильное API (kind of), через которое вы можете как угодно манипулировать объектами. Не ограничивайте себя kubectl и Helm, мыслите шире. :)

Nikolay
20.06.2018
16:27:47
да мы через API все и создаем ?

Andrey
20.06.2018
16:28:54
да мы через API все и создаем ?
Так вообще проблем не будет тогда у вас. Создавайте Ingress объекты динамически, контроллер их подхватит. HAproxy Ingress Controller, вроде, уже достаточно взрослый, проблем не будет.

Eugene
20.06.2018
16:46:31
Полетели!
трансляция офф ?

Vasiliy
20.06.2018
16:46:35
? MOSCOW KUBERNETES MEETUP 3 5 месяцев?! Друзья, коллеги, мы не встречались целую вечность! Хватит, хватит это терпеть! 20 июня, офис Ingram Micro. Kubernetes, Москва, снова вместе. Kubernetes стал стандартом де-факто в мире кластером. Чат русскоговорящего сообщества Kubernetes в Telegram ( https://t.me/kubernetes_ru ) перегрет горячими обсуждениями. Нас уже более 1500 участников. Казалось бы, всё уже обсудили, но нет. На этот раз, наш ждёт что-то новое. Выходим за границы привычного. Впервые у нас в гостях англоязычный спикер. Поэтому, отменяйте планы на среду, приглашайте с собой коллег и готовьтесь погрузиться в новый большой мир. Настала пора обсудить – куда же мы все пришли за последние 15 месяцев? ПРОГРАММА: 19:00 - 19:20 Socializing 19:20 - 19:35 Welcome & digest, some fun 19:35 - 20:15 Networking and security in Kubernetes (Emil Gągała, VMware, EMEA Network and Security Architect) Do I need something more than Flannel? Flannel seems to be most popular networking option in Kubernetes. Is it the only choice? How to implement namespaces, services, ingress controller, network policy in more efficient way? And not forget about 2 day operations simplicity? Join my session to see live demo of K8S networking with VMware NSX. Bio: Emil Gągała – network consultant, enthusiast of cloud technology and cloud native applications. Graduate of telecommunications at Warsaw University of Technology. Three years ago he joined VMware team as EMEA Network & Security Architect. Involved in NSX projects in areas of Kubernetes, OpenStack and Cloud. Previously he worked as Senior System Engineer in Juniper Networks. He has expertise in area of core networks, data centers and security. VCIX-NV, AWS-CSA and JNCIE certified. 20:15 - 20:55 Kubernetes Bare Metal (Михаил Жучков, Neuron Digital, SRE Team Lead) В данном докладе Михаил расскажет о том, как жить с Kubernetes на "железных" серверах без облаков. Про L3 сети, про Calico, про его дружбу с OSPF. Поднимутся проблемы написания своих плейбуков для установки кластера и обсудим плюсы-минусы такого подхода. Био: Михаил – "классический" админ с 10-летним стажем, нырнувший пару лет назад в модный стек технологий. С радостью познаёт новые технологии и с болью смотрит на то, как их познают другие. Известен своими провокациями про OpenStack vs Kubernetes. ? 20:55 - 21:15 Кофе-брейк, чай-пати, горячие дискуссии 21:15 - 22:00 Обзор Kubernetes как сервиса от облачной платформы Mail.Ru (Дмитрий Лазаренко, Mail.Ru Group, Product Manager) Недавно компания Mail.Ru Group запустила Kubernetes как услугу в облаке Mail.Ru Cloud Solutions, которая позволяет быстро создавать и масштабировать кластеры Kubernetes, включая multi master. В докладе Дмитрий расскажет о том, что под капотом этого решения - про функциональную начинку и системную архитектуру, про интеграцию с IaaS-платформой на базе OpenStack (приватные сети, блочные и NFS Persistent Volumes и PVC, LoadBalancer), а также про модель безопасности. Био: Дмитрий отвечает за PaaS-сервисы B2B-облака Mail.Ru, включая контейнерные решения на базе Kubernetes. До этого, в течение 6 лет работал в Jelastic, отвечал за разработку и развитие контейнерной PaaS-платформы. Эксперт в построении высоконагруженных сервисов. 22:00 - 6:00 Afterpaty? ? УСЛОВИЯ УЧАСТИЯ: 1. Мероприятие бесплатное. 2. Регистрация по ссылке - https://www.meetup.com/Moscow-Kubernetes-Meetup/events/251806061/ 3. Вход строго по регистрации. ВНИМАНИЕ! Необходимо обязательно указать в настройках профайла на Meetup.com свои имя и фамилию. ВОПРОСЫ? Появились вопросы или готовы выступить с докладом на следующем митапе? Пишите в Telegram: - https://t.me/DenisIzmaylov Или на e-mail: events@axept.co
Коллеги, а что с трансляцией https://www.youtube.com/watch?v=7VRyeMxQqTA ?

Nikolas
20.06.2018
16:49:19
трансляция не работает???

Vasiliy
20.06.2018
16:49:37
да.

Ждем пользователя "Ingram Micro Cloud Russia"

Nikolas
20.06.2018
17:08:06
у меня нет

Страница 632 из 958