Denis
🔥🚀108 интересных доклада с недавних CloudNativeCon + KubeCon, приятного просмотра: https://m.youtube.com/playlist?list=PLj6h78yzYM2PqgIGU1Qmi8nY7dqn9PCr4
Anonymous
да, долго придется смотреть... спасибо :)
Victor
Я несколько раз перечитал доку по ingress и не могу понять чем nginx-ingress лучше просто nginx+nodePort который проксирует на нужные сервисы?
yolkov
больше возможностей по балансировке
yolkov
для нодепорта будет раундробин всегда
Victor
А ingress позволяет установить соединение, и отправлять запросы в одно место?
yolkov
nginx - да
yolkov
https://github.com/kubernetes/contrib/blob/master/ingress/controllers/nginx/configuration.md
Victor
То есть это тот же nginx (и т.п.), с новым способом задания конфигурации, который понятен k8s и отсюда больше возможностей балансировки?
Anonymous
в целом - да, но возможности конфигурации там не сильно большие я например не смог _просто_ настроить возможность кеширования отдельных урлов - то есть либо полностью шаблон конфига переделывать, либо промежуточный инстанс нгинкса запускать (выбрал этот вариант) совсем бы от ингресс отказался но он клево терминирует хттпс-трафик с автоматическим перевыпуском сертификатов на основе kube-lego
Anonymous
так что для меня ингресс это "если что-то быстро и без сильной кастомизации то велком"
Anonymous
плюс, если на гугле кластер - то там подвязки на их ингресс и нгинковский частично будет лажать (например, с балансировщиком работать умеет но не умеет персистить айпишники, вследствие чего после перезапуска {обновление кластера, например} внешние айпишники новые и продакшн падает)
Anonymous
хотя это может у меня руки из задницы, и если я упустил какую-то вещь в доках/сырцах то указывайте не стесняйтесь :)
Sash
кто-то реализовывал текую схему: есть один monorepo, откуда получается много разных images и соответственно билд и деплой и дожен делаться только при нужных коммитах?
Victor
кто-то реализовывал текую схему: есть один monorepo, откуда получается много разных images и соответственно билд и деплой и дожен делаться только при нужных коммитах?
Не знаю как в других CI, GitLab CI позволяют задавать регулярки для тегов, бранчей. Соотвественно для нужных job'ов указываешь нужную регулярку Что то вроде docs: * для генерации образа с докой release-[serviceName] для сборки и деплоя нужного проекта
Victor
Travis, Jenkins так же так умеют
Anonymous
кто-нибудь кстати jenkins ставил из helm charts?
Anonymous
а вот кто мне скажет что за шняга произошла и почему у меня под в статусе completed? может кто уже встречал? # kubectl --namespace=software logs redis1-master-i0rnu 1:signal-handler (1481554828) Received SIGTERM scheduling shutdown... 1:M 12 Dec 15:00:28.865 # User requested shutdown... 1:M 12 Dec 15:00:28.914 * Calling fsync() on the AOF file. 1:M 12 Dec 15:00:28.914 # Redis is now ready to exit, bye bye...
Etki
судя по всему, у тебя кто-то выключил redis
Anonymous
кто мог выключить сразу всю реплику с мастерами и слейвами в гугле :(
Yaroslav
OOM Killer ?
Anonymous
намекаешь что ресурсы кончились?
Etki
какая версия редиса?
Anonymous
сори не с компа с доступом к кубику, а на память не помню
Etki
в общем я как всегда переживаю за внешний доступ, но 3.0.2 (то изображение, которое есть у меня на локалке) не болтает зря про сигтерм, если вызвать выключение из консоли, так что да, похоже на оом
Anonymous
ок спасибо вам, буду в эту сторону ковырять
Logan
коллеги, а подскажите пжлст, как именно куб выбирает статический том в claim?
Logan
просмотрел документацию, но не могу понять, как именно k8 выбирает, какой физический том будет взят в какой claim
Anonymous
насколько я понимаю, сильно зависит от того в каком сервисе у тебя кубернетес у гугля и амазона есть API для создания дисков в bare metal и например не уверен что есть поддержа pvc
Logan
есть. Через NFS
Logan
пока что я решаю проблему через создание сразу пары том+клэйм (что гарантирует мне, что клэйм сразу схватит единственный доступный том)
Logan
понять бы логику
Etki
емнип он берет все существующие незанятые PV, затем фильтрует по лейблам, по размеру >= запрошенный размер и берет наименьший из них
Logan
то что надо, спасибо!
Logan
кстати, к-во лейблов не ограничено? Или только один лейбл на объект?
Etki
это очень-очень емнип. лучше еще раз посоветоваться с документацией, не противоречит ли она сказанному
Etki
http://kubernetes.io/docs/user-guide/persistent-volumes/#selector судя по этому, можно сколько угодно лейблов фигачить и матчить (понятно, что на очень больших количествах он задохнется, но этот вариант не рассматривается)
Etki
про то, выберет ли наименьший - указаний не нашел, это подсказывает только здравый смысл, приглашаются знатоки сорцов
Anuar
Всем привет. Вопросами не буду доставать, буду сидеть и мотать на ус. О себе - developer с одной из галер. p.s такое же отписал в группе docker😁
Anonymous
v1.5.0 @saad-ali saad-ali released this 8 hours ago
Anonymous
по этому делу надо собрать meetup и потом отпраздновать :)
Zon
Вот я завтра на него и пойду :) https://www.meetup.com/Berlin-Kubernetes-Meetup/events/235968196/ если есть какие-то вопросы, могу попытаться задать
Anonymous
ну а есть кто из Москвы?
Denis
Вот я завтра на него и пойду :) https://www.meetup.com/Berlin-Kubernetes-Meetup/events/235968196/ если есть какие-то вопросы, могу попытаться задать
Спроси про текущие примеры инфраструктур? У кого сколько серверов в кластере и какую пиковую нагрузку держат? Какие чаще всего проблемы в эксплуатации (с чем саппорт огребается)?
Vladimir
Можем собраться в Москве где-нибудь в конце декабря (я могу только после 24 дек) или в начале января, если есть желание. Мы обычно с nodejs-народом собирались в Чайхоне №1 на Тверской. Там тихо, кальяны, покушать можно норм. Даже есть уже коронный столик на человек 8-10.
kay
Юлиан Стробль четыре месяца назад вообще не знал ничего про ingress.
Vladimir
Другой вариант - мутить митап с докладами и докладчиками. Но это надо организаторские способности. Если @DenisIzmaylov возьмётся разве что, ну или кто-то еще.
kay
У них один клиент всего https://www.immmr.com/
kay
По крайней мере был. И они детские проблемы в основном решали.
Denis
Другой вариант - мутить митап с докладами и докладчиками. Но это надо организаторские способности. Если @DenisIzmaylov возьмётся разве что, ну или кто-то еще.
Пока ещё не похоже, что много докладчиков в Москве будет. Ты же помнишь тот митап в Яндексе на 160 чел, где мне пришлось все с самых "низов" рассказывать) https://events.yandex.ru/events/yagosti/13-jul-2016/
Denis
Но можем попробовать в конце январе сделать.
Vladimir
Да, докладчики - это проблема. Я бы всё равно в первый раз просто в кафе посидел, познакомился. Там видно будет.
Denis
Парни, кто готов поделиться чем-нибудь и выступить с докладом?)
Vladimir
у нас всего понемногу )
Denis
ну а есть кто из Москвы?
Большой у вас кластер?)
yolkov
давайте встретимся сначало поговорим в живую
yolkov
я думаю у нас можно будет организовать и митап
Sash
кто-то использует werker ci? какое мнение?
Denis
кто-то использует werker ci? какое мнение?
1,5 года назад не зашёл из-за UI, но за это время могло что-то измениться :)
Anonymous
а jenkins кто-нибудь запускал с плагином kubernetes?
Sash
Sash
а jenkins кто-нибудь запускал с плагином kubernetes?
я делал туториал все работает)
Sash
https://github.com/GoogleCloudPlatform/continuous-deployment-on-kubernetes
yolkov
Это где?
на встрече узнаете, если она будет)
yolkov
а jenkins кто-нибудь запускал с плагином kubernetes?
мы запустили тимсити агентов в кубернейтсе с помощью докер-ин-докер
Anonymous
я делал туториал все работает)
у меня тоже работает, но конкретно с андройдом - нет )
Etki
мы запустили тимсити агентов в кубернейтсе с помощью докер-ин-докер
Я когда-то давно пробовал запустить тимсити с агентами через докер, не помню по какому именно сценарию, но они любили уходить в состояние process defunct - очевидно, процессы не были готовы к reaping problem. Такой штуки не было?
yolkov
пока нет
yolkov
пришлось плагин прикрутить чтобы автоматичеки регистрировались на сервере
yolkov
в плагине только нельзя указывать разные пулы, поэтому все в дефолтный пул сваливаются
Logan
коллеги, кто-нибудь подключал https в ingress-контроллере traefik?
Anonymous
Release notes & announcement https://groups.google.com/forum/m/#!topic/kubernetes-dev/Y8FiVqCML3A
Anonymous
$ kubectl version Client Version: version.Info{Major:"1", Minor:"5", GitVersion:"v1.5.0+58b7c16",