Maksim
Тогда за чем пишешь фигню?
Dmitry
например?
Роман
Какая-то ерунда с kube-lego - он просто не реагирует на то, что я создаю ингрессы. В чём может быть проблема?
Роман
rbac?
Да, rbac у него настроен. Вчера всё работало.
Dmitry
Ingress: Annotations: kubernetes.io/tls-acme: "true"
Роман
Ingress: Annotations: kubernetes.io/tls-acme: "true"
Это тоже есть везде. В логах ничего нет вообще. Никаких сообщений, кроме того, что раз в минуту он пытается обновить существующие сертификаты. Дебаг включил в логах.
Роман
Мало того - сегодня 3 часа назад был обработан последний ингресс и получен сертификат. Может лимиты какие-то есть у letsencrypt?
G72K
20 сертификатов в неделю
Dmitry
tls: - secretName: app-lego-tls hosts: - www.example.com
G72K
(или в день?)
Dmitry
в неделю.. но аппа сказала бы, что лимит.. а тут она даже ингрессы не видит
Dmitry
ну тогда хз..
Dmitry
в моем случае это работало всегда =)
Роман
Странно. Всё само заработало. Стоило только на обед сходить)
Knyage
Война войной, а обед по расписанию:)
Maksim
/
Lev
k8s 1.7.3 out
Роман
Интересненько.
Роман
У кого-нибудь ещё есть такая фигня: proto: duplicate proto type registered: google.protobuf.Any proto: duplicate proto type registered: google.protobuf.Duration proto: duplicate proto type registered: google.protobuf.Timestamp После каждого ввода kubectl
Knyage
не встречалось пока.
Anonymous
а какую нагрузку может выдержать ingress load-balancer?
G72K
десяточку на ноду точно выдержит
Роман
Какая при этом будет нагрузка на ресурсы ноды?
G72K
да откуда я знаю
G72K
упретесь, будете смотреть )
G72K
сколько там nginx обвешаный регекспами выдерживвает? своими глазами наживую видел 10к/секунду, процессора еще много оставалось
Etki
я бы не за ингресс беспокоился, а за тех, кому он сливает трафик
Роман
Разве в nginx ingress контроллере отсутствует SNI? Проверял на ssllabs, говорит, нет. Но сам nginx говорит, что есть поддержка. Надо что-то дополнительно настроить что ли?
G72K
да, внутри ingress нужно tls: [ host: xxx] или как-то так
Роман
Опять nginx ingress. Я включил в конфигмап use-proxy-protocol, подключил его к манифесту контроллера. Всё нормально, заработало - заголовки стали приходить правильные. Но в логах приложения (nginx) адрес, с которого пришёл запрос, является адресом интерфейса оверлейной сети, на которой ингресс контроллер. Пытаюсь настроить set_real_ip_from (просто включаю его там же, где и use-proxy-protocol), но ничего в конфигах не изменяется и айпишник всё равно приходит не тот. Что я упустил?
G72K
error: questions limit exceeded
Maksim
по хорошему нужно использовать set_header и переменные соединения
Роман
error: questions limit exceeded
Я правда тут больше всех вопросов задаю?)
Maksim
Хедеры работают.
я не сказал, что они не работают, я сказал, почему они не такие как ты ожидаешь
Роман
я не сказал, что они не работают, я сказал, почему они не такие как ты ожидаешь
Нет. Хедеры такие, как я и ожидаю. С ними всё в порядке после установки use-proxy-protocol. Только в логах nginx, на который ингресс-контроллер проксирует, не тот ip.
Polnoch
🔵 В группе есть традиция - представляться при входе: ▫️Какой у вас проект или где работаете? ▫️В чём вы специалист? ▫️Чем можете быть интересны или полезны сообществу? ▫️Чем интересно сообщество вам? ▫️Откуда вы? ▫️Как узнали про группу? В сообщении нужно указать тэг #whois 🔵 Правила чата: 🚫 Публикация вакансий запрещена 🚫 Реклама запрещена 🚫 Политика запрещена 🚫 Флуд и непрофессиональное поведение запрещено За несоблюдение правил - одно предупреждение, далее следует бан. Вакансии и запросы на поиск работы публикуем в группе @devops_jobs. Формат любой: full-time, part-time, remote и разовые подработки. Также обмениваемся инсайдами и аналитикой по рынку труда. Здесь общаемся на темы, посвященные Docker и экосистеме. Задаем вопросы, решаем проблемы и делимся новостями. Параллельно с этой группой развивается: 🔸@docker_ru - посвященная Docker, Docker Swarm и экосистеме в целом. Задаём вопросы, обсуждаем идеи, решаем проблемы, делимся новостями и т.д. 🔸@devops_ru - активно общаемся на темы, посвященные DevOps, Docker, Mesos, DC/OS, CoreOS, Clouds и т.д. 📡 Возможно, вам также будут интересны группы: @nodejs_ru, @react_js, @angular_js, @javascript_jobs, @reactnative_ru, @ios_ru, @android_ru, @mobile_jobs. Приятного общения!
1) основной проект NDA, разные шабашки вряд ли кому-то интересны 2) по большей части, опенстек 3) ХЗ 4) интересно почитать про конкурирующую платформу 5) Eindhoven, Netherlands (так же получила номинацию New Brunswick Канады, если не продолбаю, скорее всего, через год-полтора уеду туда) 6) Из обсуждения в какой-то другой группе
Роман
что set_real_ip нужно еще на принимающей стороне настраивать?
Да. Верно. Я тут с документацией запутался. Только сейчас понял, что читал документацию к форку. Там совсем другие вещи реализованы, а в официальном контроллере - нет. Я-то думал...
Logan
Уже Нидерланды? Поздравляю. С возвращением, @polnoch
Polnoch
меня, по-моему, не было в этой группе
Polnoch
за поздравление спасибо, но не уверена, что нас есть с чем поздравлять :(
Polnoch
ВНЖ же не иммиграция, а разновидность рабочей визы
Салтыдык
чо, МТС теперь и в нидерландах?)
Grigory
Polnoch
чо, МТС теперь и в нидерландах?)
Да, бойся Vodaphone и T-mobile :)
Салтыдык
жесть-то какая)
Logan
я помню @devops_ru
Polnoch
я помню @devops_ru
я никуда и не уходила :) Всегда была в других чатах. В Девопс_ру какое-то время сидела из-под клона, но это неудобно. Дело в том, что в ТГ я чаще пишу и читаю с телефона, в дороге, когда делать нечего, а не с компа (где можно удобно второй экземпляр телеграмма запустить с аккаунтом, зареганным через SaaS, который продаёт получение авторизационных SMS-ок на китайские телефоны)
Logan
я уходил...
Polnoch
я уходил...
с возвращением тогда :)
Sn00part
так все же, кто-нибудь как-нибудь решал проблему доступного места персистент стораджа перед claim?
Dmitry
так все же, кто-нибудь как-нибудь решал проблему доступного места персистент стораджа перед claim?
думаю тем, кто на aws, gce это мониторить не нужно. А тем, кто в baremetal, те мониторят ceph или gluster отдельно от куба
Sn00part
это понятно. ну вот у меня дженкинс спавнит сам в кубернетесе воркеры. тут приехало 20 заданий, на 15 claim кончилось место.
Sn00part
можно как решать, делать claim или нет в зависимости от результатов мониторинга?
Sn00part
или как, о смска, перестаем делать claim, ночью встает и руками гасим дженкинс?
Dmitry
Похоже на плохую практику генерировать pv вместе с динамическими воркерами
Dmitry
но тем не менее.. расчет капасити стораджа + выставление конкаренси воркеров
Dmitry
мы так же используем дженкинс, но не используем pv, а полученные билды сохраняем в s3 сторадже
Sn00part
почему плохую? я использую dinamic provisioning
Sn00part
dynamic*
Sn00part
у меня сложный пайплайн, без pv никак
Sn00part
либо гонять терабайты туда сюда через artifact storage
Sn00part
big data
bebebe
BIG DATA
Sn00part
blob 1,5 tb до 8
Sn00part
их пять генерится. если их туда сюда гонять то до второго пришествия ждать
Dmitry
ну да... тогда вариант с канкаренси тебя должен спасти
Dmitry
И кстати.. ты жеж можешь в дернуть сторадж на наличие свободного места? если да, то сделай логику в контейнере, что перед запуском идет проверка на его наличие
Anonymous
поставил посленюю версию кубера и заметил что там жесткий rbac... а все пакеты в helm полагаются на дефолтный акк у которого щас вообще нет пермишнов
Anonymous
разруливать по каждому чарту отдельно форкая их и правя аккаунты, или дать максимальные права дефолтному акку, как думаете?
Anonymous
я просто не нашел в helm возможности при install прописать кастомную роль... неужели нет такой фичи?
Dmitry
1.7.3? Только вчера развернул и вроде как все норм