Sergey
https://github.com/kubernetes/kubernetes/issues/41070#issuecomment-278563216
Sergey
ня
Roman
ага, запрет оказывается... работает :) спасибо!
Sergey
да нет за что
Dmitry
https://blog.stackpoint.io/stackpointcloud-extends-kubernetes-to-provision-full-set-of-digitalocean-services-49c356c19f6e
Dmitry
Вот это ГОРАЗДО интереснее =)
Gleb
Anonymous
Andrey
Андрей, Берлин. Бывший сисадмин, сейчас java разработчик. #whois
Zon
Anonymous
@DenisIzmaylov
Роман
Я всегда репорчу, что спам. Кто-нибудь знает сколько нужно репортов, чтобы канал забанили?
Logan
не нашел системы. Меня (как юзера) забанили за сутки за один репорт. А каналы, судя по всему, не банятся вообще
Dmytro
Всем привет. Подскажите, как вы организовуете с локальной файловой системой (baremetal). Есть по 2 типа дисков (ssd, hhd) на каждом серваке. Система запущена на ssd (докер работает тут). Хочется выдавать volumes подам на hdd, но при этом не привязыватся к нодам. Возможно используете объеденение в сетевую файловую систему, тогда какую вы выбрали?
Roman
Кстати, этот вопрос мне тоже инетерсен... И какие потери по производительности?
Andrey
Ответ не знаю, но может можно вольюмы полуавтоматически перекидывать? Или один на пару инстансов сразу?
Gleb
Roman
ну, например картинки... один заливает, а другой отдаёт....
Sergey
самый простой, но не самый лучший вариант, поставить гластерфс и локальные диски с нод загнать в пул
Dmytro
тут @kor73rus подкинул мысль о hostPath. Как я понял, будет нормально работать при репликаци под на разные ноды. Но про горизонтальное скалирование можно забыть(два пода на одной ноде, будут моунтится в одну папку), конечно если не предусмотрено такое в app самого пода
Роман
А кто-нибудь сталкивался с тем, что endpoint пропадает?
Более подробно: создаю эндпоинт и сервис гластерфс (для монтирования в подах). Через некоторое время, при попытке пересоздать под, который использует гластер, он мне пишет, что нет эндпоинта. Смотрю - действительно нет. Приходится заново применять эндпоинт и сервис.
Etki
Sergei
Etki
при чем тут это?
Anton
заливку в облако логично асинхронно делать, мало ли в какое число облаков заливать придется.
так что какое то время залитые картинки должны пролежать, пока их запушат куда нужно
Sergei
Sergei
G72K
ASTASHOFF
всем привет, а ни у кого не было что ingress-controller залипает вот тут https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L384 ?
то есть слушает 443 порт и не accept()'ит подключения на него
типа еще до того как здесь https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L402 пишутся логи, нет сообщений в логах вида "remote address X.X.X.X to local X.X.X.X:443\n"
ASTASHOFF
по ходу перестало поллить listen сокет свой
ASTASHOFF
и предпосылок даже никаких нет, каждый день по времени отваливается, что-то в этой горутине не так, которая сетапит сокет и слушает его
Роман
ASTASHOFF
не последняя точно, ща точно скажу
ASTASHOFF
последнюю уже собираю, просто непонятно, на одном кластере проблема есть, на другом нет
ASTASHOFF
версия точно не известна :( но в июле где-то собирал. имедж свой, контроллер тянется через go get
ASTASHOFF
известна такая проблема, которую пофиксили в последних версиях?
Роман
У меня месяц назад была проблема.
Роман
Ребята. Сталкивался ли кто-нибудь с таким?
Обычно под вечер (но бывало и с утра) переставал работать nginx-ingress-controller. При попытке войти на сайты с https, происходила очень долгая попытка загрузки, которая ничем не заканчивалась. Просто белый экран и никаких ошибок ни в логах контроллера, ни в логах куба. Вход на http давал ответ 301. Есть предположение, что, поскольку 443 порт слушает не nginx, а контроллер (и дальше направляет трафик на 442 порт nginx'а), то проблема именно в этом месте.
Помогите советом, что глянуть.
ASTASHOFF
да, оч похоже
ASTASHOFF
301 редирект от нжинкса на порт 443 контроллера есть, проблемы только с портом который сам контроллер слушает
Роман
Вот именно. Мы отписались вот тут:
https://github.com/kubernetes/ingress/issues/1017
ASTASHOFF
по ptrace видно что он не accept()ит запросы с полученного клиентского тапла. и не видно чтоб поллил сокет
ASTASHOFF
в то же время 10254/healthz работает прекрасно
ASTASHOFF
и он вроде как перечитывает сертификаты, имена подов и прочее, пишет в логи, короче активничает, а вот 443 порт отсох
Роман
Проблема именно с 443 портом, который слушает контроллер. Я просто перестал с этим бороться и поставил версию 0.8.3. Там, конечно, многое отсутсвует из настроек, но я просто в темплейте правлю это.
ASTASHOFF
еще непонятно почему такое начинается, ибо на соседнем кластере по версиям все такое же и такого залипания нет. и на проблемном кластере оно было не всегда
ASTASHOFF
не, дизейбл уже давно есть
ASTASHOFF
Also Ingress Controller seems to be not optimized for high load.
вот это точно
Роман
Я это обнаружил так: на нашем сайте, если заходить с десктопов, то всё нормально. Но если начать заходить с телефона - сразу же начинаются тормоза! Просто намертво зависает и всё. Если закрыть с телефона, то через какое-то время всё начинает снова работать. Магия!
ASTASHOFF
https://github.com/kubernetes/ingress/pull/1190
ASTASHOFF
кстати да, висит один коннект с китайского IP
ASTASHOFF
хз что он туда слал, но он влип и больше нифига не работает
ASTASHOFF
кстати это вроде ответ на тот issue что ты скинул
Knyage
У меня такой вопрос : если я хочу заменить cluster domain, не развалит ли это мой текущий кластер? И в каком порядке лучше производить замену? Причем у меня кластеризованный мастер, на 3х хостах навернуто
ASTASHOFF
@tetramin ты говоришь, это начинается после того, как пройдет какой-то коннект?
ASTASHOFF
то есть все ок, клиент X законнектился и все потухло
ASTASHOFF
просто у меня тоже по идее такой коннект есть, висящий сокет китайского IP не отобразился в логах вот здесь https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L402
Роман
то есть все ок, клиент X законнектился и все потухло
Когда веб-приложение только начинает грузиться, так и тухнет. А в логах не отображается. Хотя tcpdump показывает коннект. Потому, что это ssl (до успешного хендшейка мы не можем узнать server_name), и он там как-то не очень дружит с SNI, поэтому и до логов не доходит.
ASTASHOFF
tls handshake (и в том числе hello) парсит уже go n.proxy.Handle(conn)
ASTASHOFF
до него не доходит дело
ASTASHOFF
потому что не доходит и до записи в лог адреса клиента
ASTASHOFF
tcpdump у меня показывает 3WHS и данные от клиента не ack'аются потому что не было accept'a от контроллера
ASTASHOFF
так а что нам даст отключение ssl passthrough? не будет этого мапа 442/443 порта и https начнет слушать уже сам nginx?
ASTASHOFF
как тогда будет https работать
ASTASHOFF
а нафига тогда изначально было такую схему мутить чтоб его слушал контроллер...
ASTASHOFF
почему было бы сразу так не сделать как в этом PR
Роман
Это для passthrough видимо. Когда сертификаты отдаются не первым nginx'ом, а бэкендом.
Я так и не понял тоже - скорее всего просто не потестили и сразу залили в мастер.
ASTASHOFF
и proxy_protocol получается уже не нужен
Роман
Не нужен.
ASTASHOFF
тогда вопрос остается зачем изначально нагородили такое :) не работающее дерьмо
ASTASHOFF
буду тогда пробовать избавляться от терминирующего https контроллера
ASTASHOFF
наверное с расчетом что сервисы могут и не уметь в хттпс, но крутилки для тех кто умеет чтоб занимались этим сами - не было
bebebe
вопрос со звездочкой, можно ли одной компандой сдампить все ресурсы k8s что бы потом из этого дампа их восстановить? речь идет о storageclass и т.д.
G72K
bebebe , https://github.com/kubernetes-incubator/kube-aws/blob/master/core/controlplane/config/templates/cloud-config-controller#L1076-L1126
G72K
(дампить недостаточно, надо подчищать, чтобы можно было восстановить)