Andrey
12.09.2017
19:52:42
Андрей, Берлин. Бывший сисадмин, сейчас java разработчик. #whois
Zon
12.09.2017
21:04:56
Alisa
13.09.2017
05:43:05
@DenisIzmaylov
Роман
13.09.2017
05:45:25
Я всегда репорчу, что спам. Кто-нибудь знает сколько нужно репортов, чтобы канал забанили?
Google
Paul
13.09.2017
05:52:44
не нашел системы. Меня (как юзера) забанили за сутки за один репорт. А каналы, судя по всему, не банятся вообще
Dmytro
13.09.2017
06:34:17
Всем привет. Подскажите, как вы организовуете с локальной файловой системой (baremetal). Есть по 2 типа дисков (ssd, hhd) на каждом серваке. Система запущена на ssd (докер работает тут). Хочется выдавать volumes подам на hdd, но при этом не привязыватся к нодам. Возможно используете объеденение в сетевую файловую систему, тогда какую вы выбрали?
Roman
13.09.2017
07:01:08
Кстати, этот вопрос мне тоже инетерсен... И какие потери по производительности?
Andrey
13.09.2017
07:21:05
Ответ не знаю, но может можно вольюмы полуавтоматически перекидывать? Или один на пару инстансов сразу?
Gleb
13.09.2017
07:32:42
Roman
13.09.2017
07:33:32
ну, например картинки... один заливает, а другой отдаёт....
Zon
13.09.2017
07:35:23
Сергей
13.09.2017
07:35:37
самый простой, но не самый лучший вариант, поставить гластерфс и локальные диски с нод загнать в пул
Dmytro
13.09.2017
07:35:55
тут @kor73rus подкинул мысль о hostPath. Как я понял, будет нормально работать при репликаци под на разные ноды. Но про горизонтальное скалирование можно забыть(два пода на одной ноде, будут моунтится в одну папку), конечно если не предусмотрено такое в app самого пода
Роман
13.09.2017
08:01:02
А кто-нибудь сталкивался с тем, что endpoint пропадает?
Более подробно: создаю эндпоинт и сервис гластерфс (для монтирования в подах). Через некоторое время, при попытке пересоздать под, который использует гластер, он мне пишет, что нет эндпоинта. Смотрю - действительно нет. Приходится заново применять эндпоинт и сервис.
Fike
13.09.2017
09:33:11
Sergey
13.09.2017
09:33:51
Google
Fike
13.09.2017
09:34:05
при чем тут это?
Anton
13.09.2017
09:34:43
заливку в облако логично асинхронно делать, мало ли в какое число облаков заливать придется.
так что какое то время залитые картинки должны пролежать, пока их запушат куда нужно
Sergey
13.09.2017
09:34:58
Let Eat
13.09.2017
11:06:14
Alexander
13.09.2017
11:31:58
всем привет, а ни у кого не было что ingress-controller залипает вот тут https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L384 ?
то есть слушает 443 порт и не accept()'ит подключения на него
типа еще до того как здесь https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L402 пишутся логи, нет сообщений в логах вида "remote address X.X.X.X to local X.X.X.X:443\n"
по ходу перестало поллить listen сокет свой
и предпосылок даже никаких нет, каждый день по времени отваливается, что-то в этой горутине не так, которая сетапит сокет и слушает его
Роман
13.09.2017
11:40:41
Alexander
13.09.2017
11:40:56
не последняя точно, ща точно скажу
последнюю уже собираю, просто непонятно, на одном кластере проблема есть, на другом нет
версия точно не известна :( но в июле где-то собирал. имедж свой, контроллер тянется через go get
известна такая проблема, которую пофиксили в последних версиях?
Роман
13.09.2017
11:47:45
У меня месяц назад была проблема.
Ребята. Сталкивался ли кто-нибудь с таким?
Обычно под вечер (но бывало и с утра) переставал работать nginx-ingress-controller. При попытке войти на сайты с https, происходила очень долгая попытка загрузки, которая ничем не заканчивалась. Просто белый экран и никаких ошибок ни в логах контроллера, ни в логах куба. Вход на http давал ответ 301. Есть предположение, что, поскольку 443 порт слушает не nginx, а контроллер (и дальше направляет трафик на 442 порт nginx'а), то проблема именно в этом месте.
Помогите советом, что глянуть.
Alexander
13.09.2017
11:48:05
да, оч похоже
301 редирект от нжинкса на порт 443 контроллера есть, проблемы только с портом который сам контроллер слушает
Роман
13.09.2017
11:48:50
Вот именно. Мы отписались вот тут:
https://github.com/kubernetes/ingress/issues/1017
Alexander
13.09.2017
11:48:52
по ptrace видно что он не accept()ит запросы с полученного клиентского тапла. и не видно чтоб поллил сокет
в то же время 10254/healthz работает прекрасно
Google
Alexander
13.09.2017
11:50:10
и он вроде как перечитывает сертификаты, имена подов и прочее, пишет в логи, короче активничает, а вот 443 порт отсох
Роман
13.09.2017
11:50:25
Проблема именно с 443 портом, который слушает контроллер. Я просто перестал с этим бороться и поставил версию 0.8.3. Там, конечно, многое отсутсвует из настроек, но я просто в темплейте правлю это.
Alexander
13.09.2017
11:51:05
еще непонятно почему такое начинается, ибо на соседнем кластере по версиям все такое же и такого залипания нет. и на проблемном кластере оно было не всегда
не, дизейбл уже давно есть
Also Ingress Controller seems to be not optimized for high load.
вот это точно
Роман
13.09.2017
11:52:53
Я это обнаружил так: на нашем сайте, если заходить с десктопов, то всё нормально. Но если начать заходить с телефона - сразу же начинаются тормоза! Просто намертво зависает и всё. Если закрыть с телефона, то через какое-то время всё начинает снова работать. Магия!
Alexander
13.09.2017
11:54:34
https://github.com/kubernetes/ingress/pull/1190
кстати да, висит один коннект с китайского IP
хз что он туда слал, но он влип и больше нифига не работает
кстати это вроде ответ на тот issue что ты скинул
Роман
13.09.2017
12:00:15
Mikhail
13.09.2017
12:04:45
У меня такой вопрос : если я хочу заменить cluster domain, не развалит ли это мой текущий кластер? И в каком порядке лучше производить замену? Причем у меня кластеризованный мастер, на 3х хостах навернуто
Alexander
13.09.2017
12:09:15
@tetramin ты говоришь, это начинается после того, как пройдет какой-то коннект?
то есть все ок, клиент X законнектился и все потухло
просто у меня тоже по идее такой коннект есть, висящий сокет китайского IP не отобразился в логах вот здесь https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L402
Роман
13.09.2017
12:11:53
то есть все ок, клиент X законнектился и все потухло
Когда веб-приложение только начинает грузиться, так и тухнет. А в логах не отображается. Хотя tcpdump показывает коннект. Потому, что это ssl (до успешного хендшейка мы не можем узнать server_name), и он там как-то не очень дружит с SNI, поэтому и до логов не доходит.
Alexander
13.09.2017
12:13:08
tls handshake (и в том числе hello) парсит уже go n.proxy.Handle(conn)
до него не доходит дело
потому что не доходит и до записи в лог адреса клиента
tcpdump у меня показывает 3WHS и данные от клиента не ack'аются потому что не было accept'a от контроллера
Google
Alexander
13.09.2017
12:16:33
так а что нам даст отключение ssl passthrough? не будет этого мапа 442/443 порта и https начнет слушать уже сам nginx?
как тогда будет https работать
Роман
13.09.2017
12:21:18
Alexander
13.09.2017
12:21:44
а нафига тогда изначально было такую схему мутить чтоб его слушал контроллер...
почему было бы сразу так не сделать как в этом PR
Роман
13.09.2017
12:23:13
Это для passthrough видимо. Когда сертификаты отдаются не первым nginx'ом, а бэкендом.
Я так и не понял тоже - скорее всего просто не потестили и сразу залили в мастер.
Admin
Alexander
13.09.2017
12:23:16
и proxy_protocol получается уже не нужен
Роман
13.09.2017
12:23:24
Не нужен.
Alexander
13.09.2017
12:23:43
тогда вопрос остается зачем изначально нагородили такое :) не работающее дерьмо
буду тогда пробовать избавляться от терминирующего https контроллера
наверное с расчетом что сервисы могут и не уметь в хттпс, но крутилки для тех кто умеет чтоб занимались этим сами - не было
bebebe
13.09.2017
12:57:06
вопрос со звездочкой, можно ли одной компандой сдампить все ресурсы k8s что бы потом из этого дампа их восстановить? речь идет о storageclass и т.д.
Let Eat
13.09.2017
13:10:27
bebebe , https://github.com/kubernetes-incubator/kube-aws/blob/master/core/controlplane/config/templates/cloud-config-controller#L1076-L1126
(дампить недостаточно, надо подчищать, чтобы можно было восстановить)
Maria
13.09.2017
13:55:16
Looking for Container Engineer / Docker/ Kubernetes — Odessa or Remote
for #Odessa (Ukraine) office or #remote #fulltime
#docker #container #developer #itjobs #itodessa
https://jobs.dou.ua/companies/electriccloud/vacancies/48924/
skype - barrracuda
Сергей
13.09.2017
13:57:04
О Мария)
Maria
13.09.2017
13:58:50
ну помогите же кто-нибудь :)))
Сергей
13.09.2017
13:59:19
Ява и перл - будет тяжело
Maria
13.09.2017
13:59:42
а я никогда легких путей не ищу. мне или perl или java
Google
Сергей
13.09.2017
14:00:03
тут есть чатик по вакансиям
лучше туда
Fike
13.09.2017
14:00:22
Извините меня за любопытство, просто распирает уже. Почему ориентированные на русскоязычный сегмент вакансии постятся на английском?
Сергей
13.09.2017
14:01:08
https://t.me/devops_jobs
ну английский все же международный язык и в айти тоже
)
Михаил
13.09.2017
14:45:43
Сергей
13.09.2017
14:47:15
там код писать надо)
Михаил
13.09.2017
14:49:02
что бы еще в кубе работал?)
Сергей
13.09.2017
14:49:11
и на ява
неа
что бы куб работал)
Anton
13.09.2017
15:23:28
а c nodePort для service порт на * открывается?
Maksim
13.09.2017
15:31:17
* это что такое?
Айбелив
13.09.2017
15:34:14
service port range наверняка
Mikhail
13.09.2017
16:31:44
Это я думаю все интерфейсы
Сергей
13.09.2017
16:34:19
нет не для всех