@kubernetes_ru

Страница 268 из 958
Andrey
12.09.2017
19:52:42
Андрей, Берлин. Бывший сисадмин, сейчас java разработчик. #whois

Alisa
13.09.2017
05:43:05
@DenisIzmaylov

Роман
13.09.2017
05:45:25
Я всегда репорчу, что спам. Кто-нибудь знает сколько нужно репортов, чтобы канал забанили?

Google
Paul
13.09.2017
05:52:44
не нашел системы. Меня (как юзера) забанили за сутки за один репорт. А каналы, судя по всему, не банятся вообще

Dmytro
13.09.2017
06:34:17
Всем привет. Подскажите, как вы организовуете с локальной файловой системой (baremetal). Есть по 2 типа дисков (ssd, hhd) на каждом серваке. Система запущена на ssd (докер работает тут). Хочется выдавать volumes подам на hdd, но при этом не привязыватся к нодам. Возможно используете объеденение в сетевую файловую систему, тогда какую вы выбрали?

Roman
13.09.2017
07:01:08
Кстати, этот вопрос мне тоже инетерсен... И какие потери по производительности?

Andrey
13.09.2017
07:21:05
Ответ не знаю, но может можно вольюмы полуавтоматически перекидывать? Или один на пару инстансов сразу?

Roman
13.09.2017
07:33:32
ну, например картинки... один заливает, а другой отдаёт....

Zon
13.09.2017
07:35:23
ну, например картинки... один заливает, а другой отдаёт....
Может должен быть сервис работы с картинками? мы по webdav на диски раскладывали видео через nginx

Сергей
13.09.2017
07:35:37
самый простой, но не самый лучший вариант, поставить гластерфс и локальные диски с нод загнать в пул

Dmytro
13.09.2017
07:35:55
А зачем вам это? Кубик же под микросервисы заточен, а в мс архитектуре можно и потерять то что лежит на вольюме - не должно быть критично
та проблема не в том чтобы не потерять даные, а в размере места. Например, логи или временые файлы, которым нужно больше места чем есть у докера

тут @kor73rus подкинул мысль о hostPath. Как я понял, будет нормально работать при репликаци под на разные ноды. Но про горизонтальное скалирование можно забыть(два пода на одной ноде, будут моунтится в одну папку), конечно если не предусмотрено такое в app самого пода

Роман
13.09.2017
08:01:02
А кто-нибудь сталкивался с тем, что endpoint пропадает? Более подробно: создаю эндпоинт и сервис гластерфс (для монтирования в подах). Через некоторое время, при попытке пересоздать под, который использует гластер, он мне пишет, что нет эндпоинта. Смотрю - действительно нет. Приходится заново применять эндпоинт и сервис.

Fike
13.09.2017
09:33:11
Sergey
13.09.2017
09:33:51
статику обычно в облаке хранят
а облако работает на магии.

Google
Fike
13.09.2017
09:34:05
при чем тут это?

Anton
13.09.2017
09:34:43
заливку в облако логично асинхронно делать, мало ли в какое число облаков заливать придется. так что какое то время залитые картинки должны пролежать, пока их запушат куда нужно

Alexander
13.09.2017
11:31:58
всем привет, а ни у кого не было что ingress-controller залипает вот тут https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L384 ? то есть слушает 443 порт и не accept()'ит подключения на него типа еще до того как здесь https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L402 пишутся логи, нет сообщений в логах вида "remote address X.X.X.X to local X.X.X.X:443\n"

по ходу перестало поллить listen сокет свой

и предпосылок даже никаких нет, каждый день по времени отваливается, что-то в этой горутине не так, которая сетапит сокет и слушает его

Alexander
13.09.2017
11:40:56
не последняя точно, ща точно скажу

последнюю уже собираю, просто непонятно, на одном кластере проблема есть, на другом нет

версия точно не известна :( но в июле где-то собирал. имедж свой, контроллер тянется через go get

известна такая проблема, которую пофиксили в последних версиях?

Роман
13.09.2017
11:47:45
У меня месяц назад была проблема.

Ребята. Сталкивался ли кто-нибудь с таким? Обычно под вечер (но бывало и с утра) переставал работать nginx-ingress-controller. При попытке войти на сайты с https, происходила очень долгая попытка загрузки, которая ничем не заканчивалась. Просто белый экран и никаких ошибок ни в логах контроллера, ни в логах куба. Вход на http давал ответ 301. Есть предположение, что, поскольку 443 порт слушает не nginx, а контроллер (и дальше направляет трафик на 442 порт nginx'а), то проблема именно в этом месте. Помогите советом, что глянуть.

Alexander
13.09.2017
11:48:05
да, оч похоже

301 редирект от нжинкса на порт 443 контроллера есть, проблемы только с портом который сам контроллер слушает

Роман
13.09.2017
11:48:50
Вот именно. Мы отписались вот тут: https://github.com/kubernetes/ingress/issues/1017

Alexander
13.09.2017
11:48:52
по ptrace видно что он не accept()ит запросы с полученного клиентского тапла. и не видно чтоб поллил сокет

в то же время 10254/healthz работает прекрасно

Google
Alexander
13.09.2017
11:50:10
и он вроде как перечитывает сертификаты, имена подов и прочее, пишет в логи, короче активничает, а вот 443 порт отсох

Роман
13.09.2017
11:50:25
Проблема именно с 443 портом, который слушает контроллер. Я просто перестал с этим бороться и поставил версию 0.8.3. Там, конечно, многое отсутсвует из настроек, но я просто в темплейте правлю это.

Alexander
13.09.2017
11:51:05
еще непонятно почему такое начинается, ибо на соседнем кластере по версиям все такое же и такого залипания нет. и на проблемном кластере оно было не всегда

не, дизейбл уже давно есть

Also Ingress Controller seems to be not optimized for high load. вот это точно

Роман
13.09.2017
11:52:53
Я это обнаружил так: на нашем сайте, если заходить с десктопов, то всё нормально. Но если начать заходить с телефона - сразу же начинаются тормоза! Просто намертво зависает и всё. Если закрыть с телефона, то через какое-то время всё начинает снова работать. Магия!

Alexander
13.09.2017
11:54:34
https://github.com/kubernetes/ingress/pull/1190

кстати да, висит один коннект с китайского IP

хз что он туда слал, но он влип и больше нифига не работает

кстати это вроде ответ на тот issue что ты скинул

Роман
13.09.2017
12:00:15
кстати это вроде ответ на тот issue что ты скинул
Да. Тот человек - aledbf - видимо занимается этим контроллером.

Mikhail
13.09.2017
12:04:45
У меня такой вопрос : если я хочу заменить cluster domain, не развалит ли это мой текущий кластер? И в каком порядке лучше производить замену? Причем у меня кластеризованный мастер, на 3х хостах навернуто

Alexander
13.09.2017
12:09:15
@tetramin ты говоришь, это начинается после того, как пройдет какой-то коннект?

то есть все ок, клиент X законнектился и все потухло

просто у меня тоже по идее такой коннект есть, висящий сокет китайского IP не отобразился в логах вот здесь https://github.com/kubernetes/ingress/blob/master/controllers/nginx/pkg/cmd/controller/nginx.go#L402

Роман
13.09.2017
12:11:53
то есть все ок, клиент X законнектился и все потухло
Когда веб-приложение только начинает грузиться, так и тухнет. А в логах не отображается. Хотя tcpdump показывает коннект. Потому, что это ssl (до успешного хендшейка мы не можем узнать server_name), и он там как-то не очень дружит с SNI, поэтому и до логов не доходит.

Alexander
13.09.2017
12:13:08
tls handshake (и в том числе hello) парсит уже go n.proxy.Handle(conn)

до него не доходит дело

потому что не доходит и до записи в лог адреса клиента

tcpdump у меня показывает 3WHS и данные от клиента не ack'аются потому что не было accept'a от контроллера

Google
Alexander
13.09.2017
12:16:33
так а что нам даст отключение ssl passthrough? не будет этого мапа 442/443 порта и https начнет слушать уже сам nginx?

как тогда будет https работать

Роман
13.09.2017
12:21:18
так а что нам даст отключение ssl passthrough? не будет этого мапа 442/443 порта и https начнет слушать уже сам nginx?
Да. В этой версии (после нашего коммента) должно быть так, что 443 порт слушает сам nginx. И соответственно, сертификаты тоже должен отдавать он. https работает, как и положено при обычной настройке.

Alexander
13.09.2017
12:21:44
а нафига тогда изначально было такую схему мутить чтоб его слушал контроллер...

почему было бы сразу так не сделать как в этом PR

Роман
13.09.2017
12:23:13
Это для passthrough видимо. Когда сертификаты отдаются не первым nginx'ом, а бэкендом. Я так и не понял тоже - скорее всего просто не потестили и сразу залили в мастер.

Admin


Alexander
13.09.2017
12:23:16
и proxy_protocol получается уже не нужен

Роман
13.09.2017
12:23:24
Не нужен.

Alexander
13.09.2017
12:23:43
тогда вопрос остается зачем изначально нагородили такое :) не работающее дерьмо

буду тогда пробовать избавляться от терминирующего https контроллера

наверное с расчетом что сервисы могут и не уметь в хттпс, но крутилки для тех кто умеет чтоб занимались этим сами - не было

bebebe
13.09.2017
12:57:06
вопрос со звездочкой, можно ли одной компандой сдампить все ресурсы k8s что бы потом из этого дампа их восстановить? речь идет о storageclass и т.д.

Let Eat
13.09.2017
13:10:27
bebebe , https://github.com/kubernetes-incubator/kube-aws/blob/master/core/controlplane/config/templates/cloud-config-controller#L1076-L1126

(дампить недостаточно, надо подчищать, чтобы можно было восстановить)

Maria
13.09.2017
13:55:16
Looking for Container Engineer / Docker/ Kubernetes — Odessa or Remote for #Odessa (Ukraine) office or #remote #fulltime #docker #container #developer #itjobs #itodessa https://jobs.dou.ua/companies/electriccloud/vacancies/48924/ skype - barrracuda

Сергей
13.09.2017
13:57:04
О Мария)

Maria
13.09.2017
13:58:50
ну помогите же кто-нибудь :)))

Сергей
13.09.2017
13:59:19
Ява и перл - будет тяжело

Maria
13.09.2017
13:59:42
а я никогда легких путей не ищу. мне или perl или java

Google
Сергей
13.09.2017
14:00:03
тут есть чатик по вакансиям

лучше туда

Fike
13.09.2017
14:00:22
Извините меня за любопытство, просто распирает уже. Почему ориентированные на русскоязычный сегмент вакансии постятся на английском?

Сергей
13.09.2017
14:01:08
https://t.me/devops_jobs

ну английский все же международный язык и в айти тоже

)

Сергей
13.09.2017
14:47:15
там код писать надо)

Михаил
13.09.2017
14:49:02
там код писать надо)
на груви и перле?)

что бы еще в кубе работал?)

Сергей
13.09.2017
14:49:11
и на ява

неа

что бы куб работал)

Anton
13.09.2017
15:23:28
а c nodePort для service порт на * открывается?

Maksim
13.09.2017
15:31:17
* это что такое?

Айбелив
13.09.2017
15:34:14
service port range наверняка

Mikhail
13.09.2017
16:31:44
Это я думаю все интерфейсы

Сергей
13.09.2017
16:34:19
нет не для всех

Страница 268 из 958