@kubernetes_ru

Страница 927 из 958
Alexey
20.10.2018
08:40:41
куб размазывает поды равномерно по кластеру и трафик даёт равномерно. И тут всплывает что одна нода нагруженнее другой?

Grisha
20.10.2018
08:41:29
разумеется такое возможно)

он же оперирует коннектами, а не запущенными этими коннектами приложений)

допустим 100 коннектов из которыз 30 /index.php и 70 /update.php

Google
Grisha
20.10.2018
08:42:34
они вызовут разную нагрузку

локейшен у всех будет /

но нагрузка же разная))

Sergey
20.10.2018
08:44:21
у меня вот другой кейс, как service заставить балансить не РР, а на основе нагрузки node?
это ощутимо сложнее, чем можно генерализованно сделать в кубернетесовом лоадбалансере.

Grisha
20.10.2018
08:45:02
в лоад балансере разумеется нет, но возможно есть другой способ, аля анриз но очень умный

Alexey
20.10.2018
08:46:10
это кейс что на одну ноду случайно попадают много /update, а на вторую случайно попадают/index.php маленькая вероятность такого исхода же...

Grisha
20.10.2018
08:47:16
у меня просто другой кей, я описал этот потому что его легче понять

у меня ноды отвечают за стримы

стримы могут длится от 1 минуты до 8 часов

Sergey
20.10.2018
08:47:38
у меня ноды отвечают за стримы
если у вас стримы - то у вас скорее нужно least connection использовать

Grisha
20.10.2018
08:48:34
nope) у меня опять же другая концепция

у меня стример открывает соединение с приложением

и держит его от 1 минуты до8 часов

Google
Grisha
20.10.2018
08:49:02
и допустим ноды 2

стримеров изначально 10

Alexey
20.10.2018
08:49:50
не принимать стримы на поде если нагрузка велика? балансер перекинет другому.

Grisha
20.10.2018
08:49:54
5 стримеров видит на 1 и 5 стримеров на 2. Но проходит 5 часов,стримеры добавляются, какие-то уходят, какие-то приходят и ситуация такая, что на 1-й ноде 50 стримеров, а на второй 20

Alexey
20.10.2018
08:50:17
это логика уровня приложения

только само приложение может за себя решить что ему хватит, пора отклонять.

Grisha
20.10.2018
08:51:01
все еще least connection
бля, а ведь верно

я не дочитал доку, least connection подходит

Sergey
20.10.2018
08:51:25
бля, а ведь верно
вообще рекомендую прочитать https://landing.google.com/sre/book/chapters/load-balancing-datacenter.html

Alexey
20.10.2018
08:51:40
не подходит, если цена connection разная у разных клиентов.

Sergey
20.10.2018
08:52:13
вы говорите правильные вещи, но они обычно не очень просты в реализации и на малых масштабах проще закинуть чуть больше железа, чем бороться за рост утилизации от условных 60% до 90%.

Grisha
20.10.2018
08:52:14
да, это банально, но решает часть проблем

у меня нет проблем с производительностью, пока что) я на этапе создания архитектуры, хочу просто продумать варианты

Grisha
20.10.2018
08:53:49
так суббота же

Sergey
20.10.2018
08:53:58
lc даст вам 70% от идеального решения за 5 минут.

остальные 25 стоят дорого.

Alexey
20.10.2018
08:54:26
писать mvp на коленке за 1-2 дня самая лучшая схема придумывания архитертуры имхо.

Google
Grisha
20.10.2018
08:55:10
у меня сейчсас приложение работает в консул кластере на openvz

приложение уметь выпиздовывать себя из ns консула при большой нагрузке

и так решается проблема перегруза

Alexey
20.10.2018
08:56:50
Пробовали просто не принимать соединения при перегрузе? Вместо отправки в консул? Просто интересно.

Grisha
20.10.2018
08:56:54
я и думаю, или использовать маршрутизацию на основе service или оставить консул

что значит не принемать?) механзм ретрая, если этот отфутболит обратиться к другому?

Alexey
20.10.2018
08:58:24
Grisha
20.10.2018
08:58:39
сейчас фронты лупит в зону консул, а там РР на сервис, если в нс консула нет ендпоинта, то и траф на него не пойдет, но процесс rtmp будет обслуживатбся

Vadim
20.10.2018
08:59:31
http://brandon.dimcheff.com/2018/02/rainbow-deploys-with-kubernetes/ + прикрутить оператор чтобы айдлить старые деплойменты где лавно не было коннектов, читая метрики из прометея

примерно так работает опеншифтовский idle/unidle

bebebe
20.10.2018
09:04:34
Vadim
20.10.2018
09:09:55
отож, только из автоматизации там кронджобы, что не оче удобно

Timur
20.10.2018
10:41:56
Всем привет, надо анкету запонить вроде) ▫️Какой у вас проект или где работаете? музыкальный стартап, нельзя называть ▫️В чём вы специалист? java, алогритмы ▫️Чем можете быть интересны или полезны сообществу? Ничем, я бесполезен ▫️Чем интересно сообщество вам? Я очень тупой в девопс, сижу над простыми вещами по 3 дня, думаю тут что-то узнать или спросить ▫️Откуда вы? Москва ▫️Как узнали про группу? дал друг #whois

Grisha
20.10.2018
10:46:39
ты перый кто прочитал шапку)

Sergey
20.10.2018
10:48:27
ты перый кто прочитал шапку)
первый кого ты заметил

Grisha
20.10.2018
10:48:38
ну или так)

Timur
20.10.2018
10:51:09
Ну да, только вчера два человека написали

Banschikov
20.10.2018
11:08:05
Всем привет! Не подскажите, почему может coreDNS крашится при старте? [FATAL] plugin/loop: Seen "HINFO IN 1066589963736081249.2200974972713167526." more than twice, loop detected

Google
Banschikov
20.10.2018
11:46:22
А можно конфиг посмотреть?
Проблема с systemd-resolved

Никита
20.10.2018
11:49:40
Проблема с systemd-resolved
А если поподробнее?)

Banschikov
20.10.2018
12:01:01
А если поподробнее?)
К сожалению ничего) Только один лог выдает и крашится(

Петлю обнаружил, пишет но чет не могу понять пока как это разрулить

Andrey
20.10.2018
12:04:11
Петлю обнаружил, пишет но чет не могу понять пока как это разрулить
Юзать /var/run/systemd/resolve/resolv.conf в —resolv-conf у кублета ?

Banschikov
20.10.2018
12:05:04
Юзать /var/run/systemd/resolve/resolv.conf в —resolv-conf у кублета ?
https://github.com/coredns/coredns/tree/master/plugin/loop#troubleshooting-loops-in-kubernetes-clusters Да я это прочитал уже тут. Но хотелось бы понять почему проблема пришла.

Andrey
20.10.2018
12:05:52
В смысле, почему? У тебя в /etc/resolv.conf прописано что-то типа "nameserver 127.0.0.53". У coredns не хостовый сетевой неймспейс.

Вот он и отправляет запросы сам себе.

Banschikov
20.10.2018
12:07:43
Ничего там подобного не прописано.

Andrey
20.10.2018
12:08:01
А что там прописано?

Andrey
20.10.2018
12:11:40
Гайс, привет. Вопрос по поводу коннекта к 2м кластерам. Читал про контексты, вроде сделал все по доке. Но не работает. И судя по всему проблема в том что имя юзера у меня в обоих кластерах одинаковое. Это можно как-то порешать на клиентской стороне или все же переименовывать/пересоздавать юзера?

Banschikov
20.10.2018
12:13:41
А что там прописано?
Сначала был прописан адрес nameserver, т.е роутера, потом сменил namserver на 8.8.8.8, и таже фигня

Banschikov
20.10.2018
12:15:45
А причем тогда тут systemd-resolved?
Это я поначалу думал что из него берет эти параметры.Но оказалось что нет.

Andrey
20.10.2018
12:16:19
И не выставлена ли часом у подов с coredns dnsPolicy в ClusterFirst?

Banschikov
20.10.2018
12:20:33
Тогда что в конфиге coredns?
Сейчас пока что не могу посмотреть в кластере. Но если что через kubeadm ставилось все. Kubeadm и coreDNS накатил

Andrey
20.10.2018
12:25:21
Banschikov
20.10.2018
12:26:18
Я kubeadm принципиально не юзаю, так что хз, что тут сказать.
Да спасибо за отклик. Думаю разберусь. А что используешь для провижинша k8s?

Google
Banschikov
20.10.2018
12:28:42
Форк kubespray + packer.io
Ну кому что удобней)

Andrey
20.10.2018
12:29:03
Ну кому что удобней)
А я об удобстве в третью очередь думал

Banschikov
20.10.2018
12:30:15
Andrey
20.10.2018
12:32:10
Какие-то проблемы с kubeadm?
Пока перелопачиваешь kubespray, полностью понимаешь, как именно он сетапит кластер. В случае с kubeadm/kops это совсем не так. Если заюзать в сочетании с пакером, то и новые ноды можно штамповать быстро.

Andrey
20.10.2018
12:35:23
можно попадробнее про новые ноды пакером? он же образы делает. или у вас кастомные образы используются?
У меня кластер на aws. Беру за основу официальный образ убунты, в темплейте при билде применяю к нему немного измененный плейбук scale.yml, в результате готовый к использованию образ ноды.

Из этих образов терраформом уже ноды штампую\пересоздаю.

kvaps
20.10.2018
12:43:29
о, кажись docker hub слег

Ivan
20.10.2018
12:43:42
воувоу, полегче

kvaps
20.10.2018
12:46:55
docker pull ubuntu Using default tag: latest Error response from daemon: received unexpected HTTP status: 503 Service Unavailable

починили

Banschikov
20.10.2018
13:12:55
В смысле, почему? У тебя в /etc/resolv.conf прописано что-то типа "nameserver 127.0.0.53". У coredns не хостовый сетевой неймспейс.
Я щас прописал kubelet доп.параметр при запуске: —resolv-conf=/etc/resolv.conf Но все равно такая-же беда продолжается

Andrey
20.10.2018
13:13:57
Я щас прописал kubelet доп.параметр при запуске: —resolv-conf=/etc/resolv.conf Но все равно такая-же беда продолжается
а в /etc/resolv.conf у тебя точно не лупбэк прописан? и проверь то, что я предложил выше + конфиг в студию.

Страница 927 из 958