Никита
25.09.2017
18:36:18
спасибо
Сергей
25.09.2017
18:36:44
да нет за что
кстати, будет опыт с нетворк полиси - отпишите плиз
Mikhail
25.09.2017
18:46:53
А подскажите вот чего.
Сервис с типом LoadBalancing по сути достаточно для того, чтобы траффик распределялся между подами этого сервиса и таким образом организовать устойчивость к высокой нагрузке?Или надо проходиться сильно напильником, чтобы это хорошо работало?
Google
Сергей
25.09.2017
18:47:39
LoadBalancing - это метод выставить сервайс во внешний мир, в сервисе может быть 1 или более подов
никто не отменял того факта, что у вас нода должа быть норм затюнена под нагрузку
плюс всякие лимиты и тп
и сам лодбалансер
Mikhail
25.09.2017
18:49:53
Ага...а метод балансировки между подами оптимальный?
Или может имеет смысл настроить перед кластером Nginx+, который автодискаверил бы теже самые поды и на них напрямую слал ? (хотя это уже идет в разрез концепции Кубера)
Ну сами ноды это понятно, никто не отменял простые законы,спасибо :)
Сергей
25.09.2017
18:50:51
тайп лодбалансер - это дергунть ручку и воткнуть сервис в балансер облачного провайдера
elb или гугловый аналог
он еще умеет диджитал ошун вроде
и опенстековскмй LBaaS
если у тебя баре метал или облако, дял которого нет драйвера метод у тебя один остается - нодпорт
Mikhail
25.09.2017
18:52:04
А если я у себя это разворачиваю?
О как
Google
Сергей
25.09.2017
18:52:12
NodePort
да
и учтите - трафик будет бегать черз преобразование айпи и портов
Mikhail
25.09.2017
18:52:31
Вот это не зачет как то(((
Сергей
25.09.2017
18:52:34
днат по факту
а это таблица ната и контракта
я у себя на однмо проекте для нагрузки тупо трафик пускал на прямую в контейнер через его ноду
минуя ната
балансер тупо имел маршруты на все сети докер хостов
ничего лучше директ роутинга для нагрузкти еще не придумали
Mikhail
25.09.2017
18:54:49
Я прям как то расстроился)
Andrew
25.09.2017
18:55:00
зря)
Сергей
25.09.2017
18:55:05
тут вопрос что у вас за нагрузка?
ну мне надо было в районе 10Г на приличном ппс
а может у вас там пару сот тыщ ппс
тут простой тюниг нод даст норм результат
Andrew
25.09.2017
18:56:18
проблемы надо решать по мере их поступления
Mikhail
25.09.2017
18:56:55
Да нагрузка это так, чисто спортивный интерес, хотелось бы чтобы нагрузка в 200krps мог вытащить сервис + авторазворачивание подов при увеличении нагрузки :)
Сергей
25.09.2017
18:56:55
ну как проблема, если человек знает профиль нагрузки - то можно меры предпринять зарание
Mikhail
25.09.2017
18:57:13
А на расстроился это я про IP и dnat (
Google
Сергей
25.09.2017
18:57:39
ну 200к рпс - не беда на норм ноде, с тюнингом и норм сетевыми
вообще сейчас не хай лоад
Andrew
25.09.2017
18:57:58
hpa тоже нормально работает
Сергей
25.09.2017
18:58:40
hpa?
Andrew
25.09.2017
18:59:25
ну он написал про авторазворачивание подов - horisontal pod autoscaler
Сергей
25.09.2017
19:00:00
'nj lf
Mikhail
25.09.2017
19:00:01
Так, а если же я подниму ingress, тут же не надо морочиться с gподменой IP и портами? Или я чего-то недопонял?
Сергей
25.09.2017
19:00:03
ну это да
ну сама система под подами тоже должна быть готовой
Andrew
25.09.2017
19:00:33
amazon)
Сергей
25.09.2017
19:00:41
я ингрес не юзал, у меня оба раза были l4 кейс)
Andrew
25.09.2017
19:00:45
там и ноды добавлять)
Сергей
25.09.2017
19:00:57
ноды денег стоят)
Mikhail
25.09.2017
19:01:17
Ну зачем амазон, когда свое железо есть)
Сергей
25.09.2017
19:01:19
если учесть, что амазон любит билить каждый чих
Andrew
25.09.2017
19:01:23
что за трафик если денег не приносит)
Сергей
25.09.2017
19:02:01
Миша, на ваш кейс - дайте в сисцтл памяти на таблицу ната и сетевому стеку - и не заморачивайтесь
можно оптимизировать затраты
Andrew
25.09.2017
19:03:06
для начала просто разверните попробуйте
Сергей
25.09.2017
19:03:17
да развернуть не самая большая проблема)
Google
Andrew
25.09.2017
19:03:36
многие проблемы могут и не возникнуть) и вопросы некоторые отпадут
Сергей
25.09.2017
19:03:36
кубспрей с фланелем, а тот с type: host-gw
там останется вопрос только балансировщика)
ну или вейв, если вам реально нужна изоляция на уровне подов
ну там будут свои накладные расходы
Mikhail
25.09.2017
19:04:34
Да я уже развернул, кластеризацию мастеров собрал , сейчас напильником по rbac прохожусь, просто подняли вопрос, а может ли кубер такое выдержать и т.дд с учетом моей конфигурации
Сергей
25.09.2017
19:04:56
я гонял более 10Г трафика на 5 нодах
одна из них была мастер с етсд - ибо тогда мультимастера не было и не надо было на тот момент
Mikhail
25.09.2017
19:05:12
точнее так, выдержать то может, другое дело как это лучше сделать)
неплохо
Сергей
25.09.2017
19:05:25
и апаратный аблансировщик
Mikhail
25.09.2017
19:05:44
т.е.?
Сергей
25.09.2017
19:05:58
самое большое неудобстро было по snmp ему воткнуть нужные поды на балансировку)
Mikhail
25.09.2017
19:06:14
аппаратный это который, сорри за нубский вопрос?)
Сергей
25.09.2017
19:06:25
это типа A10
готовое решение
https://www.a10networks.com/products/thunder-series/thunder-application_delivery_controller
из этой серии
Mikhail
25.09.2017
19:07:09
О,благодарю, хоть буду понимать о чем речь:)
Сергей
25.09.2017
19:07:22
ну был свой скрипт который по snmp втыкал поды на балансировку
Google
Сергей
25.09.2017
19:07:42
скрипт по имени сервиса вытаскивал нужный айпи и порты подов и выткал их в балансировщик
)
а сам балансировщик имел маршруты на нужные кубер ноды
Mikhail
25.09.2017
19:08:13
Т.е. обращался напрямую к подам,поулчается?)
Сергей
25.09.2017
19:08:20
ну те сеть подов 10.60.10.0/24 длступна через ноду 192.168.10.10
ну эьти маршруты и были прописаны
да
Mikhail
25.09.2017
19:08:34
ааа
Сергей
25.09.2017
19:08:45
и чхать я хотел на нат)
Mikhail
25.09.2017
19:08:51
ну вот я думал что-то подобное сделать сейчас, у кубера же ДНС, автодискавери сделать какой
Сергей
25.09.2017
19:08:53
но тогда не было нетворк полиси
Mikhail
25.09.2017
19:09:06
у меня перед кластером Nginx+ стоит
Сергей
25.09.2017
19:09:21
у кубера скластер днс который для сервис дискавери вообще радтает через маркировку пакетов
опять же фаервол)
Andrew
25.09.2017
19:09:55
=)
Сергей
25.09.2017
19:10:15
я долго ковырял как и шо там было сделанно в 1,5 версии
было такое ощущение, что вообще внутрикластерное сервис бискавери сделали как затычку
а в будущем выпилят в пользу того же istio
или linkerd
или как там его
)
Mikhail
25.09.2017
19:12:18
В общем будем потихоньку ковырять)