@kubernetes_ru

Страница 280 из 958
Никита
25.09.2017
18:36:18
спасибо

Сергей
25.09.2017
18:36:44
да нет за что

кстати, будет опыт с нетворк полиси - отпишите плиз

Mikhail
25.09.2017
18:46:53
А подскажите вот чего. Сервис с типом LoadBalancing по сути достаточно для того, чтобы траффик распределялся между подами этого сервиса и таким образом организовать устойчивость к высокой нагрузке?Или надо проходиться сильно напильником, чтобы это хорошо работало?

Google
Сергей
25.09.2017
18:47:39
LoadBalancing - это метод выставить сервайс во внешний мир, в сервисе может быть 1 или более подов

никто не отменял того факта, что у вас нода должа быть норм затюнена под нагрузку

плюс всякие лимиты и тп

и сам лодбалансер

Mikhail
25.09.2017
18:49:53
Ага...а метод балансировки между подами оптимальный? Или может имеет смысл настроить перед кластером Nginx+, который автодискаверил бы теже самые поды и на них напрямую слал ? (хотя это уже идет в разрез концепции Кубера)

Ну сами ноды это понятно, никто не отменял простые законы,спасибо :)

Сергей
25.09.2017
18:50:51
тайп лодбалансер - это дергунть ручку и воткнуть сервис в балансер облачного провайдера

elb или гугловый аналог

он еще умеет диджитал ошун вроде

и опенстековскмй LBaaS

если у тебя баре метал или облако, дял которого нет драйвера метод у тебя один остается - нодпорт

Mikhail
25.09.2017
18:52:04
А если я у себя это разворачиваю?

О как

Google
Сергей
25.09.2017
18:52:12
NodePort

да

и учтите - трафик будет бегать черз преобразование айпи и портов

Mikhail
25.09.2017
18:52:31
Вот это не зачет как то(((

Сергей
25.09.2017
18:52:34
днат по факту

а это таблица ната и контракта

я у себя на однмо проекте для нагрузки тупо трафик пускал на прямую в контейнер через его ноду

минуя ната

балансер тупо имел маршруты на все сети докер хостов

ничего лучше директ роутинга для нагрузкти еще не придумали

Mikhail
25.09.2017
18:54:49
Я прям как то расстроился)

Andrew
25.09.2017
18:55:00
зря)

Сергей
25.09.2017
18:55:05
тут вопрос что у вас за нагрузка?

ну мне надо было в районе 10Г на приличном ппс

а может у вас там пару сот тыщ ппс

тут простой тюниг нод даст норм результат

Andrew
25.09.2017
18:56:18
проблемы надо решать по мере их поступления

Mikhail
25.09.2017
18:56:55
Да нагрузка это так, чисто спортивный интерес, хотелось бы чтобы нагрузка в 200krps мог вытащить сервис + авторазворачивание подов при увеличении нагрузки :)

Сергей
25.09.2017
18:56:55
ну как проблема, если человек знает профиль нагрузки - то можно меры предпринять зарание

Mikhail
25.09.2017
18:57:13
А на расстроился это я про IP и dnat (

Google
Сергей
25.09.2017
18:57:39
ну 200к рпс - не беда на норм ноде, с тюнингом и норм сетевыми

вообще сейчас не хай лоад

Andrew
25.09.2017
18:57:58
hpa тоже нормально работает

Сергей
25.09.2017
18:58:40
hpa?

Andrew
25.09.2017
18:59:25
ну он написал про авторазворачивание подов - horisontal pod autoscaler

Сергей
25.09.2017
19:00:00
'nj lf

Mikhail
25.09.2017
19:00:01
Так, а если же я подниму ingress, тут же не надо морочиться с gподменой IP и портами? Или я чего-то недопонял?

Сергей
25.09.2017
19:00:03
ну это да

ну сама система под подами тоже должна быть готовой

Andrew
25.09.2017
19:00:33
amazon)

Сергей
25.09.2017
19:00:41
я ингрес не юзал, у меня оба раза были l4 кейс)

Andrew
25.09.2017
19:00:45
там и ноды добавлять)

Сергей
25.09.2017
19:00:57
ноды денег стоят)

Mikhail
25.09.2017
19:01:17
Ну зачем амазон, когда свое железо есть)

Сергей
25.09.2017
19:01:19
если учесть, что амазон любит билить каждый чих

Andrew
25.09.2017
19:01:23
что за трафик если денег не приносит)

Сергей
25.09.2017
19:02:01
Миша, на ваш кейс - дайте в сисцтл памяти на таблицу ната и сетевому стеку - и не заморачивайтесь

можно оптимизировать затраты

Andrew
25.09.2017
19:03:06
для начала просто разверните попробуйте

Сергей
25.09.2017
19:03:17
да развернуть не самая большая проблема)

Google
Andrew
25.09.2017
19:03:36
многие проблемы могут и не возникнуть) и вопросы некоторые отпадут

Сергей
25.09.2017
19:03:36
кубспрей с фланелем, а тот с type: host-gw

там останется вопрос только балансировщика)

ну или вейв, если вам реально нужна изоляция на уровне подов

ну там будут свои накладные расходы

Mikhail
25.09.2017
19:04:34
Да я уже развернул, кластеризацию мастеров собрал , сейчас напильником по rbac прохожусь, просто подняли вопрос, а может ли кубер такое выдержать и т.дд с учетом моей конфигурации

Сергей
25.09.2017
19:04:56
я гонял более 10Г трафика на 5 нодах

одна из них была мастер с етсд - ибо тогда мультимастера не было и не надо было на тот момент

Mikhail
25.09.2017
19:05:12
точнее так, выдержать то может, другое дело как это лучше сделать)

неплохо

Сергей
25.09.2017
19:05:25
и апаратный аблансировщик

Mikhail
25.09.2017
19:05:44
т.е.?

Сергей
25.09.2017
19:05:58
самое большое неудобстро было по snmp ему воткнуть нужные поды на балансировку)

Mikhail
25.09.2017
19:06:14
аппаратный это который, сорри за нубский вопрос?)

Сергей
25.09.2017
19:06:25
это типа A10

готовое решение

https://www.a10networks.com/products/thunder-series/thunder-application_delivery_controller

из этой серии

Mikhail
25.09.2017
19:07:09
О,благодарю, хоть буду понимать о чем речь:)

Сергей
25.09.2017
19:07:22
ну был свой скрипт который по snmp втыкал поды на балансировку

Google
Сергей
25.09.2017
19:07:42
скрипт по имени сервиса вытаскивал нужный айпи и порты подов и выткал их в балансировщик

)

а сам балансировщик имел маршруты на нужные кубер ноды

Mikhail
25.09.2017
19:08:13
Т.е. обращался напрямую к подам,поулчается?)

Сергей
25.09.2017
19:08:20
ну те сеть подов 10.60.10.0/24 длступна через ноду 192.168.10.10

ну эьти маршруты и были прописаны

да

Mikhail
25.09.2017
19:08:34
ааа

Сергей
25.09.2017
19:08:45
и чхать я хотел на нат)

Mikhail
25.09.2017
19:08:51
ну вот я думал что-то подобное сделать сейчас, у кубера же ДНС, автодискавери сделать какой

Сергей
25.09.2017
19:08:53
но тогда не было нетворк полиси

Mikhail
25.09.2017
19:09:06
у меня перед кластером Nginx+ стоит

Сергей
25.09.2017
19:09:21
у кубера скластер днс который для сервис дискавери вообще радтает через маркировку пакетов

опять же фаервол)

Andrew
25.09.2017
19:09:55
=)

Сергей
25.09.2017
19:10:15
я долго ковырял как и шо там было сделанно в 1,5 версии

было такое ощущение, что вообще внутрикластерное сервис бискавери сделали как затычку

а в будущем выпилят в пользу того же istio

или linkerd

или как там его

)

Mikhail
25.09.2017
19:12:18
В общем будем потихоньку ковырять)

Страница 280 из 958