@kubernetes_ru

Страница 273 из 958
Сергей
19.09.2017
14:54:24
он вообще берет монапольно нетфильтер в эксплуатацию

Дмитрий
19.09.2017
14:54:27
пошел пинг

мне не нравится это поведение

Сергей
19.09.2017
14:54:47
на сколько я помню докер надо запсукать с ключеком fulse для айпитеблс

Google
Сергей
19.09.2017
14:54:59
ибо в кубернетсе сеткой рулит кубе-прокси

Сергей
19.09.2017
14:55:04
ну что касается айпитеблс

Maksim
19.09.2017
14:55:14
ВЫ там белены покушали?)

кубе-прокси лиш пишет правила для iptables

ни кто там ничего в монополию не уводит)

Сергей
19.09.2017
14:56:09
я не про куб прокси

а про докер

Maksim
19.09.2017
14:56:17
докер то же

)))

Сергей
19.09.2017
14:56:27
рили?

ну зайдите на гитхаб почитайте вопли на счет forward)

Maksim
19.09.2017
14:56:46
ну как бы не льзя забрать такую вещь как ipfilter в монополюи

Google
Сергей
19.09.2017
14:56:57
окей, перефразирую

докер считает что кроме него никто больше нетфильтром не керует

так лучше?

Maksim
19.09.2017
14:57:32
докер им то же не пользуется

..не может.....

им пользуется сетевой стек ядра

и передаёт данные докеру

вернее аппликативу

Дмитрий
19.09.2017
14:58:04
буквально месяц назад поднимал кластер k8s и проблемы такой не было, потому как припоминается что правило FORWARD вроде как было ACCEPT

Сергей
19.09.2017
14:58:10
докер дергает нетфильтер

Maksim
19.09.2017
14:58:24
докер же разделяет сети через nm

Дмитрий
19.09.2017
14:58:43
версия docker была 1.12.x, в данный момент версия 1.13

у меня редхатовская сборка docker

у меня также стали доступны адреса сервисов!!!

спасибо за помощь!

Сергей
19.09.2017
15:03:02
grep -ir "iptables" * |grep -i forward|grep -i drop components/engine/vendor/github.com/docker/libnetwork/drivers/bridge/setup_ip_forwarding.go: // drop only if the daemon option iptables is not set to false. components/engine/vendor/github.com/docker/libnetwork/drivers/bridge/setup_ip_forwarding.go: if err := iptables.SetDefaultPolicy(iptables.Filter, "FORWARD", iptables.Drop); err != nil { components/engine/vendor/github.com/docker/libnetwork/drivers/bridge/setup_ip_forwarding.go: if err := iptables.SetDefaultPolicy(iptables.Filter, "FORWARD", iptables.Drop); err != nil { Mac-mini-Sergey:docker-ce sergeyovsienko$

Дмитрий
19.09.2017
15:03:12
докер считает что кроме него никто больше нетфильтром не керует
Докер при своем запуске безоговорочно генерит свои правила. Все правила которые были созданы до него он затирает. Вот это действительно беда!

Сергей
19.09.2017
15:03:24
я именно про это

вон выше кусок кода

Google
Сергей
19.09.2017
15:03:45
именно

Maksim
19.09.2017
15:03:50
Они решли поставить DROP

это не ipfilter

Сергей
19.09.2017
15:04:17
он при старте демона, если не соит iptables false тупо игнорирует другие то, что было до него и переиначивает таблицу форварда на дроп по умолчанию

а в кубернетесе iptables заведует kube-proxy и выходит конфликт

Дмитрий
19.09.2017
15:06:05
он при старте демона, если не соит iptables false тупо игнорирует другие то, что было до него и переиначивает таблицу форварда на дроп по умолчанию
Надо при первом старте докера делать сразу же iptables-save, а после не давать возможности докеру управлять iptables и соответственно использовать свои правила

Сергей
19.09.2017
15:06:22
так у вас кубер или чистый докер?

Maksim
19.09.2017
15:06:28
нужно убить желание докера лесть в iptables

не его ипархия

Дмитрий
19.09.2017
15:06:33
у меня кубер

Сергей
19.09.2017
15:06:46
ye nfr fgybnt ;t ljrth c fqgbntq,kc afkct

ну так апните же довекр демон с айпитеблс фалсе

dockerd —iptables Enable addition of iptables rules (default true)

dockerd —iptables=false

Дмитрий
19.09.2017
15:07:42
ну так апните же довекр демон с айпитеблс фалсе
до сей поры я об этом не знал и тупо ругался на докер за его выкрутасы с фаерволом

Сергей
19.09.2017
15:07:58
на этот счет не только вы ругаетесь

в ишью на гите есть

Дмитрий
19.09.2017
15:09:44
А я кластер развернул на виртуалках поиграться, думал что уже что то там. Хотя вот после целого дня ковыряний, проверок пришел к выводу чего-то я не понимаю.... А тут все банально

Сергей
19.09.2017
15:10:02
угу

Дмитрий
19.09.2017
15:10:29
Спасибо, ребята!

Google
Сергей
19.09.2017
15:10:33
/usr/bin/dockerd -H fd:// —ip-masq=false —iptables=false —log-driver=json-file —log-level=warn —log-opt=max-file=5 —log-opt=max-size=10m —storage-driver=overlay

вариант запуска докерд от kops

Дмитрий
19.09.2017
15:11:13
А ip-masq в каких случаях следует отключать?

Сергей
19.09.2017
15:11:43
что бы он не лез в таблицу nat

)

Дмитрий
19.09.2017
15:12:22
когда требуется чистый роутинг? но тогда flannel будет инвертировать и делать ip-masq=true!

Сергей
19.09.2017
15:13:02
фланель организует овердейную сеть

для связи подов на разных хостах

Дмитрий
19.09.2017
15:13:09
надо попробовать и у докера и у flannel поставить false и посмотреть что выйдет

Сергей
19.09.2017
15:13:27
а рулежкой iptables в кубернетес занимается kube-proxy

hain POSTROUTING (policy ACCEPT 0 packets, 0 bytes) pkts bytes target prot opt in out source destination 974K 80M KUBE-POSTROUTING all — * * 0.0.0.0/0 0.0.0.0/0 /* kubernetes postrouting rules */ 0 0 MASQUERADE all — * !docker0 172.17.0.0/16 0.0.0.0/0 591K 49M MASQUERADE all — * * 0.0.0.0/0 !100.64.0.0/10 /* kubenet: SNAT for outbound traffic from cluster */ ADDRTYPE match dst-type !LOCAL

Дмитрий
19.09.2017
15:14:25
а рулежкой iptables в кубернетес занимается kube-proxy
это я знаю. хотя плагины cni подгружает kubelet

Сергей
19.09.2017
15:14:55
ну вон правило ната выше я кинул

а вообще классно /* kubenet: SNAT а в правиле MASQUERADE

это как в анекдоте про чапаева и петьку, про нюанс

кстати, тут в кубер уже сетевые политики завезли

кто-то тестил там с калико или вэйв?

Дмитрий
19.09.2017
15:16:51
это как в анекдоте про чапаева и петьку, про нюанс
ох уж эти разработчики... видно долго думали что выбрать

Сергей
19.09.2017
15:17:34
сетевые, ну когда ты можешь разделять доступы на уровне подов

Google
Сергей
19.09.2017
15:17:41
какому поду к какому можно ходить, а какому нельзя

Дмитрий
19.09.2017
15:18:03
кто-то тестил там с калико или вэйв?
Я думал про калико, но так как не понимаю существенных оличий от фланеля, воздерживаюсь его использовать

Сергей
19.09.2017
15:18:32
вот калико умеет сетевые политики, а сейчас в кубере уже и интеграция появилась

Дмитрий
19.09.2017
15:18:37
какому поду к какому можно ходить, а какому нельзя
это интересно, надо копнуть в эту сторону

Сергей
19.09.2017
15:19:20
https://kubernetes.io/docs/tasks/administer-cluster/declare-network-policy/

список там есть

что поддердивается

You’ll need to have a Kubernetes cluster in place, with network policy support. There are a number of network providers that support NetworkPolicy, including: Calico Cilium Kube-router Romana Weave Net Note: The above list is sorted alphabetically by product name, not by recommendation or preference. This example is valid for a Kubernetes cluster using any of these providers.

я выше и писал для примера калико или вэйв

Дмитрий
19.09.2017
15:22:08
мне остается связать это с CNI и в итоге можно будет использовать политики

Maksim
19.09.2017
15:22:38
который то же рулит в iptables в таблице филтер

Сергей
19.09.2017
15:23:43
так это один из network provider который поддерживает NetworkPolicy

Дмитрий
19.09.2017
15:24:50
который то же рулит в iptables в таблице филтер
пусть рулит, лишь бы правильно!

Сергей
19.09.2017
15:29:03
чем Kube-router хорош - так тем, что он юзает iptables+ipset

Mikhail
20.09.2017
09:58:32
А что вы мониторите в Кубере на Bare-metal? Может есть какие-нибудь статьи интересное про это?

А так же покажите ваши дашборды! )

Maksim
20.09.2017
10:04:50
то же самое что и не на баре метал)

кол-во памяти, загруженность проца кол-во hhd

всё бъёться по нодам и namespace

Страница 273 из 958