@kubernetes_ru

Страница 643 из 958
kvaps
26.06.2018
08:48:50
на сервисы

Алексей
26.06.2018
08:49:30
деплой у меня отличается от штатного немного sysctl добавленны чтоб в режиме тунелирования работало + prometheus метрики выведенны

kvaps
26.06.2018
08:50:13
не, я про то как роутится трафик из внешней сети в куб

Алексей
26.06.2018
08:50:43
пакеты идут на lvs балансировщик с него на поды с подов напрямую к клиенту

Google
Алексей
26.06.2018
08:50:53
сеть l2

и внешка и внутренняя

kvaps
26.06.2018
08:51:03
в L2-режиме меня смутило что на простой arp-запрос who-has, отвечают сразу все ноды кластера

у вас так же?

или как ваш роутер узнает на какую ноду слать пакеты?

Алексей
26.06.2018
08:56:25
сервисы висят на noarp интерфейсе это те которые внутренние внешка выделенна в 3 машины, l2 только на них собственно проблемы не вижу

в общем то это более менее стантартный способ рабоы lvs

Roman
26.06.2018
08:57:37
Роман, покажи поды в kube-system и кинь ссылку на daemon-set сети
https://pastebin.com/UED9BD47 Сеть L3. Я похоже разобрался. Если сделать route внешней сетки на сервере где есть kube-router, то все работает и трафик уже начинает роутится.

kvaps
26.06.2018
08:58:42
Алексей у меня по умолчанию все ноды отвечали, у вас получается только три? - или что значит "внешка выделенна в 3 машины"? - просто arp работает там?

Алексей
26.06.2018
09:01:05
если использую отдельный vip с маскарадингом то да но я в основном использую tunneled режим, маскарадинг мой трафик не тянет а в tunneled режиме vip и nodeip одно и тоже

kvaps
26.06.2018
09:05:19
Очень интересно:) У меня много IP-адрессов и много нод, нужно организовать несколько точек входа для каждого из них. Kube-router выглядит очень многообещающе но как разрулить эти точки входа в L2-режиме я так и не придумал, похоже arptables надо просто подкрутить

Алексей
26.06.2018
09:06:02
vмного нод это сколько?

Andor
26.06.2018
09:06:21
4-6

Google
kvaps
26.06.2018
09:07:07
ну пока 200

Алексей
26.06.2018
09:07:39
а они что все должны торчать наружу?

Roman
26.06.2018
09:07:51
ну пока 200
А сколько сервисов и pod-ов?

kvaps
26.06.2018
09:09:25
ну пока не так много kubectl get pod --all-namespaces | wc -l 1626

Алексей
26.06.2018
09:09:32
собственно lvs в режиме тунелирования или directrouting позволяет прокачивать очень много, 30 krp/s у меня через lvs спокойно пролазиет

это на 4 нодах которые смотрят наружу основная нагрузка идет на nginx/haproxy внутри

в принципе хватило бы и одной ноды, но входящий канал не позволяет

kvaps
26.06.2018
09:12:03
туннелинг это тот который: --enable-overlay When enable-overlay set to true, IP-in-IP tunneling is used for pod-to-pod networking across nodes in different subnets. When set to false no tunneling is used and routing infrastrcture is expected to route traffic for pod-to-pod networking across nodes in different subnets (default true)?

Алексей
26.06.2018
09:13:13
нет

annotations: kube-router.io/service.dsr: tunnel

service.dsr грепни в документации

kvaps
26.06.2018
09:14:31
спасиб!

Алексей
26.06.2018
09:15:06
там без sysctl специфических не заведется, ну вернее зависит от того что дефолтом

и от версии ядра

ну и в принципе можно еще vrrp впилить тогда оно еще и внешние ip отказоустойчивыми сделает

kvaps
26.06.2018
09:21:05
ага, то есть это тот самый новомодный Direct server return

но когда тестил kube-router, очень понравился своей нативностью и наличием DSR - его то я правда и не потестил тогда

Алексей
26.06.2018
09:29:56
а почему ‘новомодный Direct server return’ я эту хрень юзал в 2005 году еще

если не ошибаюсь по времени

Google
Алексей
26.06.2018
09:30:21
ну в 2008 точно

kvaps
26.06.2018
09:33:00
потому что никто кроме kube-router больше не предоставляет эту функцию, везде по умолчанию предлагается только nat, в какой-то момент она меня очень заинтересовала, но до тестов пока так и не дошло

Tores
26.06.2018
09:33:03
доброго дня, подскажите что дает реплика 3шт kube-dns (делаю по этой статье с 3-я мастерами) https://habr.com/post/358264/#othermaster

kvaps
26.06.2018
09:37:57
сейчас используем romana и pipework для некоторых сервисов, который в принципе делает почти тоже самое. (ассигнит внешний ip в сетевой неймспейс пода), pipework - хочется выкинуть, но увы, вариантов пока особо нет.

Tores
26.06.2018
09:38:03
на текщий момент 3 мастера все в статусе Ready, но потом предлагается kube-dns реплицировать до количества мастеров, и затем прописать количество apiserver-count 3 в манифесте kube-apiserver.yaml каждого мастера- я этот момент никак не поиму - что это дает?

Tores
26.06.2018
09:42:53
ох я невнимательный.. спс

kvaps
26.06.2018
09:42:57
доброго дня, подскажите что дает реплика 3шт kube-dns (делаю по этой статье с 3-я мастерами) https://habr.com/post/358264/#othermaster
реплика 3шт дает три запущенных dns-пода в кластере, и балансировку между ними

Алексей
26.06.2018
09:43:02
pipework эт что?

я немного не в трэнде, варюсь сам по себе и тенденции не отслеживаю

kvaps
26.06.2018
09:44:48
эт древний скрипт, который позволяет в неймспейс контейнера прокидывать интерфейсы и ассигнить айпишники, прописывать роуты включая дефолтный и все такое https://github.com/jpetazzo/pipework

не рекомендуется к использованию, так как это НЕнативный способ сети в docker и k8s

Алексей
26.06.2018
09:50:01
чет напоминает помесь bridge-utils + обвязку + всякую фигню

kvaps
26.06.2018
09:51:20
так оно и есть

Алексей
26.06.2018
09:55:45
у вас профиль сетевой нагрузки какой в основном?

сервисы с высоким rps есть?

насколько я понимаю использование iptables для сервисов с высоким rps это изначально тупик с костылями высокий это от 5k rps в секунду на ноду

запросов а не пакетов

собственно поэтому я сразу начал плясать от ipvs

тем более я его давно знаю и пользую

Google
kvaps
26.06.2018
10:01:41
сколько rps честно не знаю, но такие севисы точно есть, потеря призводительности - это одна из основных причин почему мы пробрасываем внешние интерфесы сразу в под, а не роутим средствами k8s

но повторюсь, от этого очень хочется уйти

Алексей
26.06.2018
10:08:06
ну боль понятна, скриптами обросли

kvaps
26.06.2018
10:12:03
Не, скрипт то один, и запущен как демонсет, эт ваще не напрягает

Не нравится то, что куб ничего не знает о том что происходит внутри контейнера и никак не отслеживает эти изменения

Andrey
26.06.2018
10:19:58
CRI-O ещё.

kvaps
26.06.2018
10:20:47
Не понял, а это тут при чем?

Разговор был про сетевой стейк контейнера

Quang
26.06.2018
10:24:55
Hi all. Anyone have that issue ? == Failed to curl https://kubeupv2.s3.amazonaws.com/kops/1.9.1/linux/amd64/nodeup. Retrying. == All downloads failed; sleeping before retrying % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 0 0 0 0 0 0 0 0 --:--:-- 0:00:19 --:--:-- 0Warning: Transient problem: timeout Will retry in 10 seconds. 6 retries left. 0 0 0 0 0 0 0 0 --:--:-- 0:00:19 --:--:-- 0Warning: Transient problem: timeout Will retry in 10 seconds. 5 retries left. 0 0 0 0 0 0 0 0 --:--:-- 0:00:19 --:--:-- 0Warning: Transient problem: timeout Will retry in 10 seconds. 4 retries left. 0 0 0 0 0 0 0 0 --:--:-- 0:00:19 --:--:-- 0^C

Quang
26.06.2018
10:32:23
i deployed k8s using kops but have that error on my master node.

command used : kops create cluster --node-count 4 --zones ap-southeast-1a --master-zones ap-southeast-1a --dns-zone=${DNS_ZONE_PRIVATE_ID} --dns private --node-size t2.medium --master-size t2.small --topology private --networking weave --vpc=${VPC_ID} --bastion=true ${NAME}

need to check nat gw on master node ?? because i see my master node is stay on private subnet, but i i already added nat GW.

https://kubecloud.io/ha-kubernetes-cluster-on-aws-kops-makes-it-easy-2337806d0311

i'm using this tutorial.

bebebe
26.06.2018
10:35:50
need to check nat gw on master node ?? because i see my master node is stay on private subnet, but i i already added nat GW.
yep, looks like there is a connectivity problem between your master node and uplink

Quang
26.06.2018
10:36:34
oke. let me check again.

Andor
26.06.2018
10:36:51
VN?

Anatolii
26.06.2018
13:03:09
Друзья, подскажите почему деплой происходит как-будто из какого-то кеша. Я на докер хабе образ обновил, а деплотся старый?

Google
Andor
26.06.2018
13:03:26
небось со старым тегом?

Anatolii
26.06.2018
13:03:56
Andor
26.06.2018
13:04:00
https://kubernetes.io/docs/concepts/containers/images/#updating-images

Volodimir Fedorov
26.06.2018
13:19:19
a=1 b=2 envsubst < template.yml > kubectl create -f - прокатит или надо вместо > |?

Andor
26.06.2018
13:20:39
а ты между ними знаешь разницу?

Volodimir Fedorov
26.06.2018
13:21:53
нужен пайп короче

Andrey
26.06.2018
13:23:24
нужен

Alexander
26.06.2018
15:59:50
Новый сервис для развертывания k8s в публичном облаке (пока AWS, потом другие): https://cloud.vmware.com/community/2018/06/26/introducing-vmware-kubernetes-engine-vke/ В beta можно поучаствовать тут: https://cloud.vmware.com/vmware-kubernetes-engine

Алексей
26.06.2018
16:10:51
Коллеги, подскажите пожалуйста как заставить StatefulSet перекатывать поды? Поставил spec.updateStrategy.type.RollingUpdate Пробовал добавить в spec.template и в spec.template.spec Всё безрезультатно. не перекатываются поды

Andor
26.06.2018
16:17:14
что такое "перекатывать поды"?

Harry
26.06.2018
16:28:14
Rolling update - это же при изменениях извне

Т.е. в любом случае что-то должно апдейт дёргать

И да, это же вроде только для деплойментов

Quang
26.06.2018
17:17:36
anyone know that error ? pods is forbidden: User "kube" cannot list pods in the namespace "default"

Andor
26.06.2018
17:18:05
прав нет

Denis
26.06.2018
17:18:10
Вангую это с дэшборда

Страница 643 из 958