@kubernetes_ru

Страница 642 из 958
Никита
25.06.2018
17:10:53
Да. Спасибо, уже понял механизм их работы)

Lucky SB
25.06.2018
17:11:43
было что-то похожее. у dnsmasq есть лимиты по количеству запросов, которые он может обслужить. если превышать, то он перестает отвечать. решил увеличением min: в cm kubedns-autoscaler

а у кого в кубе схема с тремя мастерами ? У меня куб налит через kubespray - выключение одного из мастеров приводит к большим проблемам в кластере. etcd лидер переключается, а вот с лидером контролера и шедулера проблемы - падать начинают. помогает убийство через kill -9 api-серверов на оставшихся двух мастерах

Google
Lucky SB
25.06.2018
17:17:25
куб - 1.9.5

Lucky SB
25.06.2018
18:01:56
связность хорошая. пробовал в разных средах. последняя - 4 kvm виртуалки на одном сервере

в логах всякая ругань E0625 16:54:04.122089 1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: the server was unable to return a response in he time allotted, but may still be processing the request (get endpoints kube-controller-manager)

E0625 16:54:04.426652 1 available_controller.go:295] v1.apps failed with: Unable to refresh the Webhook configuration: the server was unable to return a responsein the time allotted, but may still be processing the request (get mutatingwebhookconfigurations.admissionregistration.k8s.io)

Что по логам? У всех сетевая связность хорошая? Какие параметры командной строки?
вот шедулер стал лидером и через пару минут упал I0625 16:46:58.844686 1 leaderelection.go:184] successfully acquired lease kube-system/kube-scheduler E0625 16:47:28.846151 1 event.go:200] Server rejected event '&v1.Event{TypeMeta:v1.TypeMeta{Kind:"", APIVersion:""}, ObjectMeta:v1.ObjectMeta{Name:"kube-scheduler.153b75120f0b301b", GenerateName:"", Namespace:"kube-system", SelfLink:"", UID:"", ResourceVersion:"", Generation:0, CreationTimestamp:v1.Time{Time:time.Time{wall:0x0, ext:0, loc:(*time.Location)(nil)}}, DeletionTimestamp:(*v1.Time)(nil), DeletionGracePeriodSeconds:(*int64)(nil), Labels:map[string]string(nil), Annotations:map[string]string(nil), OwnerReferences:[]v1.OwnerReference(nil), Initializers:(*v1.Initializers)(nil), Finalizers:[]string(nil), ClusterName:""}, InvolvedObject:v1.ObjectReference{Kind:"Endpoints", Namespace:"kube-system", Name:"kube-scheduler", UID:"4513c97b-77e5-11e8-9da6-52540083231b", APIVersion:"v1", ResourceVersion:"123985", FieldPath:""}, Reason:"LeaderElection", Message:"master-2.southbridge.ru became leader", Source:v1.EventSource{Component:"default-scheduler", Host:""}, FirstTimestamp:v1.Time{Time:time.Time{wall:0xbec46500b2589c1b, ext:12936456215678, loc:(*time.Location)(0xaabce00)}}, LastTimestamp:v1.Time{Time:time.Time{wall:0xbec46500b2589c1b, ext:12936456215678, loc:(*time.Location)(0xaabce00)}}, Count:1, Type:"Normal", EventTime:v1.MicroTime{Time:time.Time{wall:0x0, ext:0, loc:(*time.Location)(nil)}}, Series:(*v1.EventSeries)(nil), Action:"", Related:(*v1.ObjectReference)(nil), ReportingController:"", ReportingInstance:""}': 'Timeout: request did not complete within allowed duration' (will not retry!) E0625 16:51:57.646976 1 leaderelection.go:258] Failed to update lock: Unable to refresh the Webhook configuration: the server was unable to return a response in the time allotted, but may still be processing the request (get mutatingwebhookconfigurations.admissionregistration.k8s.io) E0625 16:52:06.946364 1 leaderelection.go:258] Failed to update lock: Unable to refresh the Webhook configuration: the server was unable to return a response in the time allotted, but may still be processing the request (get mutatingwebhookconfigurations.admissionregistration.k8s.io) E0625 16:52:06.946387 1 event.go:260] Could not construct reference to: '&v1.Endpoints{TypeMeta:v1.TypeMeta{Kind:"", APIVersion:""}, ObjectMeta:v1.ObjectMeta{Name:"", GenerateName:"", Namespace:"", SelfLink:"", UID:"", ResourceVersion:"", Generation:0, CreationTimestamp:v1.Time{Time:time.Time{wall:0x0, ext:0, loc:(*time.Location)(nil)}}, DeletionTimestamp:(*v1.Time)(nil), DeletionGracePeriodSeconds:(*int64)(nil), Labels:map[string]string(nil), Annotations:map[string]string(nil), OwnerReferences:[]v1.OwnerReference(nil), Initializers:(*v1.Initializers)(nil), Finalizers:[]string(nil), ClusterName:""}, Subsets:[]v1.EndpointSubset(nil)}' due to: 'selfLink was empty, can't make reference'. Will not report event: 'Normal' 'LeaderElection' 'master-2.southbridge.ru stopped leading' I0625 16:52:06.946424 1 leaderelection.go:203] failed to renew lease kube-system/kube-scheduler: timed out waiting for the condition E0625 16:52:06.946434 1 server.go:608] lost master error: lost lease

Andrey
25.06.2018
18:36:51
вот шедулер стал лидером и через пару минут упал I0625 16:46:58.844686 1 leaderelection.go:184] successfully acquired lease kube-system/kube-scheduler E0625 16:47:28.846151 1 event.go:200] Server rejected event '&v1.Event{TypeMeta:v1.TypeMeta{Kind:"", APIVersion:""}, ObjectMeta:v1.ObjectMeta{Name:"kube-scheduler.153b75120f0b301b", GenerateName:"", Namespace:"kube-system", SelfLink:"", UID:"", ResourceVersion:"", Generation:0, CreationTimestamp:v1.Time{Time:time.Time{wall:0x0, ext:0, loc:(*time.Location)(nil)}}, DeletionTimestamp:(*v1.Time)(nil), DeletionGracePeriodSeconds:(*int64)(nil), Labels:map[string]string(nil), Annotations:map[string]string(nil), OwnerReferences:[]v1.OwnerReference(nil), Initializers:(*v1.Initializers)(nil), Finalizers:[]string(nil), ClusterName:""}, InvolvedObject:v1.ObjectReference{Kind:"Endpoints", Namespace:"kube-system", Name:"kube-scheduler", UID:"4513c97b-77e5-11e8-9da6-52540083231b", APIVersion:"v1", ResourceVersion:"123985", FieldPath:""}, Reason:"LeaderElection", Message:"master-2.southbridge.ru became leader", Source:v1.EventSource{Component:"default-scheduler", Host:""}, FirstTimestamp:v1.Time{Time:time.Time{wall:0xbec46500b2589c1b, ext:12936456215678, loc:(*time.Location)(0xaabce00)}}, LastTimestamp:v1.Time{Time:time.Time{wall:0xbec46500b2589c1b, ext:12936456215678, loc:(*time.Location)(0xaabce00)}}, Count:1, Type:"Normal", EventTime:v1.MicroTime{Time:time.Time{wall:0x0, ext:0, loc:(*time.Location)(nil)}}, Series:(*v1.EventSeries)(nil), Action:"", Related:(*v1.ObjectReference)(nil), ReportingController:"", ReportingInstance:""}': 'Timeout: request did not complete within allowed duration' (will not retry!) E0625 16:51:57.646976 1 leaderelection.go:258] Failed to update lock: Unable to refresh the Webhook configuration: the server was unable to return a response in the time allotted, but may still be processing the request (get mutatingwebhookconfigurations.admissionregistration.k8s.io) E0625 16:52:06.946364 1 leaderelection.go:258] Failed to update lock: Unable to refresh the Webhook configuration: the server was unable to return a response in the time allotted, but may still be processing the request (get mutatingwebhookconfigurations.admissionregistration.k8s.io) E0625 16:52:06.946387 1 event.go:260] Could not construct reference to: '&v1.Endpoints{TypeMeta:v1.TypeMeta{Kind:"", APIVersion:""}, ObjectMeta:v1.ObjectMeta{Name:"", GenerateName:"", Namespace:"", SelfLink:"", UID:"", ResourceVersion:"", Generation:0, CreationTimestamp:v1.Time{Time:time.Time{wall:0x0, ext:0, loc:(*time.Location)(nil)}}, DeletionTimestamp:(*v1.Time)(nil), DeletionGracePeriodSeconds:(*int64)(nil), Labels:map[string]string(nil), Annotations:map[string]string(nil), OwnerReferences:[]v1.OwnerReference(nil), Initializers:(*v1.Initializers)(nil), Finalizers:[]string(nil), ClusterName:""}, Subsets:[]v1.EndpointSubset(nil)}' due to: 'selfLink was empty, can't make reference'. Will not report event: 'Normal' 'LeaderElection' 'master-2.southbridge.ru stopped leading' I0625 16:52:06.946424 1 leaderelection.go:203] failed to renew lease kube-system/kube-scheduler: timed out waiting for the condition E0625 16:52:06.946434 1 server.go:608] lost master error: lost lease
Интересно, что в обоих случаях вспоминается MutatingWebhook. Он есть? kubectl get mutatingwebhookconfiguration А если удалить, поторяется? Больше не знаю, что посоветовать дистанционно. В таких случаях начинаю руками тыкать.

bebebe
25.06.2018
18:50:16
https://github.com/hasura/gitkube

Andor
26.06.2018
04:52:07
https://blog.quentin-machu.fr/2018/06/24/5-15s-dns-lookups-on-kubernetes/

bebebe
26.06.2018
05:29:16
Based on various traces, Martynas Pumputis discovered that there also was a race with DNAT, as the DNS server is reached via a virtual IP. Due to UDP being a connectionless protocol, connect(2) does not send any packet and therefore no entry is created in the conntrack hash table.

я такой боян помойму на openwrt ловил

Google
Yaroslav
26.06.2018
06:47:23
Народ, не кидайтесь помидорами только, а ответьте начинающему)) Поднял 4 виртуалки. 1 - мастер и 3 ноды. Засетапил Дебиана 9. Засетапил везде докера. На мастере просетапил кубера и тут ввопрос назрел, а на нодах надо кубера стаивть тоже ?))

Andor
26.06.2018
06:48:40
Чо

Артур
26.06.2018
06:48:49
надо - устанвленные пакеты идеинтичны что на мастере что на нодах. Просто мастер инициирует кластер, а ноды джойнятся к нему.

Sergey
26.06.2018
06:48:53
што

Yaroslav
26.06.2018
06:49:01
понял, спасибо

Andor
26.06.2018
06:49:11
Аписервер может быть снаружи

А может быть в кубере

Yaroslav
26.06.2018
06:49:32
У меня все в локалке

Артур
26.06.2018
06:49:45
Yaroslav
26.06.2018
07:20:51
Походу я не так запустил Кубера, ругается цук - root@kub-master:~# kubectl get nodes The connection to the server localhost:8080 was refused - did you specify the right

видимо не из под рута надо было

Andor
26.06.2018
07:21:35
Порт от не-рута будет точно так же закрыт

Yaroslav
26.06.2018
07:22:23
точняк, заработало все



Banschikov
26.06.2018
07:22:53
Всем привет! кто нибуть юзал terraform для создания в k8s секретов? Пробрасываю креденшелы для registry gitlab-ci, а они не работаю

Juriy
26.06.2018
07:23:04
Yaroslav
26.06.2018
07:23:15
Banschikov
26.06.2018
07:24:15
Что это ?
На хабре была хорошая статья про этот инструмент. Для деплоя кластера k8s инструмент

Google
Juriy
26.06.2018
07:24:22
Что это ?
Это ансибл рецепт который тебе все насетапит

Yaroslav
26.06.2018
07:24:45
Мне надо самому насетапиться так чтоб я с закрытыми глазами сетапился потом

Потом уже от лени можно ансибла

Andrey
26.06.2018
07:25:03
Это хороший подход.

Andor
26.06.2018
07:25:10
Специальный инструмент чтобы ты не знал как кубернетисы запущены и не смог потраблшутить в случае чего

Mikhail
26.06.2018
07:25:47
Клево же. Раз и все работает!

Yaroslav
26.06.2018
07:25:58
Пишет падла что ноды НотРеди

Как обычно на видосике все без проблем

По факту

С проблемами

Juriy
26.06.2018
07:26:29
Yaroslav
26.06.2018
07:26:48
Roman
26.06.2018
08:12:13
А кто-то использовал ipvs - calico на bare metal?

Алексей
26.06.2018
08:15:10
Calico на ipvs есть?

Andrey
26.06.2018
08:15:51
kube-proxy имеется в виду, наверное.

Алексей
26.06.2018
08:16:04
Я kube-route использую он на ipvs

На бареметал

Roman
26.06.2018
08:17:52
Ну да, технически kube-router использует ipvs, но сетью заправляет calico.

Алексей
26.06.2018
08:18:38
Кинь урл на ds хочу глянуть

Roman
26.06.2018
08:19:00
Я kube-route использую он на ipvs
А что используешь для LoadBalancer ? Или как внешние IP попадают внутрь?

Google
Алексей
26.06.2018
08:19:02
У себя я calico вообще не видел

Denis
26.06.2018
08:19:13
Всем привет, кто нибудь настраивал weave CNI для multimaster? или лучше идти в сторону calico?

Алексей
26.06.2018
08:20:43
ExternalIp на сервис Ну и либо в зависимости отнагрузки Либо режим маскарадинг Либо тунель

Сеть l2

А лоадбалансера в том виде в каком он у платных облаков нет Да и не нужен в общемто

lvs и сам не плохо эту роль выполняет

Roman
26.06.2018
08:27:01
Странно. Просто я делаю ExternalIP на сервис. Правила в ipvsadm прописываются, а у себя делаю статик роут на сервере где находится сервис, то к контейнеру достучатся не могу. На внешний интерфейс трафик попадает, а внутри не роутится.

Алексей
26.06.2018
08:29:06
Режим в ipvs какой?

Banschikov
26.06.2018
08:29:14
Подскажите плез, как в наймспейс пробросить секрет?

Roman
26.06.2018
08:30:17
Режим в ipvs какой?
А где он задается? Если ты про scheduler, то он rr

Sergey
26.06.2018
08:30:21
Подскажите плез, как в наймспейс пробросить секрет?
https://kubernetes.io/docs/tasks/inject-data-application/distribute-credentials-secure/ в сам неймспейс наврядли

Алексей
26.06.2018
08:30:50
Ipvsadm -L -n

Roman
26.06.2018
08:31:53
Ipvsadm -L -n
Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 78.27.200.8:80 rr -> 10.0.32.71:80 Masq 1 0 0

Алексей
26.06.2018
08:32:06
Masq

Маскарадинг

Banschikov
26.06.2018
08:33:24
https://kubernetes.io/docs/tasks/inject-data-application/distribute-credentials-secure/ в сам неймспейс наврядли
Теоритически если у меня секрет и deployment находится в одном неймспейсе, то этот деплоймент его может же юзать.

Алексей
26.06.2018
08:33:26
Ip addr покажи

Banschikov
26.06.2018
08:35:13
а практически?)
Практически не видит)) Но есть подорения что я что-то недопонимаю) Я думал что если секрет и под находятся в одном намспейсе, то все должно быть ок

Roman
26.06.2018
08:35:29
Ip addr покажи
5: enp8s0f1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 00:1b:21:8d:6f:01 brd ff:ff:ff:ff:ff:ff inet 172.31.0.3/28 brd 172.31.0.15 scope global enp8s0f1 valid_lft forever preferred_lft forever 6: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default link/ether 02:42:8c:28:3f:39 brd ff:ff:ff:ff:ff:ff inet 172.17.0.1/16 scope global docker0 valid_lft forever preferred_lft forever 7: dummy0: <BROADCAST,NOARP> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 06:7b:4e:94:75:91 brd ff:ff:ff:ff:ff:ff 8: kube-ipvs0: <BROADCAST,NOARP> mtu 1500 qdisc noop state DOWN group default link/ether 9a:fb:df:64:b1:86 brd ff:ff:ff:ff:ff:ff inet 192.168.0.3/32 brd 192.168.0.3 scope global kube-ipvs0 valid_lft forever preferred_lft forever 9: calib5d454112b2@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default link/ether ee:ee:ee:ee:ee:ee brd ff:ff:ff:ff:ff:ff link-netnsid 0 inet6 fe80::ecee:eeff:feee:eeee/64 scope link valid_lft forever preferred_lft forever 10: tunl0@NONE: <NOARP,UP,LOWER_UP> mtu 1440 qdisc noqueue state UNKNOWN group default qlen 1 link/ipip 0.0.0.0 brd 0.0.0.0 inet 10.0.146.192/32 scope global tunl0 valid_lft forever preferred_lft forever

Google
Roman
26.06.2018
08:37:10
Мой внешний IP 172.31.0.3, я на него делаю статик-роут 78.27.200.8->172.31.0.3 Если kube-proxy работает с iptables, то трафик попадает внутрь. А вот с ipvs не получается.

Banschikov
26.06.2018
08:37:43
привязка на под идет
Не совсем понял

Sergey
26.06.2018
08:39:09
Не совсем понял
передача идет к поду через том или переменные

kvaps
26.06.2018
08:43:18
Алексей
26.06.2018
08:44:07
пока нет 2 мастера и 4 ноды

kvaps
26.06.2018
08:44:31
service-proxy используете?

Алексей
26.06.2018
08:44:57
Роман, покажи поды в kube-system и кинь ссылку на daemon-set сети

сеть у тебя l2 или l3?

нет

использую только kube-router

в нем свой

kvaps
26.06.2018
08:46:54
ну я и имел ввиду service-proxy от kube-router :)

там два варианта деплоя есть https://github.com/cloudnativelabs/kube-router/blob/master/docs/kubeadm.md

Алексей
26.06.2018
08:47:28
) да, использую, сеть целиком

от kube-router

Страница 642 из 958