@kubernetes_ru

Страница 530 из 958
Banschikov
21.04.2018
08:41:12
Подскажите пожалуйста. Иннгрес контроллер нужно выставлять как сервис?

Aleksey
21.04.2018
08:54:23
Нужно

Dmitrii <freehck>
21.04.2018
08:58:18
kubectl proxy
Мда, зачем читать исходный вопрос, в самом-то деле? :)

Google
Dmitrii <freehck>
21.04.2018
08:59:01
В общем, народ, веселуха. ssh-туннелем проброс сделал. При запросе 127.0.0.1:8001/ui получаю в ответ вместо интерфейса dashboard какой-то json. Это нормально?

Stanislav
21.04.2018
09:08:03
Говорюж ссылка старая на уи

См актуальную доку по дашу

Dmitrii <freehck>
21.04.2018
09:08:36
А где новая?

Stanislav
21.04.2018
09:08:51
Актуальная дока

Dmitrii <freehck>
21.04.2018
09:09:22
Нашёл, спс.

http://localhost:8001/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/ Вот же блин придумали. )

помогло

Google
Dmitrii <freehck>
21.04.2018
09:16:05
Ммм, крутотенечка. Я могу yaml-ы прямо из UI загружать.

Let Eat
21.04.2018
09:31:24
Нужно
не всегда. оно вполне может быть запущено как daemonset с host network, тогда сервиса для него заводить не нужно

Banschikov
21.04.2018
11:07:11
под для резолва адресов стучатся на dns кубера?ъ

Sergey
21.04.2018
11:08:46
kubedns

Mikhail
21.04.2018
11:09:00
в общем случае да. в частном - что написано в /etc/resolv.conf

Sergey
21.04.2018
11:10:09
как я понимаю все поды в пределах одного кластера общаются через kubedns+clusterAPI

Mikhail
21.04.2018
11:11:02
если это написано в /etc/resolv.conf в контейнере )

Sergey
21.04.2018
11:11:26
?

Banschikov
21.04.2018
11:11:29
спасибо

а можно как то kubedns скормить адреса нужные?

Mikhail
21.04.2018
11:12:17
что значит нужные?

Banschikov
21.04.2018
11:13:09
192.168.0.1 git.example.com

Mikhail
21.04.2018
11:16:24
192.168.0.1 git.example.com
https://stackoverflow.com/questions/37166822/is-it-a-way-to-add-arbitrary-record-to-kube-dns - например внешний сервис. или вот https://kubernetes.io/docs/tasks/administer-cluster/dns-custom-nameservers/#example-stub-domain

Valentin
21.04.2018
11:17:11
или stubnameserver типо того чтото

Banschikov
21.04.2018
11:19:39
вообще как подскажите как решить следующую проблему. К примеру у меня открыт NodePort у сервиса и все поды в пределах одной ноды-воркера видят его. Но сроит поду развернутся на ноде-воркере-2, сразу перестает видеть его. Не пойму, как это решить можно

Banschikov
21.04.2018
11:21:56
Я проверил и выяснил что нет сетевого взаимодействия вообще. Я там по ip-адресом настраивал

Google
Mikhail
21.04.2018
11:23:08
не получается сходить на сервис адрес с другой ноды?

Banschikov
21.04.2018
11:25:07
Да. Когда все поды в пределах одной воркер ноды располагаются, то нормально работает. А когда разбросаны поразным нодам, то тогда не работает. Все вено

Mikhail
21.04.2018
11:25:46
ну тогда у вас не отрабатывает kube-proxy который делает nat (скорее всего)

Sergey
21.04.2018
11:25:57
как альтернатива юзать nodeselector

Banschikov
21.04.2018
11:28:09
как альтернатива юзать nodeselector
Читал про этот способ. Но говорят что не по фэншую это)

Sergey
21.04.2018
11:29:16
и уж точно не по феншую всему подряд давать clusterip externalip)

Banschikov
21.04.2018
11:31:51
зачем вы поды шлете на nodePort? шлите на clusterIP
У меня поды почему-то его не видят. Я задавал тут вчера вроде этот вопрос, но ответа тае и не получил, или я не понял этот ответ. Вообще было бы идеально внутри кластера использовать clusterIP

Let Eat
21.04.2018
11:32:32
clusterIP для этого и создан, слать поды на ноды через nodePort совсем неправильно (но можно :) )

Sergey
21.04.2018
11:35:21
а причем тут плагин, я говорю если у вас не видит тот адрес или не назначается, значит у вас сеть на этапе инициализации кластера не так настроена, какой адрес вы выдаете

Sergey
21.04.2018
11:37:24
kubeadm init —pod-network-cidr=10.254.0.0/16 —service-cidr=10.254.0.0/16 типа такого

Banschikov
21.04.2018
11:40:36
kubeadm init —pod-network-cidr=10.254.0.0/16 —service-cidr=10.254.0.0/16 типа такого
kube_service_addresses: 10.233.0.0/18 kube_pods_subnet: 10.233.64.0/18

Sergey
21.04.2018
11:40:57
а какие адреса вы даете поду

Banschikov
21.04.2018
11:42:14
а какие адреса вы даете поду
kube_pods_subnet: 10.233.64.0/18 из это подсети выдаются адреса

Вот пример адреса пода: 10.233.94.110 Вот пример адреса сервиса ClusterIP 10.233.54.48

Google
Banschikov
21.04.2018
11:58:51
да еще раз перепроверил. Зашел с пода и пинганул сервис по ClusterIP и неработает. Я правильно понимаю что это ненормально и присутсвует ошибка конфигурировании сетевой подсистемы?

zigmund
21.04.2018
12:55:17
Поды должны

zigmund
21.04.2018
13:11:25
PodA - > ServiceB:port - > PodsB:targetPort

Это логическая цепочка, а по сути сервис - это не прокся или роутер, а набор правил, как пойдёт трафик

Ну и ещё сервис - это дискавери

Andor
21.04.2018
13:44:02
потому что там не пробрасывается icmp никуда

может это и возможно, хз

zigmund
21.04.2018
13:44:13
кстати, почему "не должно"?
ну если сервисом прокинуть icmp (такое вообще возможно?), то пинги будут долетать до подов

Anton
21.04.2018
13:45:21
насколько я помню, в iptables просто reject icmp стоит. То есть вот вопрос, а зачем.

не могу сейчас найти, может перепутал с чем-то

Aleksandr
21.04.2018
14:45:54
Поставил calico с выключеным ipip. Подам айпишки выдаются и до тех айпишек можно достучатся. Но появился нюанс, если стучать на clusterip - то говорит network unrechable

в iptables - правила есть для кластерных ипов

может кто-то обладает даром ясновидения и знает что я упускаю? =)

Andor
21.04.2018
14:48:13
tcpdump?

Google
Dmitrii <freehck>
21.04.2018
16:47:40
Ребята, а как в Kubertenes организуется аггрегация логов? Есть готовые механизмы? Или может быть рецепты для сращивания с ELK?

Sergey
21.04.2018
16:49:33
можно и fluentd гугол в помощь

Nik
21.04.2018
16:51:50
Ребята, а как в Kubertenes организуется аггрегация логов? Есть готовые механизмы? Или может быть рецепты для сращивания с ELK?
Советую filebeat, можно как daemonset прикрутить, можно на хосты. Можно side-car для нужных подов.

Dmitrii <freehck>
21.04.2018
16:52:37
Советую filebeat, можно как daemonset прикрутить, можно на хосты. Можно side-car для нужных подов.
Спасибо. Главное, что надо было понять — что в кубере нет этого "из коробки". Сам ELK у меня уже поднят и работает — значит, буду прикручивать к нему. Спасибо.

Nik
21.04.2018
16:57:29
Спасибо. Главное, что надо было понять — что в кубере нет этого "из коробки". Сам ELK у меня уже поднят и работает — значит, буду прикручивать к нему. Спасибо.
Есть два важных момента: - можно только нужных контейнеров логи забирать, указывая path с регэкспом. - второе, нужно не забыть про symlinks:true , потому что в /var/log/containers симлинки)

Let Eat
21.04.2018
17:07:07
Alex Milushev
21.04.2018
17:17:40
привет, поднял тестовый стенд, но kube-proxy не может вытащить данные для работы, вот что в логах на всех kube-proxy: E0421 17:17:12.577220 1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:86: Failed to list *core.Service: Unauthorized E0421 17:17:12.577624 1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:86: Failed to list *core.Endpoints: Unauthorized

кто знает как победить?

Alex Milushev
21.04.2018
17:22:11
сервис аккаунта не было, создал, ща буду посмотреть

все то же самое

при попытке применить этот yaml выдает: error: error validating "addons/kube-proxy-rbac.yaml": error validating data: [ValidationError(ClusterRoleBinding): unknown field "apiGroup" in io.k8s.api.rbac.v1beta1.ClusterRoleBinding, ValidationError(ClusterRoleBinding.roleRef): missing required field "apiGroup" in io.k8s.api.rbac.v1beta1.RoleRef]; if you choose to ignore these errors, turn validation off with —validate=false

Andor
21.04.2018
17:25:52
Это на какой версии?

Sergey
21.04.2018
17:26:12
а откуда куда данные хотите вытаскивать

Alex Milushev
21.04.2018
17:26:45
1.10.1

хм, применил еще раз и применилось

но прокси так и не работает

:(

ща перегенерю сертификаты, кажется нашел, у меня для kube-proxy в сертификате common_name=system:kube-proxy

Страница 530 из 958