@kubernetes_ru

Страница 419 из 958
Mikhail
09.02.2018
19:36:51
куда положить?
Посмотри для своей системы

Sergey
09.02.2018
19:36:59
но у меня бубунта и сворм, сегодня на этот же месадж приехал когда в регистри docker login делал

Anton
09.02.2018
19:41:02
у меня тоже убунта, никак не пойму куда положить $ sudo update-ca-certificates Updating certificates in /etc/ssl/certs... 0 added, 0 removed; done.

куда только не положил уже

Google
Mikhail
09.02.2018
19:42:28
куда только не положил уже
https://askubuntu.com/questions/73287/how-do-i-install-a-root-certificate

Не поможет поищи более свежий туториал

Anton
09.02.2018
19:44:48
openssl x509 -in foo.pem -inform PEM -out foo.crt — вот этого шага мне не хватало, в первой загугленной ссылке его почему-то не было, спасибо

да, но проблему с etcd это не решило...

Sergey
09.02.2018
19:48:32
а ты передернул etcd?

Anton
09.02.2018
19:49:34
Это сейчас ок?
unable to get local issuer certificate — конкретно вот это пропало

139892259767960:error:14094412:SSL routines:ssl3_read_bytes:sslv3 alert bad certificate:s3_pkt.c:1487:SSL alert number 42осталось вот это

Mikhail
09.02.2018
19:53:16
—trusted-ca-file вижу опцию у etcd

Попробуй с ней

Google
Anton
09.02.2018
19:53:55
у меня с ней

Mikhail
09.02.2018
19:54:38
И на cluster-health выдаёт ошибку в логах нет ничего внятного?

Ошибку сертификата

Pasha
09.02.2018
19:55:29
--skip-tags docker
О, попробую спасибо

Anton
09.02.2018
19:56:54
$ etcdctl cluster-health failed to check the health of member 1d7b8e70f80b643a on https://192.168.117.101:2379: Get https://192.168.117.101:2379/health: remote error: tls: bad certificate member 1d7b8e70f80b643a is unreachable: [https://192.168.117.101:2379] are all unreachable cluster is unhealthy

в логах ничего такого, за что цеплялся бы глаз

Mikhail
09.02.2018
19:57:18
Ну уже другая ошибка :)

Такое ощущение что не тот сертификат используется у etcd

Но я уже гадаю

Pavel
09.02.2018
20:10:19
в логах ничего такого, за что цеплялся бы глаз
--client-cert-auth такая опция у etcd есть?

Ощущение, что etcd ждет что к нему будут коннектиться с клиентским сертификатом

Anatoly
09.02.2018
20:13:56
господа, кто нибудь кубеспреем ставил докер на devicemapper'e?
https://docs.docker.com/storage/storagedriver/device-mapper-driver/#configure-direct-lvm-mode-for-production

Pasha
09.02.2018
20:14:30
Непонятно может ли кубеспрей настраивать дм вместо оверлея

Anatoly
09.02.2018
20:15:54
например?

он же контейнеры в докер устанавливает, а как оно там внутри ему пофиг

Pasha
09.02.2018
20:17:53
Кубеспрей сам ставит докер в слейвы

Anatoly
09.02.2018
20:18:45
docker info

Pasha
09.02.2018
20:19:08
Storage driver: overlay

Google
Pavel
09.02.2018
21:03:35
Ну тогда нужен клиенский сертификат)

etcdctl клиентский сертификат можно подпихнуть такими ключами: --cert-file value identify HTTPS client using this SSL certificate file --key-file value identify HTTPS client using this SSL key file

terry
10.02.2018
09:29:07
Oracle Fn Соонователь Iron.io, ныне директор по направлению serverless в Oracle, Чед Аримура рассказал подробнее о serverless/FaaS платформе Fn, применяемой для создания инфраструктуры микро и наносервисов, на базе Docker, Kubernetes и написанных на различных языках программирования. https://youtu.be/YgNrGT8pzYw #serverless #FaaS #Go #Golang Ссылки по теме: https://t.me/technologique/1177 https://t.me/technologique/608

Vlad
10.02.2018
10:18:12
Потому что вот https://bugs.openjdk.java.net/browse/JDK-8165852
Не нужно использовать overlay или dm-map. Нужно использовать overlay2.

Let Eat
10.02.2018
12:48:33
Vlad
10.02.2018
14:01:44
да, это баг в java

Fike
10.02.2018
15:23:13
Судя по тамошнему обсуждению - вопросы скорее к overlayfs

Vlad
10.02.2018
15:30:06
Там в конце есть ссылка на патч

Evgeniy
10.02.2018
21:06:09
как запустить процесс ? если kubelet.service - kubelet: The Kubernetes Node Agent Loaded: loaded (/etc/systemd/system/kubelet.service; enabled; vendor preset: disabled) Drop-In: /etc/systemd/system/kubelet.service.d └─10-kubeadm.conf Active: activating (auto-restart) (Result: exit-code) since Сб 2018-02-10 23:59:54 MSK; 131ms ago Docs: http://kubernetes.io/docs/ Process: 14677 ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_SYSTEM_PODS_ARGS $KUBELET_NETWORK_ARGS $KUBELET_DNS_ARGS $KUBELET_AUTHZ_ARGS $KUBELET_CADVISOR_ARGS $KUBELET_CGROUP_ARGS $KUBELET_CERTIFICATE_ARGS $KUBELET_EXTRA_ARGS (code=exited, status=1/FAILURE) Main PID: 14677 (code=exited, status=1/FAILURE)

Anton
10.02.2018
21:18:12
@Groga, воспользуйся dpaste.de для такого большого объёма текста, пожалуйста.

Evgeniy
10.02.2018
21:22:22
Help! https://dpaste.de/Mjmm

Ryzhikov
10.02.2018
21:25:26
кто prometheus operator пользуется?

чет у меня кастомный экспортер не дискаверится ;(

Mikhail
10.02.2018
22:14:52
Help! https://dpaste.de/Mjmm
Евгений, вы понимаете что логи которые вы запостили обрезаны?

по обрезку что вы показали я могу предположить что вам может быть поможет это https://github.com/kubernetes/kubernetes/issues/53333#issuecomment-339793601

Anton
10.02.2018
23:49:11
как можно отладить dns в кубе?

$ kubectl exec -it busybox-855686df5d-tsh44 -- nslookup kubernetes вот это отваливается по таймауту, напечатав, что сервер — 10.32.0.10

Anton
11.02.2018
00:26:11
Google
Anton
11.02.2018
00:26:39
$ kubectl -n kube-system exec -it kube-dns-6c857864fb-k6t6f -c kubedns -- curl -I localhost:8081/readiness HTTP/1.1 200 OK

Mikhail
11.02.2018
00:33:11
$ kubectl -n kube-system exec -it kube-dns-6c857864fb-k6t6f -c kubedns -- curl -I localhost:8081/readiness HTTP/1.1 200 OK
Тогда посмотрите запущен ли сервис, если да, то посмотрите на правила iptables

Куберовский сервис я имею ввиду

Anton
11.02.2018
00:34:37
$ kubectl get svc --all-namespaces NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE default kubernetes ClusterIP 10.32.0.1 <none> 443/TCP 15h kube-system kube-dns ClusterIP 10.32.0.10 <none> 53/UDP,53/TCP 1h— это имеется ввиду?

а что в правилах надо искать?

Mikhail
11.02.2018
00:35:09
а что в правилах надо искать?
Как обрабатывается обращение к 0.10

Kube-proxy тоже работает?

Не пишет ничего в логах? Прав ему хватает?

Anton
11.02.2018
00:39:01
в целом вроде работает, из ошибок только это: Feb 10 23:26:58 ng40tpcvnf-dp1 kube-proxy[17228]: E0210 23:26:58.961868 17228 proxier.go:1701] Failed to delete stale service IP 10.32.0.10 connections, error: error deleting connection tracking state for UDP service IP: 10.32.0.10, error: error looking for path of conntrack: exec: "conntrack": executable file not found in $PATH

Mikhail
11.02.2018
00:41:40
Ага. Ну можно поставить чтобы не ругалось. А так вообще надо проверить насколько все корректно в iptables

Правильный ендпоинт

Вся ли цепочка

Anton
11.02.2018
00:42:35
KUBE-MARK-MASQ udp -- !10.200.0.0/16 10.32.0.10 /* kube-system/kube-dns:dns cluster IP */ udp dpt:domain KUBE-SVC-TCOU7JCQXEZGVUNU udp -- anywhere 10.32.0.10 /* kube-system/kube-dns:dns cluster IP */ udp dpt:domain KUBE-MARK-MASQ tcp -- !10.200.0.0/16 10.32.0.10 /* kube-system/kube-dns:dns-tcp cluster IP */ tcp dpt:domain KUBE-SVC-ERIFXISQEP7F7OF4 tcp -- anywhere 10.32.0.10 /* kube-system/kube-dns:dns-tcp cluster IP */ tcp dpt:domain

Mikhail
11.02.2018
00:43:38
Я не вижу тут куда в итоге трафик уходит

Должен быть ip пода где живет кубе днс

Этим заведует kube-proxy

Anton
11.02.2018
00:45:48
я отфильтровал вывод iptables по ip dns

Mikhail
11.02.2018
00:46:54
Ага. Ну разбирайтесь, я все же спать :) да и с Телефона не удобно смотреть на правила.

Anton
11.02.2018
00:49:18
ok, спасибо, спокойной ночи :)

Google
Anton
11.02.2018
10:04:17
если из пода не пингуется сервисная сеть, что нужно проверить?

Let Eat
11.02.2018
10:16:29
если из пода не пингуется сервисная сеть, что нужно проверить?
она и не должна. идите прямо на порт сервиса

нет никакой сервисной сети

Anton
11.02.2018
10:17:31
я все еще отлаживаю нерабочий dns, думал, что из пода dns сервер должен пинговаться (его айпишник в "сервисной сети" же)

djaarf
11.02.2018
10:20:58
сервисная сеть - это виртуальная сеть в нат таблице netfilter

сервис из сервисной сети, это набор правил трансляции, в результате трафик идет в соответствующие поды

и пинговаться там ничего не будет, там просто нет соответствующих правил…

Anton
11.02.2018
10:53:45
у меня при попытке резолвинга трафик приходит на под с dns (вижу через tcpdump), но такое ощущение, что ответа от dns не поступает

djaarf
11.02.2018
11:40:37
а если пытаться резолвить с контейнеров kube-dns, резолвит?

Anton
11.02.2018
11:42:44
сервисы — нет, интернет — да

djaarf
11.02.2018
11:47:52
может быть kube-dns, не может достучаться до api?

в логах есть чо?

Anton
11.02.2018
11:48:56
в логах все спокойно

вполне может быть, что и не может, но непонятно, что для этого ему нужно

Страница 419 из 958