
Mikhail
09.02.2018
19:36:51

Sergey
09.02.2018
19:36:59
но у меня бубунта и сворм, сегодня на этот же месадж приехал когда в регистри docker login делал

Anton
09.02.2018
19:41:02
у меня тоже убунта, никак не пойму куда положить
$ sudo update-ca-certificates
Updating certificates in /etc/ssl/certs...
0 added, 0 removed; done.
куда только не положил уже

Google

Tony
09.02.2018
19:42:07

Mikhail
09.02.2018
19:42:28
Не поможет поищи более свежий туториал

Sergey
09.02.2018
19:43:50

Anton
09.02.2018
19:44:48
openssl x509 -in foo.pem -inform PEM -out foo.crt — вот этого шага мне не хватало, в первой загугленной ссылке его почему-то не было, спасибо
да, но проблему с etcd это не решило...

Sergey
09.02.2018
19:48:32
а ты передернул etcd?

Mikhail
09.02.2018
19:49:00

Anton
09.02.2018
19:49:34
Это сейчас ок?
unable to get local issuer certificate — конкретно вот это пропало
139892259767960:error:14094412:SSL routines:ssl3_read_bytes:sslv3 alert bad certificate:s3_pkt.c:1487:SSL alert number 42осталось вот это

Mikhail
09.02.2018
19:53:16
—trusted-ca-file вижу опцию у etcd
Попробуй с ней

Google

Anton
09.02.2018
19:53:55
у меня с ней

Mikhail
09.02.2018
19:54:38
И на cluster-health выдаёт ошибку в логах нет ничего внятного?
Ошибку сертификата

Pasha
09.02.2018
19:55:29

Anton
09.02.2018
19:56:54
$ etcdctl cluster-health
failed to check the health of member 1d7b8e70f80b643a on https://192.168.117.101:2379: Get https://192.168.117.101:2379/health: remote error: tls: bad certificate
member 1d7b8e70f80b643a is unreachable: [https://192.168.117.101:2379] are all unreachable
cluster is unhealthy
в логах ничего такого, за что цеплялся бы глаз

Mikhail
09.02.2018
19:57:18
Ну уже другая ошибка :)
Такое ощущение что не тот сертификат используется у etcd
Но я уже гадаю

Pavel
09.02.2018
20:10:19
Ощущение, что etcd ждет что к нему будут коннектиться с клиентским сертификатом

Anatoly
09.02.2018
20:13:56

Pasha
09.02.2018
20:14:30
Непонятно может ли кубеспрей настраивать дм вместо оверлея

Anatoly
09.02.2018
20:15:54
например?
он же контейнеры в докер устанавливает, а как оно там внутри ему пофиг

Pasha
09.02.2018
20:17:53
Кубеспрей сам ставит докер в слейвы

Anatoly
09.02.2018
20:18:45
docker info

Pasha
09.02.2018
20:19:08
Storage driver: overlay

Anton
09.02.2018
21:01:38

Google

Pavel
09.02.2018
21:03:35
Ну тогда нужен клиенский сертификат)
etcdctl клиентский сертификат можно подпихнуть такими ключами:
--cert-file value identify HTTPS client using this SSL certificate file
--key-file value identify HTTPS client using this SSL key file

terry
10.02.2018
09:29:07
Oracle Fn
Соонователь Iron.io, ныне директор по направлению serverless в Oracle, Чед Аримура рассказал подробнее о serverless/FaaS платформе Fn, применяемой для создания инфраструктуры микро и наносервисов, на базе Docker, Kubernetes и написанных на различных языках программирования.
https://youtu.be/YgNrGT8pzYw
#serverless
#FaaS
#Go
#Golang
Ссылки по теме:
https://t.me/technologique/1177
https://t.me/technologique/608

Vlad
10.02.2018
10:18:12

Pasha
10.02.2018
10:21:22

Let Eat
10.02.2018
12:48:33

Vlad
10.02.2018
14:01:44
да, это баг в java

Fike
10.02.2018
15:23:13
Судя по тамошнему обсуждению - вопросы скорее к overlayfs

Vlad
10.02.2018
15:30:06
Там в конце есть ссылка на патч

Evgeniy
10.02.2018
21:06:09
как запустить процесс ? если
kubelet.service - kubelet: The Kubernetes Node Agent
Loaded: loaded (/etc/systemd/system/kubelet.service; enabled; vendor preset: disabled)
Drop-In: /etc/systemd/system/kubelet.service.d
└─10-kubeadm.conf
Active: activating (auto-restart) (Result: exit-code) since Сб 2018-02-10 23:59:54 MSK; 131ms ago
Docs: http://kubernetes.io/docs/
Process: 14677 ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_SYSTEM_PODS_ARGS $KUBELET_NETWORK_ARGS $KUBELET_DNS_ARGS $KUBELET_AUTHZ_ARGS $KUBELET_CADVISOR_ARGS $KUBELET_CGROUP_ARGS $KUBELET_CERTIFICATE_ARGS $KUBELET_EXTRA_ARGS (code=exited, status=1/FAILURE)
Main PID: 14677 (code=exited, status=1/FAILURE)

Anton
10.02.2018
21:18:12
@Groga, воспользуйся dpaste.de для такого большого объёма текста, пожалуйста.

Evgeniy
10.02.2018
21:22:22
Help!
https://dpaste.de/Mjmm

Ryzhikov
10.02.2018
21:25:26
кто prometheus operator пользуется?
чет у меня кастомный экспортер не дискаверится ;(

Mikhail
10.02.2018
22:14:52
по обрезку что вы показали я могу предположить что вам может быть поможет это https://github.com/kubernetes/kubernetes/issues/53333#issuecomment-339793601

Anton
10.02.2018
23:49:11
как можно отладить dns в кубе?
$ kubectl exec -it busybox-855686df5d-tsh44 -- nslookup kubernetes
вот это отваливается по таймауту, напечатав, что сервер — 10.32.0.10

Mikhail
11.02.2018
00:17:20

Anton
11.02.2018
00:26:11

Google

Anton
11.02.2018
00:26:39
$ kubectl -n kube-system exec -it kube-dns-6c857864fb-k6t6f -c kubedns -- curl -I localhost:8081/readiness
HTTP/1.1 200 OK

Mikhail
11.02.2018
00:33:11
Куберовский сервис я имею ввиду

Anton
11.02.2018
00:34:37
$ kubectl get svc --all-namespaces
NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
default kubernetes ClusterIP 10.32.0.1 <none> 443/TCP 15h
kube-system kube-dns ClusterIP 10.32.0.10 <none> 53/UDP,53/TCP 1h— это имеется ввиду?
а что в правилах надо искать?

Mikhail
11.02.2018
00:35:09
Kube-proxy тоже работает?
Не пишет ничего в логах? Прав ему хватает?

Anton
11.02.2018
00:39:01
в целом вроде работает, из ошибок только это:
Feb 10 23:26:58 ng40tpcvnf-dp1 kube-proxy[17228]: E0210 23:26:58.961868 17228 proxier.go:1701] Failed to delete stale service IP 10.32.0.10 connections, error: error deleting connection tracking state for UDP service IP: 10.32.0.10, error: error looking for path of conntrack: exec: "conntrack": executable file not found in $PATH

Mikhail
11.02.2018
00:41:40
Ага. Ну можно поставить чтобы не ругалось. А так вообще надо проверить насколько все корректно в iptables
Правильный ендпоинт
Вся ли цепочка

Anton
11.02.2018
00:42:35
KUBE-MARK-MASQ udp -- !10.200.0.0/16 10.32.0.10 /* kube-system/kube-dns:dns cluster IP */ udp dpt:domain
KUBE-SVC-TCOU7JCQXEZGVUNU udp -- anywhere 10.32.0.10 /* kube-system/kube-dns:dns cluster IP */ udp dpt:domain
KUBE-MARK-MASQ tcp -- !10.200.0.0/16 10.32.0.10 /* kube-system/kube-dns:dns-tcp cluster IP */ tcp dpt:domain
KUBE-SVC-ERIFXISQEP7F7OF4 tcp -- anywhere 10.32.0.10 /* kube-system/kube-dns:dns-tcp cluster IP */ tcp dpt:domain

Mikhail
11.02.2018
00:43:38
Я не вижу тут куда в итоге трафик уходит
Должен быть ip пода где живет кубе днс
Этим заведует kube-proxy

Anton
11.02.2018
00:45:48
я отфильтровал вывод iptables по ip dns

Mikhail
11.02.2018
00:46:54
Ага. Ну разбирайтесь, я все же спать :) да и с Телефона не удобно смотреть на правила.

Anton
11.02.2018
00:49:18
ok, спасибо, спокойной ночи :)

Google

Anton
11.02.2018
10:04:17
если из пода не пингуется сервисная сеть, что нужно проверить?

Let Eat
11.02.2018
10:16:29
нет никакой сервисной сети

Anton
11.02.2018
10:17:31
я все еще отлаживаю нерабочий dns, думал, что из пода dns сервер должен пинговаться (его айпишник в "сервисной сети" же)

djaarf
11.02.2018
10:20:58
сервисная сеть - это виртуальная сеть в нат таблице netfilter
сервис из сервисной сети, это набор правил трансляции, в результате трафик идет в соответствующие поды
и пинговаться там ничего не будет, там просто нет соответствующих правил…

Anton
11.02.2018
10:53:45
у меня при попытке резолвинга трафик приходит на под с dns (вижу через tcpdump), но такое ощущение, что ответа от dns не поступает

djaarf
11.02.2018
11:40:37
а если пытаться резолвить с контейнеров kube-dns, резолвит?

Anton
11.02.2018
11:42:44
сервисы — нет, интернет — да

djaarf
11.02.2018
11:47:52
может быть kube-dns, не может достучаться до api?
в логах есть чо?

Anton
11.02.2018
11:48:56
в логах все спокойно
вполне может быть, что и не может, но непонятно, что для этого ему нужно