
Эдуард
31.07.2018
12:21:33

Paul
31.07.2018
12:21:33
вообще к8 - не продукт и никогда им не был

Andor
31.07.2018
12:21:38

Konstantin
31.07.2018
12:21:44

Google

Andor
31.07.2018
12:21:59
все пилят свои велосипеды
по-разному херовые :)

Sergey
31.07.2018
12:22:13

Konstantin
31.07.2018
12:22:47
а где-то она не сырая?
ну в гитлабе она прям вообще стремится к нулю( красиво маркетологи разрекламировали, на деле не так красиво)

Andrey
31.07.2018
13:15:38

Андрей
31.07.2018
13:20:30

Andrey
31.07.2018
13:21:10
чем выписываете хоть?
хотите, чтоб вам помогли, детальнее расписывайте, а то получается "доктор у меня бобо" а в каком месте не скажу

Maksim
31.07.2018
13:32:41
Господа трабла. Мастер на AWS с эластик IP как положено. Миньйон в хезнере. Когда создаю кластер всё ок. Без ошибок. Но что-то с прокси. Я создаю дашборд и пытаюсь подключиться через ssh туннель с kube proxy выдаёт тайм-аут пытаюсь через апи, тоже борода.

Андрей
31.07.2018
13:34:49

Andrey
31.07.2018
13:37:46
бросайте вы это, батенька.
не ваше это

Ilya
31.07.2018
13:38:17
Может кто сталкивался с проблемой что поды не запускаются с такой ошибкой:
OCI runtime create failed: container_linux.go:348: starting container process caused "process_linux.go:402: container init caused \"rootfs_linux.go:58: mounting \\\"/var/lib/kubelet/pods/04177b8f-94c4-11e8-bee2-080027707b4a/volumes/kubernetes.io~secret/default-token-qhc6m\\\" to rootfs \\\"/var/lib/docker/overlay2/949a039a23bee2b5d89b8849214e2b409cbba54dc0dc1012409281de8b063e82/merged\\\" at \\\"/var/lib/docker/overlay2/949a039a23bee2b5d89b8849214e2b409cbba54dc0dc1012409281de8b063e82/merged/run/secrets/kubernetes.io/serviceaccount\\\" caused \\\"mkdir /var/lib/docker/overlay2/949a039a23bee2b5d89b8849214e2b409cbba54dc0dc1012409281de8b063e82/merged/run/secrets/kubernetes.io: read-only file system\\\"\"": unknown

Google

Andrey
31.07.2018
13:39:05
я не знаю почему я так остро реагирую на неудачников, которые упорно не хотят, чтоб им помогли а продолжают твердить у меня висит и мне непонятно.
в какие логи смотрели?
какие записи там были?
cert-manager? kube-lego? выписываете через dns? http?

Андрей
31.07.2018
13:40:50
http

Andrey
31.07.2018
13:41:05
наконец-то :)
логи пода, в котором cert-manager крутится, смотрели? что там?
может у вас авторизация не проходит
выписываете сразу на prod, или пробуете на staging?

Андрей
31.07.2018
13:44:07
пробовали и так, и сяк, везде одинаково
логи смотрели, в основном ошибка в том, что нет secret нужного
создаем - ругается что пусто

Andrey
31.07.2018
13:44:36

Андрей
31.07.2018
13:44:44
а что туда писать, если он должен сам по идее закинуть?

Andrey
31.07.2018
13:44:49

Андрей
31.07.2018
13:45:10
Да

Ilya
31.07.2018
13:45:34

Andrey
31.07.2018
13:45:36
а на какой секрет жалуется? сертификата? или аккаунта?

Google

Андрей
31.07.2018
13:45:52

Andrey
31.07.2018
13:46:38
попробуйте удалить ресурс сертификата и пересоздать, у меня что-то похожее вроде было. Только начинайте со staging, на прод лимиты вроде какие-то
как на staging получите fake сертификат - переключайте на прод

Андрей
31.07.2018
13:47:13
пробовали пересоздавать, единственное что сейчас проверяем - возможно нужно пару дней, как в некоторых тикетах писали :)

Andrey
31.07.2018
13:47:53
у меня быстро починилось. но я не уверен, что ошибка та была, было с неделю назад

Андрей
31.07.2018
13:48:20
окей, значит может пройти само, без нас :D

Andrey
31.07.2018
13:48:33
ошибка с секретом может быть наведённой, смотрите выше по логам ещё
ну и скажите точный текст ошибки, я у себя посмотрю

Андрей
31.07.2018
13:49:16
certificates controller: Re-queuing item "coffee/coffee-tls" due to error processing: http-01 self check failed for domain ""

Andrey
31.07.2018
13:49:18

Ilya
31.07.2018
13:49:24

Андрей
31.07.2018
13:49:26
ну и домен конечно указан

Andrey
31.07.2018
13:49:35

Андрей
31.07.2018
13:49:35
Error preparing issuer for certificate coffee/coffee-tls: http-01 self check failed for domain ""

Andrey
31.07.2018
13:49:45
проверка упала
у вас ингресс контроллер какой?

Андрей
31.07.2018
13:49:59
nginx

Andrey
31.07.2018
13:50:03
секунду

Андрей
31.07.2018
13:50:10
ссылка формата .well-known доступна
падает после Calling GetChallenge

Google

Andrey
31.07.2018
13:51:35
а домен точно резолвится везде в ваш ip?

Андрей
31.07.2018
13:51:40
да

Andrey
31.07.2018
13:52:05
ну и попробуйте в ресурсе сертификата вот так сделать
apiVersion: certmanager.k8s.io/v1alpha1
kind: Certificate
metadata:
name: expi-web-certificate
namespace: default
spec:
secretName: expi-web-certificate-tls
issuerRef:
name: {{ .Values.letsencrypt.issuer }}
kind: ClusterIssuer
commonName: {{ .Values.ingress.name }}
# w/a for rewrite-target from https://github.com/jetstack/cert-manager/issues/286#issuecomment-361033891
acme:
config:
- http01: { ingressClass: nginx }
domains: [ {{ .Values.ingress.name }} ]
я про { ingressClass: nginx }

Андрей
31.07.2018
13:53:25
сейчас проверим
@gorilych No existing HTTP01 challenge solver pod found for Certificate "coffee/coffee-tls". One will be created.
это вначале

Andrey
31.07.2018
14:02:23
это норм, там даже может пара ошибок вылазить при начальном выписывании

Андрей
31.07.2018
14:02:58
в среднем сколько на выписывание времени уходит?

Andrey
31.07.2018
14:04:12
недолго, в пределах минут

Андрей
31.07.2018
14:04:56
вторая итерация - снова упал
меня смущает Looking up Ingresses for selector certmanager.k8s.io/acme-http-domain=892143170,certmanager.k8s.io/acme-http-token=1177816782
и почему-то в начале все равно Created order for domains: [{dns domain}]

Stanislav
31.07.2018
14:08:43
Ктото юзает containerd в проде? Как оно?

Ilya
31.07.2018
14:10:02
тем не менее проверить стоит
кстати запустил с такими же параметрами но с базовым образом busybox - и там такой ошибки нет. А вот интересующий меня образ собран на alpine

Andrey
31.07.2018
14:13:37

Андрей
31.07.2018
14:13:45
имя домена, конечно

Andrey
31.07.2018
14:14:56
после created orders в логах cert-manager есть что-то ещё? Должно быть Calling HTTP01ChallengeResponse и Calling GetChallenge

Андрей
31.07.2018
14:15:22
вот после GetChallenge и падает, т.е. других Call нет
делает
Looking up Ingresses for selector certmanager.k8s.io/acme-http-domain=892143170,certmanager.k8s.io/acme-http-token=1177816782
I0731 14:15:58.610921 1 helpers.go:188] Found status change for Certificate "coffee-tls" condition "Ready": "False" -> "False"; setting lastTransitionTime to 2018-07-31 14:15:58.610899663 +0000 UTC m=+6951.477279875
и все, потом пишет что failed

Google

Andrey
31.07.2018
14:19:10
с { ingressClass: nginx } cert-manager должен динамически создавать ingress правила и поды под них. Можете попытаться поймать их с помощью kubectl get po,ingress --all-namespaces
ну и посмотреть yaml структуру

Андрей
31.07.2018
14:21:00
окей, поищу, спасибо
ближе к вечеру отпишусь =)

Alex Milushev
31.07.2018
15:03:08
Здарова, хочу очень странного, нужно делать docker commit и docker push для контейнеров в подах в кубере по запросу. Из вариантов вижу daemonset который имеет доступ к сокету рантайма контейнерного и отрабатывает запросы. Вопрос тут скорее в том какой можно ли передачу такого рода запросов сделать на возможностях кубера и как, может сталкивался кто с похожим?

Sergey
31.07.2018
15:07:12
?

Pavel
31.07.2018
15:08:47

Alex Milushev
31.07.2018
15:09:52

Pavel
31.07.2018
15:10:46
без registry по всем node?

Alex Milushev
31.07.2018
15:12:01
хм, да, по всем нодам, где будут запущены соответствующие поды
регистри будет отдельно, ecr скорее всего для начала

Vadim
31.07.2018
15:54:06

Alex Milushev
31.07.2018
15:54:27

Vadim
31.07.2018
16:06:20
Может crictl сможет

Alex Milushev
31.07.2018
16:06:51
Но тут вопрос, как передавать инвенты, и если возможно, то средствами самого кубера