Igor
22.09.2017
06:22:16
Anton
22.09.2017
07:02:51
Zloy Dobriy
22.09.2017
07:04:34
мак-хуяк
Ivan
22.09.2017
07:41:19
Всем привет!
Нужна помощь по кубернетовскому апи-серверу!
У меня с ним серьёзные проблемы. Я не понимаю, в чём дело, но он у меня не поднимается никак.
Делал и по ручному мануалу и по готовым скриптам, которые сами всё поднимают - результат один и тот же всегда.
Поднимаю на короси, которая заливается по PXE.
етсд, фланел и докер стартуют нормально.
далее стартую кублет, он подтягивает конфиги и запускает аписервер, контроллер, прокси и шедулер.
контейнер с апи-сервером постоянно перезапускается.
в логах ноды ничего осмысленного:
1427 reflector.go:190] k8s.io/kubernetes/pkg/kubelet/kubelet.go:382: Failed to list *v1.Service: Get http://127.0.0.1:8080/api/v1/services?resourceV
1427 reflector.go:190] k8s.io/kubernetes/pkg/kubelet/config/apiserver.go:46: Failed to list *v1.Pod: Get http://127.0.0.1:8080/api/v1/pods?fieldSele
1427 reflector.go:190] k8s.io/kubernetes/pkg/kubelet/kubelet.go:390: Failed to list *v1.Node: Get http://127.0.0.1:8080/api/v1/nodes?fieldSelector=m
1427 kubelet_node_status.go:230] Setting node annotation to enable volume controller attach/detach
ну типа он сам к себе подключиться не может.
в логах контейнера тоже фигня
E0922 07:37:47.729469 1 status.go:62] apiserver received an error that is not an metav1.Status: rpc error: code = 13 desc = transport is closing
E0922 07:37:50.553370 1 status.go:62] apiserver received an error that is not an metav1.Status: rpc error: code = 13 desc = transport: write tcp 10.1.29.11:52106->10.1.29.12:2379: write: connection reset by peer
но вот что нашёл интересное - в каком то мануале заметил проверку того, что контейнер с апи-сервером жив, таким образом:
curl http://127.0.0.1:8080/healthz
так вот, у меня оно (пока контейнер не упал) выдаёт всегда следующее:
[+]ping ok
[-]poststarthook/bootstrap-controller failed: reason withheld
[+]poststarthook/extensions/third-party-resources ok
[-]poststarthook/rbac/bootstrap-roles failed: reason withheld
[+]poststarthook/ca-registration ok
healthz check failed
я так подозреваю, что тут надо копать глубоко в кишки апи-сервера, но какой либо инфы я на эту тему вообще не нашёл.
Google
Ivan
22.09.2017
07:43:04
ща скину конфиги))
Nikita
22.09.2017
07:43:08
То есть получается провизинг с мака сделать нельзя
Надо с виртуалки или дедика
И я правильно понимаю что для работы docker build нужно запускать докер демон?
Zon
22.09.2017
07:44:36
Поставь докер фор мак и всё можно
Nikita
22.09.2017
07:44:52
Он и так греется, а с вирталками отдельными печкой становится
Zon
22.09.2017
07:46:32
Если локально не хочешь билдить, но есть gce - container builder твой выбор
Ivan
22.09.2017
07:47:39
ща скину конфиги))
https://gist.github.com/anonymous/259722b3f41c4c7d6e21461c2db5ce52
https://gist.github.com/anonymous/ec7254a9ab4abf2180fc62e648620bb6
https://gist.github.com/anonymous/e53410d506e58cf84f288f9d9bd4f915
делал и по этому мануалу
https://coreos.com/kubernetes/docs/latest/deploy-master.html#tls-assets
и по этому
https://github.com/kelseyhightower/kubernetes-the-hard-way/blob/master/docs/08-bootstrapping-kubernetes-controllers.md
Anton
22.09.2017
07:48:56
Nikita
22.09.2017
07:49:17
Zon
22.09.2017
07:49:53
О
Можно даже сразу на кластер выкатить
Google
Nikita
22.09.2017
07:50:03
Посмотрю спасибо
Пока девопса в штат не взяли надо как-то самому
:)
Mikhail
22.09.2017
07:50:30
апи сервера, и перезапусти
Zon
22.09.2017
07:51:14
Ivan
22.09.2017
07:57:04
Mikhail
22.09.2017
07:57:33
в аписервер надо
в конфиг апи сервера*
Ivan
22.09.2017
08:00:34
Mikhail
22.09.2017
08:01:46
а в /etc/resolv.conf етсь запись о 127.0.0.1 ?)
Let Eat
22.09.2017
08:04:02
Ivan
22.09.2017
08:04:38
Nikita
22.09.2017
08:13:31
Let Eat
22.09.2017
08:15:34
этого не знаю :)
Nikita
22.09.2017
08:29:20
thanks
LonFas
22.09.2017
08:30:08
У кого были сбои по инету? Кто в курсе "лажи"?
Ivan
22.09.2017
08:31:29
Роман
22.09.2017
08:49:12
@Leorent можешь показать секцию конфига прометея для nginx-vts экстрактора?
Google
Ivan
22.09.2017
08:49:43
Роман
22.09.2017
08:49:49
Maksim
22.09.2017
08:50:07
сек
@Leorent можешь показать секцию конфига прометея для nginx-vts экстрактора?
- job_name: nginx-controller-status
scrape_interval: 5s
scrape_timeout: 5s
metrics_path: /metrics
scheme: http
kubernetes_sd_configs:
- api_server: null
role: pod
namespaces:
names: []
relabel_configs:
- source_labels: [__meta_kubernetes_pod_label_name]
separator: ;
regex: nginx-ingress-lb
replacement: $1
action: keep
- source_labels: [__meta_kubernetes_pod_name]
separator: ;
regex: (.*)
target_label: kubernetes_pod_name
replacement: $1
action: replace
Роман
22.09.2017
08:51:52
Maksim
22.09.2017
08:52:06
ммм
это ds
он получает список подов и ищет нужное имя
по хорошему можно ограничить через namespaces:
names: []
Let Eat
22.09.2017
08:55:40
кто-нибудь понимает о чем ту речь в 1.8 release notes?
The current version DaemonSet, Deployment, ReplicaSet, and StatefulSet kinds are now in the apps/v1beta2 group version.
All kinds in the apps/v1beta2 group version add a corresponding conditions kind.
что за Conditions kind?
Mikhail
22.09.2017
09:07:44
ВСе же, как я могу поменять подсеть подов в текущем кластере?
Настраивал сеть через calico, уже даже etcd обнулял, и докер чистил, не пойму,где ему надо что прописать\почистить?
Maksim
22.09.2017
09:09:26
у калико же своии настройки? я просто не знаю где и что он хранит
по хорошему, нужно сначала убрать все контейнеры с докера, что бы докер изменил сеть
Mikhail
22.09.2017
09:09:47
Ну да,с вои настройки, я его тоже полностью почистил
Maksim
22.09.2017
09:09:49
+ удалить интерфейс докера
у меня только так меняется адресация в сети докера
Mikhail
22.09.2017
09:10:47
Я остановил кластеры, остановил етсд, удалил докер и все папки с ними, переустановил + удалил /var/etcd/data , удалил всё что было от calico в /etc/cni/net.d/ , один фиг эта сволочь упрямо мне подсовывает 10.23 подсеть..
Maksim
22.09.2017
09:10:48
при живых контейнерах докер не меняет настройки сети.....(ну вроде, у меня только имперический опыт)
Mikhail
22.09.2017
09:12:16
я по сути уже с нуля кластер пересобрал, а что с ним не так - не пойму...какая то дичь :)
Роман
22.09.2017
09:24:10
Google
Mikhail
22.09.2017
09:24:30
Я кажись нашел в чем был косяк, сейчас првоерю и отпишусь)
Роман
22.09.2017
09:24:38
Во фланели, вроде бы, присваивается переменная окружения с адресом.
Mikhail
22.09.2017
09:26:26
Ну да..
У меня 2 кластера , и в калико забыл изменить etcd сервера, и они долбились на другой кластер, где хранились настройки.
фейспалм :(
Сергей
22.09.2017
09:27:51
У Калико свой кластер етсд должен быть
Let Eat
22.09.2017
09:28:50
Сергей
22.09.2017
09:29:14
То что не обязательно я в курсе
Maksim
22.09.2017
09:34:59
Роман
22.09.2017
10:20:03
Maksim
22.09.2017
10:20:22
зайти на его порт..там должны быть метрики
не пустые
Mikhail
22.09.2017
10:28:37
Сергей
22.09.2017
10:29:12
Рекомендуют да
Mikhail
22.09.2017
10:32:03
А где про этоп очитать можно?
почему то думал что как раз таки нужно чтобы все вместе было
Maksim
22.09.2017
10:33:55
Сергей
22.09.2017
10:34:08
Первый раз я эту рекомендацию видел на одном Митапе
Mikhail
22.09.2017
10:34:17
Maksim
22.09.2017
10:34:53
кстате а где вы калико взяли? дайте ссылочку, хочу понюхать
Сергей
22.09.2017
10:35:05
Там была история что кто-то из кубера и калико решили что етсд у них в монопольном доступе и дрогнули чужие записи
Это было время 1.5 версии
Google
Maksim
22.09.2017
10:35:27
а то мои изыскания как-то не увенчались успехом. Или он совсем пропаретарный и его нуно только покупать
Mikhail
22.09.2017
10:35:31
хм..
Maksim
22.09.2017
10:35:53
Mikhail
22.09.2017
10:36:07
На удивление,иногда что-то запускается корректно и без напильника)
Сергей
22.09.2017
10:36:47
На счёт рекомендаций
https://github.com/projectcalico/calico/blob/master/v1.5/getting-started/kubernetes/installation/index.md
Там в требованиях это написанно
Calico can share the etcd cluster used by Kubernetes, but it's recommended that a separate cluster is set up.
Это как раз в тему, что никто из нас не читает оф документацию
Maksim
22.09.2017
10:40:13
Сергей
22.09.2017
10:40:29
Я читаю
Бегаю по ишью на гитхабе
Перед тем как вообще начинать дергаться
Mikhail
22.09.2017
10:41:37
Сергей
22.09.2017
10:44:00
Долгое и вдумчивое изучение первоисточника сильно экономит время в дальнейшем
Я придерживаюсь мнения старого быка из одного анекдота
Aleksey
22.09.2017
12:16:03
Сертификаты чистили?