@kubernetes_ru

Страница 276 из 958
Anton
22.09.2017
07:02:51
по сути мне только docker build нужен
docker for mac ставится со своей виртуалочкой. пока хоть как то серьезно не начнешь исопльзовать - никаких проблем. все работает как ожидается

Zloy Dobriy
22.09.2017
07:04:34
мак-хуяк

Ivan
22.09.2017
07:41:19
Всем привет! Нужна помощь по кубернетовскому апи-серверу! У меня с ним серьёзные проблемы. Я не понимаю, в чём дело, но он у меня не поднимается никак. Делал и по ручному мануалу и по готовым скриптам, которые сами всё поднимают - результат один и тот же всегда. Поднимаю на короси, которая заливается по PXE. етсд, фланел и докер стартуют нормально. далее стартую кублет, он подтягивает конфиги и запускает аписервер, контроллер, прокси и шедулер. контейнер с апи-сервером постоянно перезапускается. в логах ноды ничего осмысленного: 1427 reflector.go:190] k8s.io/kubernetes/pkg/kubelet/kubelet.go:382: Failed to list *v1.Service: Get http://127.0.0.1:8080/api/v1/services?resourceV 1427 reflector.go:190] k8s.io/kubernetes/pkg/kubelet/config/apiserver.go:46: Failed to list *v1.Pod: Get http://127.0.0.1:8080/api/v1/pods?fieldSele 1427 reflector.go:190] k8s.io/kubernetes/pkg/kubelet/kubelet.go:390: Failed to list *v1.Node: Get http://127.0.0.1:8080/api/v1/nodes?fieldSelector=m 1427 kubelet_node_status.go:230] Setting node annotation to enable volume controller attach/detach ну типа он сам к себе подключиться не может. в логах контейнера тоже фигня E0922 07:37:47.729469 1 status.go:62] apiserver received an error that is not an metav1.Status: rpc error: code = 13 desc = transport is closing E0922 07:37:50.553370 1 status.go:62] apiserver received an error that is not an metav1.Status: rpc error: code = 13 desc = transport: write tcp 10.1.29.11:52106->10.1.29.12:2379: write: connection reset by peer но вот что нашёл интересное - в каком то мануале заметил проверку того, что контейнер с апи-сервером жив, таким образом: curl http://127.0.0.1:8080/healthz так вот, у меня оно (пока контейнер не упал) выдаёт всегда следующее: [+]ping ok [-]poststarthook/bootstrap-controller failed: reason withheld [+]poststarthook/extensions/third-party-resources ok [-]poststarthook/rbac/bootstrap-roles failed: reason withheld [+]poststarthook/ca-registration ok healthz check failed я так подозреваю, что тут надо копать глубоко в кишки апи-сервера, но какой либо инфы я на эту тему вообще не нашёл.

Google
Ivan
22.09.2017
07:43:04
ща скину конфиги))

Nikita
22.09.2017
07:43:08
То есть получается провизинг с мака сделать нельзя

Надо с виртуалки или дедика

И я правильно понимаю что для работы docker build нужно запускать докер демон?

Zon
22.09.2017
07:44:36
Поставь докер фор мак и всё можно

Nikita
22.09.2017
07:44:52
Он и так греется, а с вирталками отдельными печкой становится

Zon
22.09.2017
07:46:32
Если локально не хочешь билдить, но есть gce - container builder твой выбор

Ivan
22.09.2017
07:47:39
ща скину конфиги))
https://gist.github.com/anonymous/259722b3f41c4c7d6e21461c2db5ce52 https://gist.github.com/anonymous/ec7254a9ab4abf2180fc62e648620bb6 https://gist.github.com/anonymous/e53410d506e58cf84f288f9d9bd4f915

делал и по этому мануалу https://coreos.com/kubernetes/docs/latest/deploy-master.html#tls-assets и по этому https://github.com/kelseyhightower/kubernetes-the-hard-way/blob/master/docs/08-bootstrapping-kubernetes-controllers.md

Anton
22.09.2017
07:48:56
Он и так греется, а с вирталками отдельными печкой становится
на стороне hub.docker.com тоже собирать можно из github repo

Zon
22.09.2017
07:49:53
О
Можно даже сразу на кластер выкатить

Google
Nikita
22.09.2017
07:50:03
Посмотрю спасибо

Пока девопса в штат не взяли надо как-то самому

:)

Mikhail
22.09.2017
07:50:30
апи сервера, и перезапусти

Zon
22.09.2017
07:51:14
Ivan
22.09.2017
07:57:04
а добавь в конфиг —insecure-bind-address=0.0.0.0 \
kubelet-wrapper[4197]: Error: unknown flag: —insecure-bind-address я правильно его добавил в kubelet.service в ExecStart=/usr/lib/coreos/kubelet-wrapper ?

Mikhail
22.09.2017
07:57:33
в аписервер надо

в конфиг апи сервера*

Ivan
22.09.2017
08:00:34
в аписервер надо
добавил. тоже самое. ничего не изменилось

Mikhail
22.09.2017
08:01:46
а в /etc/resolv.conf етсь запись о 127.0.0.1 ?)

Let Eat
22.09.2017
08:04:02
по сути мне только docker build нужен
были утилиты, которые образы умеют собирать сами,без докера. имен не помню

Let Eat
22.09.2017
08:15:34
этого не знаю :)

И заливать в их регистр ?
вот вроде умеет: https://github.com/projectatomic/skopeo

Nikita
22.09.2017
08:29:20
thanks

LonFas
22.09.2017
08:30:08
У кого были сбои по инету? Кто в курсе "лажи"?

Ivan
22.09.2017
08:31:29
Роман
22.09.2017
08:49:12
@Leorent можешь показать секцию конфига прометея для nginx-vts экстрактора?

Google
Ivan
22.09.2017
08:49:43
Maksim
22.09.2017
08:50:07
сек

@Leorent можешь показать секцию конфига прометея для nginx-vts экстрактора?
- job_name: nginx-controller-status scrape_interval: 5s scrape_timeout: 5s metrics_path: /metrics scheme: http kubernetes_sd_configs: - api_server: null role: pod namespaces: names: [] relabel_configs: - source_labels: [__meta_kubernetes_pod_label_name] separator: ; regex: nginx-ingress-lb replacement: $1 action: keep - source_labels: [__meta_kubernetes_pod_name] separator: ; regex: (.*) target_label: kubernetes_pod_name replacement: $1 action: replace

Maksim
22.09.2017
08:52:06
ммм

это ds

он получает список подов и ищет нужное имя

по хорошему можно ограничить через namespaces: names: []

Let Eat
22.09.2017
08:55:40
кто-нибудь понимает о чем ту речь в 1.8 release notes? The current version DaemonSet, Deployment, ReplicaSet, and StatefulSet kinds are now in the apps/v1beta2 group version. All kinds in the apps/v1beta2 group version add a corresponding conditions kind. что за Conditions kind?

Mikhail
22.09.2017
09:07:44
ВСе же, как я могу поменять подсеть подов в текущем кластере? Настраивал сеть через calico, уже даже etcd обнулял, и докер чистил, не пойму,где ему надо что прописать\почистить?

Maksim
22.09.2017
09:09:26
у калико же своии настройки? я просто не знаю где и что он хранит

по хорошему, нужно сначала убрать все контейнеры с докера, что бы докер изменил сеть

Mikhail
22.09.2017
09:09:47
Ну да,с вои настройки, я его тоже полностью почистил

Maksim
22.09.2017
09:09:49
+ удалить интерфейс докера

у меня только так меняется адресация в сети докера

Mikhail
22.09.2017
09:10:47
Я остановил кластеры, остановил етсд, удалил докер и все папки с ними, переустановил + удалил /var/etcd/data , удалил всё что было от calico в /etc/cni/net.d/ , один фиг эта сволочь упрямо мне подсовывает 10.23 подсеть..

Maksim
22.09.2017
09:10:48
при живых контейнерах докер не меняет настройки сети.....(ну вроде, у меня только имперический опыт)

Mikhail
22.09.2017
09:12:16
я по сути уже с нуля кластер пересобрал, а что с ним не так - не пойму...какая то дичь :)

Google
Mikhail
22.09.2017
09:24:30
Я кажись нашел в чем был косяк, сейчас првоерю и отпишусь)

Роман
22.09.2017
09:24:38
Во фланели, вроде бы, присваивается переменная окружения с адресом.

Mikhail
22.09.2017
09:26:26
Ну да.. У меня 2 кластера , и в калико забыл изменить etcd сервера, и они долбились на другой кластер, где хранились настройки. фейспалм :(

Сергей
22.09.2017
09:27:51
У Калико свой кластер етсд должен быть

Let Eat
22.09.2017
09:28:50
У Калико свой кластер етсд должен быть
не обязательно. можно в том же, можно без etcd вообще, если задать datastore: kubernetes

Сергей
22.09.2017
09:29:14
То что не обязательно я в курсе

Роман
22.09.2017
10:20:03
по хорошему можно ограничить через namespaces: names: []
А как-то можно проверить, что экспортер вообще взаимодействует с nginx? А то в логах только то, что сервер запущен.

Maksim
22.09.2017
10:20:22
зайти на его порт..там должны быть метрики

не пустые

Mikhail
22.09.2017
10:28:37
У Калико свой кластер етсд должен быть
Т.е. Для калико поднимать отдельные от самого кубера etcd?

Сергей
22.09.2017
10:29:12
Рекомендуют да

Mikhail
22.09.2017
10:32:03
А где про этоп очитать можно?

почему то думал что как раз таки нужно чтобы все вместе было

Maksim
22.09.2017
10:33:55
почему то думал что как раз таки нужно чтобы все вместе было
я бы делал вместе, следить за одним кластером, проще и эффективней ем за двумя

Сергей
22.09.2017
10:34:08
Первый раз я эту рекомендацию видел на одном Митапе

Maksim
22.09.2017
10:34:53
кстате а где вы калико взяли? дайте ссылочку, хочу понюхать

Сергей
22.09.2017
10:35:05
Там была история что кто-то из кубера и калико решили что етсд у них в монопольном доступе и дрогнули чужие записи

Это было время 1.5 версии

Google
Maksim
22.09.2017
10:35:27
а то мои изыскания как-то не увенчались успехом. Или он совсем пропаретарный и его нуно только покупать

Mikhail
22.09.2017
10:35:31
кстате а где вы калико взяли? дайте ссылочку, хочу понюхать
https://docs.projectcalico.org/v1.5/getting-started/kubernetes/installation/ тут, ну а там напильником пройтись)

хм..

Maksim
22.09.2017
10:35:53
Mikhail
22.09.2017
10:36:07
На удивление,иногда что-то запускается корректно и без напильника)

Сергей
22.09.2017
10:36:47
На счёт рекомендаций

https://github.com/projectcalico/calico/blob/master/v1.5/getting-started/kubernetes/installation/index.md

Там в требованиях это написанно

Calico can share the etcd cluster used by Kubernetes, but it's recommended that a separate cluster is set up.

Это как раз в тему, что никто из нас не читает оф документацию

Maksim
22.09.2017
10:40:13
Это как раз в тему, что никто из нас не читает оф документацию
мммм А доку вообще читают? Да же когда ломается, не всегда читают

Сергей
22.09.2017
10:40:29
Я читаю

Бегаю по ишью на гитхабе

Перед тем как вообще начинать дергаться

Mikhail
22.09.2017
10:41:37
Сергей
22.09.2017
10:44:00
Долгое и вдумчивое изучение первоисточника сильно экономит время в дальнейшем

Я придерживаюсь мнения старого быка из одного анекдота

Aleksey
22.09.2017
12:16:03
Сертификаты чистили?

Страница 276 из 958