
Sergey
31.10.2017
11:36:07

Gleb
31.10.2017
11:36:29
да я не оправдываю
я тихо горю

Anton
31.10.2017
11:38:52

Google

Pavel
31.10.2017
11:43:14
Господа, прошу помощи у тех, кто на чистую заводил кубера руками
Проблема в том, что не получается завести кластер через такие распространённые вещи как kubeadm init или при помощи kubespray
есть замечательноая дока
https://kubernetes.io/docs/getting-started-guides/scratch/
Дока немного запутанной кажется, посему вопрос в том, чтобы указать на шаги, которые необходимо предпринять. Что завести в начале, что потом и так далее.

Alexey
31.10.2017
11:56:10

Arslanbekov
31.10.2017
11:57:32
Ребят, кто как собирает метрики с кластера?
раньше использовали snap с app kubernetes для grafana, но при update версии k8s все пошло по одному месту ?

Vitaliy
31.10.2017
11:57:33

Pavel
31.10.2017
11:58:13
ну и после долгого ожидания
Unfortunately, an error has occurred:
timed out waiting for the condition
в сислоге также кроме
Oct 31 14:58:19 master kubelet[14694]: I1031 14:58:19.670657 14694 kubelet_node_status.go:276] Setting node annotation to enable volume controller attach/detach
ничо нет

Anton
31.10.2017
11:59:28

Arslanbekov
31.10.2017
11:59:43

Google

Pavel
31.10.2017
12:00:46

Anton
31.10.2017
12:02:19

Dmitry
31.10.2017
12:03:52
OpenNebula
что вы сделали, чтобы кнопку рефреш в интерфейсе нажимать не приходтилось после каждого чиха?

Роман
31.10.2017
12:04:18

Pavel
31.10.2017
12:04:35
тоже не получается

Alexey
31.10.2017
12:04:50

Pavel
31.10.2017
12:04:50
вчера ещё кубспреем пробовал по мануалам от КРОК

Anton
31.10.2017
12:06:36
ну тоесть копать проблему

Aleksey
31.10.2017
12:08:40
А еще при каждой попытке сетапа вычишать все насозданные сертификаты - в 90 процентов случаев проблемы именно в них

Pavel
31.10.2017
12:08:47

Aleksey
31.10.2017
12:09:08
- There is no internet connection; so the kubelet can't pull the following control plane images:
в контейнерах сети скорее всего нет

Pavel
31.10.2017
12:09:48
да я их руками попробовал выкачать
docker images -a
REPOSITORY TAG IMAGE ID CREATED SIZE
gcr.io/google_containers/kube-apiserver-amd64 v1.8.2 6278a1092d08 6 days ago 194MB
gcr.io/google_containers/kube-controller-manager-amd64 v1.8.2 5eabb0eae58b 6 days ago 129MB
gcr.io/google_containers/kube-scheduler-amd64 v1.8.2 b48970f8473e 6 days ago 54.9MB
так то он мне все их выкачал

Anton
31.10.2017
12:13:08
docker ps -a
логи смотри контейнеров

Pavel
31.10.2017
12:13:27
контейнеров не создаётся
от слова совсем

Maksim
31.10.2017
12:13:49
ммм

Google

Anton
31.10.2017
12:13:50
а etcd?

Maksim
31.10.2017
12:13:52
не может быть
docker ps -a

Pavel
31.10.2017
12:14:05
нет ничо

Maksim
31.10.2017
12:14:11
если была команда на страт контейнера, докер не может не сделать его
то есть docker ps -a пусто?

Pavel
31.10.2017
12:14:31
docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
всё что есть
и да, я эту команду 100500 раз вбивал, пока шёл kubeadm init

Maksim
31.10.2017
12:14:51
крутотенечка, а кто отдаёт команду на страт?

Pavel
31.10.2017
12:14:54
в чём то другом видать тупит

Maksim
31.10.2017
12:15:01
смотри логи самого докера и syslog
а вы через это вам kubeadm

Anton
31.10.2017
12:15:21
к вечеру окажется что selinux был включен =)

Maksim
31.10.2017
12:15:26
тогда я пасс, я за чистые наркотики

Pavel
31.10.2017
12:15:42

Maksim
31.10.2017
12:16:02
Selinux есть такая система..
/etc/selinux/config

Google

Maksim
31.10.2017
12:16:16
тут либо знаешь что это такое либо нет)

Pavel
31.10.2017
12:16:25
ну в моём случае нет)

Maksim
31.10.2017
12:16:26
ну или за гугули "отключение selinux "

Anton
31.10.2017
12:16:47

Pavel
31.10.2017
12:17:07
да я сейчас локально на бубунте на своей машине пытаюсь

Anton
31.10.2017
12:17:44
я не предлагал, из уважения, думаю, такой пустяк первое что нужно проверять

Pavel
31.10.2017
12:18:15
setenforce 0
setenforce: SELinux is disabled
на бубунте
на центоси вчера также было
в мануалах об этом написано

Maksim
31.10.2017
12:18:55
ну небыло раньше

Pavel
31.10.2017
12:19:12
sudo apt install selinux-utils

Maksim
31.10.2017
12:19:18
selinux это чисто красношляпная фича

Pavel
31.10.2017
12:19:21
setenforce 0
setenforce: SELinux is disabled
эт для надёжности

Maksim
31.10.2017
12:19:29
А зачем ты их установил_)))

Pavel
31.10.2017
12:19:45

Maksim
31.10.2017
12:20:04
то есть ты установил селинукс, что бы его отключить)

Anton
31.10.2017
12:20:07
уверенность бесценна

Pavel
31.10.2017
12:20:21
Да это на локальной машине, тут пофик, можно всё что угодно ставит удалять, на крайняк перенакачу систему

Google

Pavel
31.10.2017
12:21:35
Поехал заново ставить
kubeadm

Alexey
31.10.2017
12:21:54


Pavel
31.10.2017
12:22:25
Oct 31 15:21:11 master kubelet[18790]: I1031 15:21:11.475059 18790 factory.go:355] Registering Docker factory
Правильно понимаю, что kubelet видит докер?
Oct 31 15:21:11 master kubelet[18790]: W1031 15:21:11.475390 18790 manager.go:265] Registration of the rkt container factory failed: unable to communicate with Rkt api service: rkt: cannot tcp Dial rkt api service: dial tcp 127.0.0.1:15441: getsockopt: connection refused
Oct 31 15:21:11 master kubelet[18790]: W1031 15:21:11.475903 18790 manager.go:276] Registration of the crio container factory failed: Get http://%2Fvar%2Frun%2Fcrio.sock/info: dial unix /var/run/crio.sock: connect: no such file or directory
rkt и crio отсутствуют, логично, что до них не достукивается
ну и всё, висим на
[init] This often takes around a minute; or longer if the control plane images have to be pulled.
в сислоге только Oct 31 15:23:32 master kubelet[18790]: I1031 15:23:32.097101 18790 kubelet_node_status.go:276] Setting node annotation to enable volume controller attach/detach
из варнингов ранее было
Oct 31 15:21:11 master kubelet[18790]: W1031 15:21:11.589080 18790 helpers.go:843] eviction manager: no observation found for eviction signal allocatableNodeFs.available


Anton
31.10.2017
12:25:03
он похоже в этот момент пытается запустить контейнеры
в логах докера есть чего? контейнеры не генерятся?
и версия kubeadm которая?

Pavel
31.10.2017
12:25:37
docker ps -a так и висит тихонечко, ничо нет
kubeadm version: &version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.1", GitCommit:"f38e43b221d08850172a9a4ea785a86a3ffa3b3a", GitTreeState:"clean", BuildDate:"2017-10-11T23:16:41Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}
окт 31 11:55:23 master dockerd[2096]: time="2017-10-31T11:55:23.893104198+03:00" level=info msg="API listen on /var/run/docker.sock"
логи докера
как в 11 часиков включился, дальше тишина

Anton
31.10.2017
12:28:56
-v, --v Level log level for V logs
для kubelet увеличивай
и перезапускай
--v=2 по дефолту наверное, до 4 подымай
мне как то такой совет помог =))
я не помню уже про kubeadm, но должны быть манифесты в /etc/kubernetes/manifests
которые kubelet использует чтобы поднять static pods
как раз api server \ controller \ scheduler

Pavel
31.10.2017
12:41:13
git clone —depth=1 https://github.com/kubernetes/kubernetes.git
по этому пути пошёл

Anton
31.10.2017
12:59:02
вместо копания проблемы пробуешь варианты? =)