
Denis
27.08.2016
17:55:56
Нас не изменить )
# kubectl get no
# kubectl get namespaces
NAME STATUS AGE
default Active 43m
kube-system Active 43m

Alexander
27.08.2016
18:19:35
?

Maxim
27.08.2016
19:14:02
Ну чего там?

Google

Maxim
27.08.2016
19:14:06
Поперло?
С другой стороны - могло бы и в макдональдсе…

Ivan
27.08.2016
19:24:11

Denis
27.08.2016
19:26:43
И не с девушкой?)
Поперло?
kubectl get no показывает ничего - это ок? )

Maxim
27.08.2016
19:27:50
Kubelet и прокси запущены?

Denis
27.08.2016
19:28:28
Прокси!
Точно!
и ещё кстати kubectl не обновил
вот теперь обновил
kubectl get no по прежнему пусто
и ещё занятно, что kubectl cluster-info dump возвращает список со старым namespaces

Google


Denis
27.08.2016
19:47:32
journalctl -u kube-kubelete -f на мастере говорит, что kube-controller-manager не удаётся запустить
kubectl get po --namespace kube-system тоже пусто
Максим, модификация etcd в моём случае (как второй инстанс) должна быть такая?
...
- "/usr/local/bin/etcd --listen-peer-urls 'http://127.0.0.1:3380' --listen-client-urls 'http://127.0.0.1:3379' --advertise-client-urls 'http://127.0.0.1:3379' --data-dir /var/lib/etcd"
# --client-cert-auth true --trusted-ca-file /etc/kubernetes/ssl/ca.pem --cert-file /etc/kubernetes/ssl/apiserver.pem --key-file /etc/kubernetes/ssl/apiserver-key.pem --peer-client-cert-auth true --peer-trusted-ca-file /etc/kubernetes/ssl/ca.pem --peer-cert-file /etc/kubernetes/ssl/apiserver.pem --peer-key-file /etc/kubernetes/ssl/apiserver-key.pem
livenessProbe:
httpGet:
host: 127.0.0.1
port: 3379
path: "/health"
initialDelaySeconds: 15
timeoutSeconds: 15
ports:
- name: serverport
containerPort: 3380
hostPort: 3380
- name: clientport
containerPort: 3379
hostPort: 3379
...
нашёл ещё расхождение, что версия controller-manager 1.3.5, а не 1.3.6. перезапустил
# sudo journalctl -u kube-kubelet -f
...
Aug 27 20:04:27 loadbal1 kubelet[4486]: I0827 20:04:27.524825 4486 docker_manager.go:2289] checking backoff for container "kube-controller-manager" in pod "kube-controller-manager-xx.xx.xx.17"
Aug 27 20:04:27 loadbal1 kubelet[4486]: I0827 20:04:27.524927 4486 docker_manager.go:2303] Back-off 1m20s restarting failed container=kube-controller-manager pod=kube-controller-manager-xx.xx.xx.17_kube-system(716509e2c3062e2e4e8961e47365b1a2)
Aug 27 20:04:27 loadbal1 kubelet[4486]: E0827 20:04:27.524963 4486 pod_workers.go:183] Error syncing pod 716509e2c3062e2e4e8961e47365b1a2, skipping: failed to "StartContainer" for "kube-controller-manager" with CrashLoopBackOff: "Back-off 1m20s restarting failed container=kube-controller-manager pod=kube-controller-manager-xx.xx.xx.17_kube-system(716509e2c3062e2e4e8961e47365b1a2)"


Maxim
27.08.2016
20:16:08
Proxy запустился?
$ kubectl get po
Что-нить возвращает?

Denis
27.08.2016
21:33:38
Пустое
Как будто ничего)
А как старые удалить? И надо ли? Мы же ему новый etcd указываем?

Maxim
27.08.2016
21:37:49
Ну может ты его на папку со старыми данными натравил
Евенты появились?
Вообще, если манифесты запускаются, а в подах пусто, то проблема в том, что kubelet не смог с апишечкой сдружиться
Короче, что-то у тебя с kubeconfig.yaml не то
Надо проверять
например
kubectl --kubeconfig=/etc/kubernetes/kubeconfig.yaml get ev --all-namespaces
прямо на сервере
скачай туда kubectl просто
потому что все остальное-то в порядке

Google

Maxim
28.08.2016
09:27:49
kubelet запускается сам, запускает все из манифестов
НО
ни сам kubelet, ни те манифесты, которым нужен kubeconfig.yaml, не могут дойти до апи
стопудово говно в kubeconfig'e
давай искать
@DenisIzmaylov ^^^

Denis
28.08.2016
10:07:54
Всем доброе утро :)
Мы продолжаем свой репортаж с раскопок CoreOS-кластера
Сегодня будем проводить отряд экзорцизма для воскрешения Kubenetes
Под руководством опытного мага Максима Филатова

Maxim
28.08.2016
10:09:35
а говорил, что не пьешь

Denis
28.08.2016
10:09:37
Сейчас попробую зафетчить events :)

Maxim
28.08.2016
10:09:40
с горя чтоли?

Denis
28.08.2016
10:10:19
Выпил вчера бокал красного французского для снятия стресса, пока в спортзал нельзя, пользуюсь положением)
обнаружил, что у меня местами был указан kubeconfig.yaml в то время, как я поменял на kubeconfig.yml
просто у нас так принято - .yml для yaml

Maxim
28.08.2016
10:15:41
sed -i 's/yaml/yml/g' /etc/kubernetes/manifests/*

Denis
28.08.2016
10:15:43
сейчас меняю и обновля
а всё проще - у меня все конфиги в одном cloud-config для CoreOS, она с него инициилизируется

Google

Maxim
28.08.2016
10:16:09
ну или так

Denis
28.08.2016
10:17:23
полез заливать его на кластеры
можно было вчера уже ansible разобраться и настроить
наверн)

Maxim
28.08.2016
10:19:24
растешь, мой юный падаван

Denis
28.08.2016
10:19:48
))) век живи - век учись
или never give up
отправил мастер на ребут

Admin
ERROR: S client not available

Maxim
28.08.2016
10:22:15
зачем?
достаточно было перезапустить kubelet
если манифесты в /etc/kubernetes/manifests/ обновляются, kubelet их сам перезапускает

Denis
28.08.2016
10:28:32
это CoreOS - здесь так принято, как я понял
или можно как-то содержимое сервис-юнита в памяти менять (все эти ExecStartPre, ExecStart и тд)?

Maxim
28.08.2016
10:32:51
systemctl daemon-reload
перечитывает обновленные юниты
из мана:
Manager Lifecycle Commands:
daemon-reload Reload systemd manager configuration
daemon-reexec Reexecute systemd manager

Denis
28.08.2016
10:36:43
дастиш фантастиш ?
обнаружил, что я тут ещё повредил kubeconfig вчера вечером

Google


Denis
28.08.2016
10:37:53
думал CoreOS подхватывает переменные в секции content для файлов
Aug 28 10:45:00 loadbal1 kubelet[4503]: I0828 10:45:00.313821 4503 docker_manager.go:2289] checking backoff for container "kube-apiserver" in pod "kube-apiserver-xx.xx.xx.17"
Aug 28 10:45:00 loadbal1 kubelet[4503]: I0828 10:45:00.313950 4503 docker_manager.go:2303] Back-off 2m40s restarting failed container=kube-apiserver pod=kube-apiserver-xx.xx.xx.17_kube-system(ba444ee1a5b2518ad107b6d0865a3851)
Aug 28 10:45:00 loadbal1 kubelet[4503]: E0828 10:45:00.313982 4503 pod_workers.go:183] Error syncing pod ba444ee1a5b2518ad107b6d0865a3851, skipping: failed to "StartContainer" for "kube-apiserver" with CrashLoopBackOff: "Back-off 2m40s restarting failed container=kube-apiserver pod=kube-apiserver-xx.xx.xx.17_kube-system(ba444ee1a5b2518ad107b6d0865a3851)"
Что-то пошло не так
Хотя вроде правильно запускается:
- apiserver
- --bind-address=0.0.0.0
- --secure-port=6443
- --insecure-bind-address=127.0.0.1
- --insecure-port=8080
- --service-cluster-ip-range=10.100.0.0/24
- --etcd-servers=http://127.0.0.1:3379
- --etcd-certfile=/etc/kubernetes/ssl/apiserver.pem
- --etcd-keyfile=/etc/kubernetes/ssl/apiserver-key.pem
- --etcd-cafile=/etc/kubernetes/ssl/ca.pem
- --storage-backend=etcd3
- --allow-privileged=true
- --admission-control=NamespaceLifecycle,LimitRanger,ServiceAccount,ResourceQuota
- --runtime-config=extensions/v1beta1=true,extensions/v1beta1/thirdpartyresources=true
- --tls-cert-file=/etc/kubernetes/ssl/apiserver.pem
- --tls-private-key-file=/etc/kubernetes/ssl/apiserver-key.pem
- --client-ca-file=/etc/kubernetes/ssl/ca.pem
- --service-account-key-file=/etc/kubernetes/ssl/apiserver-key.pem
- --docker=unix:///var/run/docker.sock
- --log-dir=/var/log/kubernetes


Maxim
28.08.2016
10:47:41
curl http://127.0.0.1:3379 что говорит?
на этом сервере

Denis
28.08.2016
10:47:53
судя по docker ps -a оно не запустилось

Maxim
28.08.2016
10:48:03
кто оно?

Denis
28.08.2016
10:48:13
curl http://127.0.0.1:3379
404 page not found
охохо

Maxim
28.08.2016
10:48:23
ага, это хорошо

Denis
28.08.2016
10:48:29
я думал он в докере запускается

Maxim
28.08.2016
10:48:31
etcd поднялся значит
в докере конечно
хотя я хрен знает этот ваш кореос, может там рокет всех поимел

Denis
28.08.2016
10:50:32
но вот здесь никаких портов вроде не expose-ится)

Maxim
28.08.2016
10:50:39
ну и что?

Denis
28.08.2016
10:50:51
да так, я думал должно )

Maxim
28.08.2016
10:50:52
expose ни на что не влияет
это для человеков
не для роботов