
Dmitry
15.10.2016
20:47:48
походу, сейчас гляну в конфиге

M
15.10.2016
20:49:03
обычно это 6443

Dmitry
15.10.2016
20:49:21
# The port that the Kubernetes apiserver component listens on.
kube_master_api_port: 443
единственная настройка в которой есть 443

Google

M
15.10.2016
20:50:49
я могу ошибаться но до 1024 порта privileged диапазон

Dmitry
15.10.2016
20:51:19
да, это так) сейчас подниму до 6443 эту настройку, посмотрю как пройдет)

M
15.10.2016
20:52:39
—allow-privileged=false ну или это исправь

Dmitry
15.10.2016
20:53:54

M
15.10.2016
20:54:53
как у тебя kubectl без аписервера работал интересно

Dmitry
15.10.2016
20:55:52
хотя стоп
в логах он не мог стартануть
а в процессах показан
# kubectl get nodes
NAME STATUS AGE
95.213.236.162 Ready 1m
прокатило)
# kubectl get pods —all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system elasticsearch-logging-v1-1v0l6 1/1 Running 0 43m
kube-system elasticsearch-logging-v1-jbukm 1/1 Running 0 43m
kube-system fluentd-elasticsearch-95.213.236.162 1/1 Running 0 1m
kube-system heapster-v1.0.2-3427619061-n54m2 0/4 Pending 0 43m
kube-system kibana-logging-v1-bryii 1/1 Running 1 43m
kube-system kube-dns-v11-5ag5d 3/4 Running 0 43m
kube-system kubernetes-dashboard-v1.1.0-egdts 0/1 CrashLoopBackOff 1 23m
kube-system monitoring-influxdb-grafana-v3-6nrjj 0/2 Pending 0 43m
шикарно!

Google

Dmitry
15.10.2016
20:57:42
@exename спасибо за помощь!

M
15.10.2016
20:57:48
enjoy
=)

Dmitry
15.10.2016
20:57:56
а у тебя уже развернут кластер кубернета?)

M
15.10.2016
20:58:16
да, только не на убунте

Dmitry
15.10.2016
20:58:41
и как кубернет себя показал?

M
15.10.2016
20:59:21
норм, особоо не с чем сравнить

Dmitry
15.10.2016
21:00:34

M
15.10.2016
21:01:01
роллинг апдейт скриптами ансибла?

Dmitry
15.10.2016
21:02:20
это накатывание изменений на несколько хостов?)

M
15.10.2016
21:03:51
http://kubernetes.io/docs/user-guide/rolling-updates/

Dmitry
15.10.2016
21:05:17
да, читаю уже)
странная херня с дешбордом
# kubectl cluster-info
kubernetes-dashboard is running at http://localhost:8080/api/v1/proxy/namespaces/kube-system/services/kubernetes-dashboard
а в
# kubectl get pods —all-namespaces
kubernetes-dashboard-v1.1.0-egdts 0/1 CrashLoopBackOff
# kubectl logs kubernetes-dashboard-v1.1.0-egdts —namespace=kube-system
Starting HTTP server on port 9090
Creating API server client for https://10.254.0.1:443
Error while initializing connection to Kubernetes apiserver. This most likely means that the cluster is misconfigured (e.g., it has invalid apiserver certificates or service accounts configuration) or the —apiserver-host param points to a server that does not exist. Reason: Get https://10.254.0.1:443/version: dial tcp 10.254.0.1:443: i/o timeout

M
15.10.2016
21:15:21
-v1.1.0 too old
1.4.0 ставь

Artur
15.10.2016
21:15:47
там в энсибле 1.2.4 дефолт вроде

Dmitry
15.10.2016
21:16:45

M
15.10.2016
21:17:05
10.254.0.1:443 там есть что то?

Google

M
15.10.2016
21:17:09
curl

Dmitry
15.10.2016
21:18:29
неконектится, походу нет

Artur
15.10.2016
21:18:48
iptables смотри
в k8s нет ipv6?
серьезно?
в GCE нет ipv6?

M
15.10.2016
21:19:45
и хорошо что нет и так все крайне запутанно)

Dmitry
15.10.2016
21:19:49

Artur
15.10.2016
21:20:04
я только что issue открыл и там типа
ну aws и gce же не поддерживают ipv6, нафига нам это
вот говно)
хотя по факту нужно на балансировщике только ipv6

Artur
15.10.2016
21:24:44
расскажите про kube-discovery, пожалуйста
я тут kubeadm init сделал и там есть под с kube-discovery, зачем он?

Dmitry
15.10.2016
21:25:19
kubernetes-dashboard-v1.4.0-w6bxd 1/1 Running 0 1m
но на 10.254.0.1:443 никто не отвечает

M
15.10.2016
21:26:51
kubectl logs нового дашборда что говорит?

Dmitry
15.10.2016
21:27:02
kube-system kubernetes-dashboard-v1.4.0-w6bxd 0/1 CrashLoopBackOff 2 3m
вот походу почему не отвечает

Google

M
15.10.2016
21:27:52
Там много вариантов почему нет)

Dmitry
15.10.2016
21:28:22
root@cs49854:/var/log# journalctl -u kubernetes-dashboard
— No entries —
root@cs49854:/var/log# journalctl -u kubernetes-dashboard-v1.4.0
— No entries —
root@cs49854:/var/log# journalctl -u kubernetes-dashboard-v1.4.0-w6bxd
— No entries —
root@cs49854:/var/log# journalctl -u dashboard
— No entries —

M
15.10.2016
21:28:35
Не так
kubectl logs имя пода --namespace kube-system

Dmitry
15.10.2016
21:29:42
# kubectl logs kubernetes-dashboard-v1.4.0-w6bxd —namespace kube-system
Starting HTTP server on port 9090
Creating API server client for https://10.254.0.1:443
странно
а, вот щас норм:
# kubectl logs kubernetes-dashboard-v1.4.0-w6bxd —namespace kube-system
Starting HTTP server on port 9090
Creating API server client for https://10.254.0.1:443
Error while initializing connection to Kubernetes apiserver. This most likely means that the cluster is misconfigured (e.g., it has invalid apiserver certificates or service accounts configuration) or the —apiserver-host param points to a server that does not exist. Reason: Get https://10.254.0.1:443/version: dial tcp 10.254.0.1:443: i/o timeout

M
15.10.2016
21:30:37
Ну тоже самое по сути
Попробуй из другого пода, который running curl этот адрес

Admin
ERROR: S client not available

Dmitry
15.10.2016
21:32:56
это как?
kube-system elasticsearch-logging-v1-1v0l6 1/1 Running 1 1h
kube-system elasticsearch-logging-v1-jbukm 1/1 Running 1 1h
kube-system fluentd-elasticsearch-95.213.236.162 1/1 Running 0 37m
kube-system heapster-v1.0.2-3427619061-n54m2 0/4 Pending 0 1h
kube-system kibana-logging-v1-bryii 0/1 CrashLoopBackOff 5 1h
kube-system kube-dns-v11-5ag5d 3/4 CrashLoopBackOff 17 1h
kube-system kubernetes-dashboard-v1.4.0-w6bxd 0/1 CrashLoopBackOff 5 9m
kube-system monitoring-influxdb-grafana-v3-6nrjj 0/2 Pending 0 1h
там еластик только остался из тех, кто слушает
остальные тоже крашатся

M
15.10.2016
21:35:21
kubectl exec -ti elasticsearch-logging-v1-jbukm /bin/sh —namespace kube-system
и оттуда curl
если нет то смотри сеть если курл пройдет то смотри сертификаты

Dmitry
15.10.2016
21:36:56
# kubectl exec -ti elasticsearch-logging-v1-1v0l6 /bin/sh —namespace=kube-system
# curl 10.254.0.1:443
вошел в контейнер
но курл не прошел

Google

Dmitry
15.10.2016
21:37:08
висит

M
15.10.2016
21:37:18
значит смотри сеть
я на убунте не настраивал, не знаю кто там вместо flanneld

Dmitry
15.10.2016
21:40:17
в ансибле можно выбрать между ними: flannel|opencontrail|contiv

M
15.10.2016
21:43:35
а что говорит ip addr sh ?

Dmitry
15.10.2016
21:44:21
https://gist.github.com/dkostenko/325b8b55d040feacd62c8a74e0afc98e
выполннил его на мастере
если честно, это для меня уже магия

M
15.10.2016
21:46:30
помоему у docker0 должна быть другая подсеть после запуска flannel
inet 172.17.0.1/16
это похожа на дефолтную
если можешь ребутни сервак, может оно правильно поднимется после бута

Dmitry
15.10.2016
21:48:27
посмотрел в ансибле - там этого не прописывается
сейчас сделаю ребут
а оно вообще само встанет с колен?)
ребутаю только мастер
ребутнул мастер
та же ерунда:
# kubectl get pods —all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system elasticsearch-logging-v1-1ay1u 1/1 Running 1 8m
kube-system elasticsearch-logging-v1-rvogl 1/1 Running 1 8m
kube-system fluentd-elasticsearch-95.213.236.162 1/1 Running 0 54s
kube-system heapster-v1.0.2-3427619061-n54m2 0/4 Pending 0 1h
kube-system kibana-logging-v1-3aqfg 0/1 CrashLoopBackOff 3 8m
kube-system kube-dns-v11-l6hrh 3/4 Running 5 8m
kube-system kubernetes-dashboard-v1.4.0-xjz0x 0/1 CrashLoopBackOff 3 8m
kube-system monitoring-influxdb-grafana-v3-6nrjj 0/2 Pending 0 1h

M
15.10.2016
21:53:41
подсети те же на интерфейсах?

Dmitry
15.10.2016
21:54:27
да
ip addr show без изменений
в ансибле можно подсеть настроить
# Flannel internal network (optional). When flannel is used, it will assign IP
# addresses from this range to individual pods.
# This network must be unused in your network infrastructure!
flannel_subnet: 172.16.0.0
# Flannel internal network total size (optional). This is the prefix of the
# entire flannel overlay network. So the entirety of 172.16.0.0/12 must be
# unused in your environment.
flannel_prefix: 12
# Flannel internal network (optional). This is the size allocation that flannel
# will give to each node on your network. With these defaults you should have
# room for 4096 nodes with 254 pods per node.
flannel_host_prefix: 24