
Denis
28.08.2016
12:41:40
сейчас пять сек, лог покажу
там вроде полный порядок:
apiVersion: v1
kind: Config
clusters:
- cluster:
certificate-authority: /etc/kubernetes/ssl/ca.pem
server: https://xx.xx.xx.197:6443
name: findx
users:
- name: kubelet
user:
client-certificate: /etc/kubernetes/ssl/kubelet.pem
client-key: /etc/kubernetes/ssl/kubelet-key.pem
contexts:
- context:
cluster: findx
user: kubelet
name: kubelet-context
current-context: kubelet-context

Maxim
28.08.2016
12:43:12
похоже, да
давай лог

Google

Maxim
28.08.2016
12:45:28
и перестань замазывать приватные адреса
ты никакого секурити этим не повышаешь
а время тратишь

Denis
28.08.2016
12:46:05
http://jsbin.com/wiyefitale/edit?html
да чё то да
уже поднадоело)

Maxim
28.08.2016
12:46:36
W0828 12:40:34.263844 30692 server.go:676] No api server defined - no events will be sent to API server.
говно

Denis
28.08.2016
12:47:05
ключи?

Maxim
28.08.2016
12:47:12
неа

Denis
28.08.2016
12:47:49
iptables?

Maxim
28.08.2016
12:48:14
опять не угадал ;)

Denis
28.08.2016
12:48:31
)))

Google

Maxim
28.08.2016
12:48:34
sudo /opt/bin/kubelet --config=/etc/kubernetes/manifests --kubeconfig=/etc/kubernetes/kubeconfig.yml --api_servers=https://xx.xx.xx.197:6443
вот так запускай
ну только иксы эти свои сраные поменяй на адрес

Denis
28.08.2016
12:50:12
опа
события пошли

Maxim
28.08.2016
12:50:36
... и нода появилась в kubectl get no

Denis
28.08.2016
12:50:47
kubectl get no
NAME STATUS AGE
www2 Ready 42s
YEP!
но почему у тебя без этого параметра работает?

Maxim
28.08.2016
12:51:46
а хуй его знает, товарищ маёр
судя по доке - должно работать
я эту инсталляцию обновляю с версии 1.2.2
может закешировалось где-то
ну короче:
ExecStart=/opt/bin/kubelet \
--api_servers=https://xx.xx.xx.197:6443 \
--config=/etc/kubernetes/manifests \
--kubeconfig=/etc/kubernetes/kubeconfig.yml \
--address=${COREOS_PRIVATE_IPV4} \
--port=10250 \
--hostname-override=${COREOS_PRIVATE_IPV4} \
--allow-privileged=true \
--logtostderr=true \
--cadvisor-port=4194 \
--healthz-bind-address=${COREOS_PRIVATE_IPV4} \
--cluster-dns=${K8S_DNS_IPV4} \
--cluster-domain="kube.local" \
--healthz-port=10248
и перезапускай все кьюблеты
абля
и хелз поправь
ща
я поправил там выше

Denis
28.08.2016
12:55:18
порт кастомный должен быть?

Google

Maxim
28.08.2016
12:55:24
нене
он у тебя слушал 0.0.0.0
я поменял на ${COREOS_PRIVATE_IPV4}

Denis
28.08.2016
12:56:17
а, ты про healthz-bind :)) спасибо
поменял также
кублеты должны связываться по 8080?

Maxim
28.08.2016
12:57:13
с кем?

Denis
28.08.2016
12:57:17
а ведь нет
apiserver

Maxim
28.08.2016
12:57:37
ты ж им сам сказал --api_servers=https://xx.xx.xx.197:6443
где тут 8080?

Denis
28.08.2016
12:57:48
да, я чё-то машинально начал писать

Denis
28.08.2016
12:57:51
http
8080
как по мануалу)
в глазах огонь, в голове - мануал
)

Maxim
28.08.2016
12:58:35
жаль только, что не тот :D

Denis
28.08.2016
12:58:39
)))
ух, ещё чуть хелз не забыл

Google

Denis
28.08.2016
13:18:01
забыл добавить \ после api-servers :) рестартовал снова
хехей!!!
$ sudo ./kubectl --kubeconfig=/etc/kubernetes/kubeconfig.yml get pods --namespace kube-system
NAME READY STATUS RESTARTS AGE
etcd-server-xx.xx.xx.197 1/1 Running 11 8m
kube-apiserver-xx.xx.xx.197 1/1 Running 5 8m
kube-controller-manager-xx.xx.xx.197 1/1 Running 11 8m
kube-proxy-xx.xx.xx.197 1/1 Running 11 8m
kube-proxy-xx.xx.xx.198 1/1 Running 2 8m
kube-proxy-xx.xx.xx.199 1/1 Running 0 7m
kube-scheduler-xx.xx.xx.197 0/1 CrashLoopBackOff 20 8m

Maxim
28.08.2016
13:29:35
kubectl logs kube-scheduler-xx.xx.xx.197 --namespace kube-system --kubeconfig=/etc/kubernetes/kubeconfig.ym
ты можешь объяснить цель, с которой ты замазываешь приватные айпишники?
тебе просто приятно тратить время чтоли?

Denis
28.08.2016
13:32:21
они с паблика доступны :)
как бы теперь www2 удалить?

Maxim
28.08.2016
13:33:28
приватные адреса не могут быть доступны из публичной сети, пока ты не добавишь явно роутинг этой сети через публично-доступный гейт
или впн

Admin
ERROR: S client not available

Maxim
28.08.2016
13:34:15
они unroutable, мой лаптоп даже не будет пробовать построить к ним маршрут

Denis
28.08.2016
13:34:22
они не совсем приватные, они публичные, но это просто второй интерфейс для того, чтобы production не нагружать для сервисных вещей
(насколько я понимаю)

Maxim
28.08.2016
13:34:56
а нахрена тебе весь кластер на публичных адресах?

Denis
28.08.2016
13:35:33
так, 10.91.xx.xx это приватные?

Maxim
28.08.2016
13:35:33
первая цифирька какая?

Denis
28.08.2016
13:35:35
или публичные?

Maxim
28.08.2016
13:35:40
приватные
10.0.0.0/8 - весь приватный

Google

Denis
28.08.2016
13:35:56
т.е. я всё это зря делал? о_О

Maxim
28.08.2016
13:36:00
да
как я и говорил

Denis
28.08.2016
13:36:59
уф, надо было в школе не прогуливать уроки по Kubernetes

Maxim
28.08.2016
13:37:13
и по TCP/IP

Denis
28.08.2016
13:37:27
и по OSI model :)
$ sudo ./kubectl --kubeconfig=/etc/kubernetes/kubeconfig.yml logs kube-scheduler-10.91.119.197 --namespace kube-system
Error: Error loading config file "/etc/kubernetes/kubeconfig.yaml": read /etc/kubernetes/kubeconfig.yaml: is a directory
Error loading config file "/etc/kubernetes/kubeconfig.yaml": read /etc/kubernetes/kubeconfig.yaml: is a directory
фак
когда жизнь не учит
когда привычки сильнее разума

Maxim
28.08.2016
13:40:04
- hostPath:
path: /etc/kubernetes/kubeconfig.yaml
name: kubeconfig
в каком-то из манифестов
файла /etc/kubernetes/kubeconfig.yaml не было, поэтому оно сделало папку
чтобы замонтировать в контейнер
поэтому и is a directory

Denis
28.08.2016
13:41:47
да, это понятно :) я уже поменял - это было в последнем scheduler, который я скопировал из гиста, но не пропатчил)
сейчас ребутаю
хотя не удивлюсь, если и ребутать не надо

Maxim
28.08.2016
13:42:52
не надо
просто файл манифеста обновить
мне кажется, раз пять уже это говорил

Denis
28.08.2016
13:43:15
))