@kubernetes_ru

Страница 30 из 958
Denis
28.08.2016
12:41:40
сейчас пять сек, лог покажу

там вроде полный порядок: apiVersion: v1 kind: Config clusters: - cluster: certificate-authority: /etc/kubernetes/ssl/ca.pem server: https://xx.xx.xx.197:6443 name: findx users: - name: kubelet user: client-certificate: /etc/kubernetes/ssl/kubelet.pem client-key: /etc/kubernetes/ssl/kubelet-key.pem contexts: - context: cluster: findx user: kubelet name: kubelet-context current-context: kubelet-context

Maxim
28.08.2016
12:43:12
похоже, да

давай лог

Google
Maxim
28.08.2016
12:45:28
и перестань замазывать приватные адреса

ты никакого секурити этим не повышаешь

а время тратишь

Denis
28.08.2016
12:46:05
http://jsbin.com/wiyefitale/edit?html

да чё то да

уже поднадоело)

Maxim
28.08.2016
12:46:36
W0828 12:40:34.263844 30692 server.go:676] No api server defined - no events will be sent to API server.

говно

Denis
28.08.2016
12:47:05
ключи?

Maxim
28.08.2016
12:47:12
неа

Denis
28.08.2016
12:47:49
iptables?

Maxim
28.08.2016
12:48:14
опять не угадал ;)

Denis
28.08.2016
12:48:31
)))

Google
Maxim
28.08.2016
12:48:34
sudo /opt/bin/kubelet --config=/etc/kubernetes/manifests --kubeconfig=/etc/kubernetes/kubeconfig.yml --api_servers=https://xx.xx.xx.197:6443

вот так запускай

ну только иксы эти свои сраные поменяй на адрес

Denis
28.08.2016
12:50:12
опа

события пошли

Maxim
28.08.2016
12:50:36
... и нода появилась в kubectl get no

Denis
28.08.2016
12:50:47
kubectl get no NAME STATUS AGE www2 Ready 42s

YEP!

но почему у тебя без этого параметра работает?

Maxim
28.08.2016
12:51:46
а хуй его знает, товарищ маёр

судя по доке - должно работать

я эту инсталляцию обновляю с версии 1.2.2

может закешировалось где-то

ну короче: ExecStart=/opt/bin/kubelet \ --api_servers=https://xx.xx.xx.197:6443 \ --config=/etc/kubernetes/manifests \ --kubeconfig=/etc/kubernetes/kubeconfig.yml \ --address=${COREOS_PRIVATE_IPV4} \ --port=10250 \ --hostname-override=${COREOS_PRIVATE_IPV4} \ --allow-privileged=true \ --logtostderr=true \ --cadvisor-port=4194 \ --healthz-bind-address=${COREOS_PRIVATE_IPV4} \ --cluster-dns=${K8S_DNS_IPV4} \ --cluster-domain="kube.local" \ --healthz-port=10248

и перезапускай все кьюблеты

абля

и хелз поправь

ща

я поправил там выше

Denis
28.08.2016
12:55:18
порт кастомный должен быть?

Google
Maxim
28.08.2016
12:55:24
нене

он у тебя слушал 0.0.0.0

я поменял на ${COREOS_PRIVATE_IPV4}

Denis
28.08.2016
12:56:17
а, ты про healthz-bind :)) спасибо

поменял также

кублеты должны связываться по 8080?

Maxim
28.08.2016
12:57:13
с кем?

Denis
28.08.2016
12:57:17
а ведь нет

apiserver

Maxim
28.08.2016
12:57:37
ты ж им сам сказал --api_servers=https://xx.xx.xx.197:6443

где тут 8080?

Denis
28.08.2016
12:57:48
да, я чё-то машинально начал писать

Denis
28.08.2016
12:57:51
http

8080

как по мануалу)

в глазах огонь, в голове - мануал

)

Maxim
28.08.2016
12:58:35
жаль только, что не тот :D

Denis
28.08.2016
12:58:39
)))

ух, ещё чуть хелз не забыл

Google
Denis
28.08.2016
13:18:01
забыл добавить \ после api-servers :) рестартовал снова

хехей!!! $ sudo ./kubectl --kubeconfig=/etc/kubernetes/kubeconfig.yml get pods --namespace kube-system NAME READY STATUS RESTARTS AGE etcd-server-xx.xx.xx.197 1/1 Running 11 8m kube-apiserver-xx.xx.xx.197 1/1 Running 5 8m kube-controller-manager-xx.xx.xx.197 1/1 Running 11 8m kube-proxy-xx.xx.xx.197 1/1 Running 11 8m kube-proxy-xx.xx.xx.198 1/1 Running 2 8m kube-proxy-xx.xx.xx.199 1/1 Running 0 7m kube-scheduler-xx.xx.xx.197 0/1 CrashLoopBackOff 20 8m

Maxim
28.08.2016
13:29:35
kubectl logs kube-scheduler-xx.xx.xx.197 --namespace kube-system --kubeconfig=/etc/kubernetes/kubeconfig.ym

ты можешь объяснить цель, с которой ты замазываешь приватные айпишники?

тебе просто приятно тратить время чтоли?

Denis
28.08.2016
13:32:21
они с паблика доступны :)

как бы теперь www2 удалить?

Maxim
28.08.2016
13:33:28
приватные адреса не могут быть доступны из публичной сети, пока ты не добавишь явно роутинг этой сети через публично-доступный гейт

или впн

Admin
ERROR: S client not available

Maxim
28.08.2016
13:34:15
они unroutable, мой лаптоп даже не будет пробовать построить к ним маршрут

Denis
28.08.2016
13:34:22
они не совсем приватные, они публичные, но это просто второй интерфейс для того, чтобы production не нагружать для сервисных вещей

(насколько я понимаю)

Maxim
28.08.2016
13:34:56
а нахрена тебе весь кластер на публичных адресах?

(насколько я понимаю)
что там в первом октете?

Denis
28.08.2016
13:35:33
так, 10.91.xx.xx это приватные?

Maxim
28.08.2016
13:35:33
первая цифирька какая?

Denis
28.08.2016
13:35:35
или публичные?

Maxim
28.08.2016
13:35:40
приватные

10.0.0.0/8 - весь приватный

Google
Denis
28.08.2016
13:35:56
т.е. я всё это зря делал? о_О

Maxim
28.08.2016
13:36:00
да

как я и говорил

Denis
28.08.2016
13:36:59
уф, надо было в школе не прогуливать уроки по Kubernetes

Maxim
28.08.2016
13:37:13
и по TCP/IP

Denis
28.08.2016
13:37:27
и по OSI model :)

$ sudo ./kubectl --kubeconfig=/etc/kubernetes/kubeconfig.yml logs kube-scheduler-10.91.119.197 --namespace kube-system Error: Error loading config file "/etc/kubernetes/kubeconfig.yaml": read /etc/kubernetes/kubeconfig.yaml: is a directory Error loading config file "/etc/kubernetes/kubeconfig.yaml": read /etc/kubernetes/kubeconfig.yaml: is a directory фак

когда жизнь не учит

когда привычки сильнее разума

Maxim
28.08.2016
13:40:04
- hostPath: path: /etc/kubernetes/kubeconfig.yaml name: kubeconfig

в каком-то из манифестов

файла /etc/kubernetes/kubeconfig.yaml не было, поэтому оно сделало папку

чтобы замонтировать в контейнер

поэтому и is a directory

Denis
28.08.2016
13:41:47
да, это понятно :) я уже поменял - это было в последнем scheduler, который я скопировал из гиста, но не пропатчил)

сейчас ребутаю

хотя не удивлюсь, если и ребутать не надо

Maxim
28.08.2016
13:42:52
не надо

просто файл манифеста обновить

мне кажется, раз пять уже это говорил

Denis
28.08.2016
13:43:15
))

Страница 30 из 958