
F01134H
19.10.2016
16:50:08
Понял

Artem
19.10.2016
16:50:08
да можно так

F01134H
19.10.2016
16:50:36

Artem
19.10.2016
16:50:36
там поди версии старые

Google

Alexandr
19.10.2016
16:51:00
cni - http://kubernetes.io/docs/admin/network-plugins/
cli у kubernetes - kubectl
> Вот это дело ставится на master vm?
Да. На слейвы тоже

F01134H
19.10.2016
16:51:35
Прямо в точности то же самое?
Лишнего ничего нет?

Alexandr
19.10.2016
16:51:58
Тёма, там прописываются http://apt.kubernetes.io/ kubernetes-xenial main - думаю, более менее свежее ?
Лишнего ничего нет. На слейвах команда kubeadm отличается

F01134H
19.10.2016
16:52:39
Понятно, спасибо за помощь!

Alexandr
19.10.2016
16:53:43
https://packages.cloud.google.com/apt/dists/kubernetes-xenial/main/binary-amd64/Packages - 1.4-ка

F01134H
19.10.2016
17:11:06
Я дико извиняюсь за тупость)

Sergey
19.10.2016
17:12:07
новый мир. теперь бинарники скачиваются вгетом и кладутся в /usr/local/bin/

Alexandr
19.10.2016
17:12:28
Я кидал ссылку http://kubernetes.io/docs/getting-started-guides/kubeadm/ - там по порядку надо идти

F01134H
19.10.2016
17:12:38
А, вон как

Google

F01134H
19.10.2016
17:12:43
я думал сначала нужно команду выполнить
Всё, спасибо)

Alexandr
19.10.2016
17:13:27

M
19.10.2016
17:36:30
я думаю если проблема возникла на этом этапе то еще не поздно остановиться

F01134H
19.10.2016
17:39:18
Уже работает всё

M
19.10.2016
17:42:21

F01134H
19.10.2016
17:44:27
Нет

M
19.10.2016
17:47:49
ну если действительно все поднялось, то поздравляю это была самая короткая установка k8s за историю этого чата)

F01134H
19.10.2016
17:59:44
А, да, пардон
weave
через него

Alexander
19.10.2016
18:02:57
и dashboard видно ?

F01134H
19.10.2016
18:03:31
Я пока не до конца установил
Завтра 2 вдс появится, буду уже ставить полностью

Artem
19.10.2016
18:04:36
weeve поднимает veth?

kay
19.10.2016
18:05:07
Прошу прощение за оффтопик, но это просто пиздец https://github.com/mattermost/platform/pull/4266

Artem
19.10.2016
18:05:50
ахахаа
вот вам ентерпрайз
платите бабки. бабки гоните! на нужны ваши бабки

kay
19.10.2016
18:06:53
ну а хуле. пулл реквест они не удалят. если только github не попросят

Google

Artem
19.10.2016
18:07:29
нахер вообще контрибутить в такие проекты
пусть сами там сдохнут
аххааа

kay
19.10.2016
18:10:14
есть тут кто с тфиттерами? расшарьте. мне эти дебилы давно не нравятся.

Alexander
19.10.2016
18:11:21

kay
19.10.2016
18:11:55
я на работе по 11 часов в день провожу, какой твиттер?

Alexander
19.10.2016
18:12:14
ну как бы и я раз в 3 мес логинюсь в него

kay
19.10.2016
18:12:15
Аба. И ты тут.
Как тесен мир

Artem
19.10.2016
18:12:45
я твитерил года два назад
завязал
в фейсбученьку кину

Fike
19.10.2016
20:08:09

Alexandr
20.10.2016
07:51:31
и dashboard видно ?
О, вот это у меня такая проблема, не видно. Я только начал открывать для себя мир k8s и докер.
Делаю по мануалу, убунту 16.04
в конфиге server: https://172.17.0.2:443
в браузере получаю Unauthorized
Ткните, плз, куда смотреть?

Artem
20.10.2016
08:11:32
kubectl get po

Alexander
20.10.2016
08:17:25
для начала его нужно установить, а вот потом открыть доступ

F01134H
20.10.2016
08:18:21
Да, вроде как дашборд отдельно ставится. Или я не прав?


Alexandr
20.10.2016
08:18:59
root@supernova:~# kubectl get po
root@supernova:~# kubectl get pods --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system etcd-supernova 1/1 Running 0 14d
kube-system kube-apiserver-supernova 1/1 Running 0 14d
kube-system kube-controller-manager-supernova 1/1 Running 0 14d
kube-system kube-discovery-982812725-swjy5 1/1 Running 0 14d
kube-system kube-dns-2247936740-47ha7 3/3 Running 8 14d
kube-system kube-proxy-amd64-lyya3 1/1 Running 0 14d
kube-system kube-scheduler-supernova 1/1 Running 0 14d
kube-system kubernetes-dashboard-1655269645-h6qe9 1/1 Running 0 14d
kube-system weave-net-64evi 2/2 Running 0 14d
sock-shop cart-3694116665-d6pc1 1/1 Running 0 14d
sock-shop cart-db-2305146297-kgaol 1/1 Running 0 14d
sock-shop catalogue-11453786-31g40 1/1 Running 0 14d
sock-shop catalogue-db-393939662-hpfaw 1/1 Running 0 14d
sock-shop front-end-3820830240-9q2fm 1/1 Running 0 14d
sock-shop orders-3498886496-2b5fg 1/1 Running 0 14d
sock-shop orders-db-1775353731-odfbi 1/1 Running 0 14d
sock-shop payment-3012088042-e6nbg 1/1 Running 0 14d
sock-shop queue-master-936560853-6a1dg 1/1 Running 0 14d
sock-shop rabbitmq-1897447621-vzmfq 1/1 Running 0 14d
sock-shop shipping-1232389217-pbzm0 1/1 Running 0 14d
sock-shop user-3090014237-b5fe6 1/1 Running 0 14d
sock-shop user-db-1338754314-a8clr 1/1 Running 0 14d
root@supernova:~# kubectl get nodes
NAME STATUS AGE
supernova NotReady 14d
Ну вот как-то так
вроде ж установил, но что-то не доделал, видимо

Google

Artem
20.10.2016
08:20:23
а можешь в пастебин
форматирование

F01134H
20.10.2016
08:20:38
у него стоит дашборд)
kube-system kubernetes-dashboard-1655269645-h6qe9 1/1 Running 0 14d

Admin
ERROR: S client not available

Artem
20.10.2016
08:22:59
get nodes not ready
кластер не поднялся

F01134H
20.10.2016
08:27:14
А у меня кстати поднялся сразу
Но фишка в чем, я на вдс сразу прописал днс
т.е. у меня сразу на домен перенаправление

Alexander
20.10.2016
08:28:57
или в kubelet добавить опцию обращаться по ip на всех нодах
/etc/systemd/system/kubelet.service.d/10-kubeadm.conf
Environment="KUBELET_EXTRA_ARGS=--v=4 --node-ip=192.168.1.1"

Alexandr
20.10.2016
08:31:29

F01134H
20.10.2016
08:32:28
Заработает
у меня ж заработало
Я такой же как ты новичок)

Alexandr
20.10.2016
08:33:03
Вот тогда не понял, что надо, чтоб "кластер" поднялся..

F01134H
20.10.2016
08:33:13
Выше сказали же
или в kubelet добавить опцию обращаться по ip на всех нодах
/etc/systemd/system/kubelet.service.d/10-kubeadm.conf
Environment="KUBELET_EXTRA_ARGS=--v=4 --node-ip=192.168.1.1"

Google

Alexandr
20.10.2016
08:33:26
а, сек
root@supernova:~# ps ax | grep 172.17.0.2
3599 ? Ssl 0:12 /usr/bin/kubelet --kubeconfig=/etc/kubernetes/kubelet.conf --require-kubeconfig=true --pod-manifest-path=/etc/kubernetes/manifests --allow-privileged=true --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin --cluster-dns=100.64.0.10 --cluster-domain=cluster.local --v=4 --node-ip=172.17.0.2
но ничего не изменилось

Alexander
20.10.2016
08:48:33
ip у ноды странный

Artem
20.10.2016
08:49:21
с докерной сеткой не пересекается?

Alexandr
20.10.2016
08:50:27
Нет, докер автоматом подставил другую:
docker0 Link encap:Ethernet HWaddr 02:42:18:58:d5:4d
inet addr:172.18.0.1 Bcast:0.0.0.0 Mask:255.255.0.0

kay
20.10.2016
09:08:40
Как вдолбить k8s что при rolling upgrade может быть только один pod в статусе terminating?

Fike
20.10.2016
09:13:55
на всякий спрошу: ты же maxUnavailable указываешь, верно?

kay
20.10.2016
09:14:09
strategy:
rollingUpdate:
maxSurge: 0
maxUnavailable: 1
type: RollingUpdate
readinessProbe не прокатывает.
т.к. есть свои нюансы.


Alexandr
20.10.2016
11:17:57
Сделал cleanup и все заново. Кластер поднялся, но не все ок пока
root@supernova:~# kubeadm init
<master/tokens> generated token: "<token>"
<master/pki> created keys and certificates in "/etc/kubernetes/pki"
<util/kubeconfig> created "/etc/kubernetes/kubelet.conf"
<util/kubeconfig> created "/etc/kubernetes/admin.conf"
<master/apiclient> created API client configuration
<master/apiclient> created API client, waiting for the control plane to become ready
<master/apiclient> all control plane components are healthy after 66.561948 seconds
<master/apiclient> waiting for at least one node to register and become ready
<master/apiclient> first node is ready after 1.504469 seconds
<master/discovery> created essential addon: kube-discovery, waiting for it to become ready
<master/discovery> kube-discovery is ready after 31.004884 seconds
<master/addons> created essential addon: kube-proxy
<master/addons> created essential addon: kube-dns
Kubernetes master initialised successfully!
You can now join any number of machines by running the following on each node:
kubeadm join --token <token> 172.17.0.2
root@supernova:~# kubectl get nodes
NAME STATUS AGE
supernova Ready 1h
root@supernova:~# curl -L https://172.17.0.2
Unauthorized
root@supernova:~# kubectl get po --all-namespaces | grep dashboard
kube-system kubernetes-dashboard-1655269645-4v66n 0/1 Pending 0 52m
Куда еще можно посмотреть?
Как ему Running сделать?


Alexander
20.10.2016
11:20:15
по логам посмотри
чего-то нехватает

Alexandr
20.10.2016
11:21:10
root@supernova:~# kubectl get events --namespace=kube-system
LASTSEEN FIRSTSEEN COUNT NAME KIND SUBOBJECT TYPE REASON SOURCE MESSAGE
9s 59m 209 kubernetes-dashboard-1655269645-4v66n Pod Warning FailedScheduling {default-scheduler } pod (kubernetes-dashboard-1655269645-4v66n) failed to fit in any node
fit failure on node (supernova): PodToleratesNodeTaints
59m 59m 1 kubernetes-dashboard-1655269645 ReplicaSet Normal SuccessfulCreate {replicaset-controller } Created pod: kubernetes-dashboard-1655269645-4v66n
59m 59m 1 kubernetes-dashboard Deployment Normal ScalingReplicaSet {deployment-controller } Scaled up replica set kubernetes-dashboard-1655269645 to 1
смотрю