
Тимур
13.09.2016
11:44:57
Ayrat а ты не запихивал openstack в кубернетс ?

Ayrat
13.09.2016
11:45:59
@teamur Нет еще :) Сперва надо кластер поднять по нормальному.
Openstack on K8s занимаются Mirantis, TCPcloud и CoreOS делал небольшой POC Stackanetes
я хочу поднять non ha Opensack для CI testov как нибудь

Google

Тимур
13.09.2016
11:47:54
в кубернетсе ?

Ayrat
13.09.2016
11:48:02
а то мы на vagrante Openstack для теста поднимаем

Михаил
13.09.2016
11:48:19

Ayrat
13.09.2016
11:49:07
весь openstack k8s: мусколь, кролик и все компоненты
http://superuser.openstack.org/articles/making-openstack-production-ready-with-kubernetes-and-openstack-salt-part-1
вот чуваки уже далеко зашли
и вот парт2 http://superuser.openstack.org/articles/making-openstack-production-ready-with-kubernetes-and-openstack-salt-part-2

Тимур
13.09.2016
11:53:25
ага спасибо. норм тема. можно будет нормально openstack в бою обновлять

Ayrat
13.09.2016
11:55:00
да, на это и весь расчет. А то сейчас с Upgrade очень туго в Openstacke

Тимур
13.09.2016
11:55:48
но ресурсов дофига надо на это, чтобы допилить до ума

Михаил
13.09.2016
11:56:14
если что, по openstack есть отдельные каналы)

Тимур
13.09.2016
11:56:28
мы про кубернетс

Михаил
13.09.2016
11:57:06
это я понял)

Google

yolkov
13.09.2016
12:21:59
привет всем, а кто-нибудь поднимал калико?

Ayrat
13.09.2016
12:58:12
http://kubernetes.io/docs/getting-started-guides/ubuntu-calico/

yolkov
13.09.2016
12:58:30
)
читал, уже много чего читал, но не заводится оно

Ayrat
13.09.2016
12:59:06
а что там ?


yolkov
13.09.2016
13:00:08
не видит etcd, пробовал использовать етц от кубернейтс, потом свой кластер делал, сейчас уже просто запускаю в одном экземпляре etcd без ssl
calicoctl checksystem
ERROR: Unable to detect etcd version. If using etcd with SSL, set ETCD_SCHEME, ETCD_KEY_FILE, ETCD_CERT_FILE, and ETCD_CA_CERT_FILE environment variables
хотя докер контейнер запускается и не ругается
ETCD_AUTHORITY=10.9.1.68:6666 ETCD_SCHEME=http /usr/local/bin/calicoctl node --ip=10.9.1.68 --detach=false Running Docker container with the following command:
docker run --restart=always --net=host --privileged --name=calico-node -e HOSTNAME=avi-app68 -e IP=10.9.1.68 -e IP6= -e CALICO_NETWORKING=true -e AS= -e NO_DEFAULT_POOLS= -e ETCD_AUTHORITY=10.9.1.68:6666 -e ETCD_SCHEME=http -v /var/log/calico:/var/log/calico -v /lib/modules:/lib/modules -v /var/run/calico:/var/run/calico calico/node:v0.22.0
Calico node is running with id: 0763c7efc2416717befcf6c9e163342776a0f9c3b46269128919ceb0b0be825d
Waiting for successful startup
Waiting for etcd connection...
Calico node started successfully
пробовал разные версии etcd от 2.2.х 2.3.х 3.0. и от coreos 3.


Ayrat
13.09.2016
13:05:28
но должно и с отдельным etcd и даже на совместном с k8s

yolkov
13.09.2016
13:06:14
там куча тасков по поводу работы калико с ссл
поэтому пока пробую без ссл, но все равно не заводится
незнаю уже что смотреть

Ayrat
13.09.2016
13:07:33
а с фланелем он работал у тебя?

yolkov
13.09.2016
13:07:59
я сразу пробую с калико
кубернейтс работал, но я не поднимал поды на других нодах

Ayrat
13.09.2016
13:08:53
2379 порт для etcd каликовного

yolkov
13.09.2016
13:08:58
etcd с сертификатами в кластере работает с куберн
нет 6666
ETCD_AUTHORITY=10.9.1.68:6666

Google

yolkov
13.09.2016
13:09:55
-e ETCD_AUTHORITY=10.9.1.68:6666 -e ETCD_SCHEME=http
в логах контенера с етцд тоже все норм
2016-09-13 12:40:25.269498 I | etcdmain: listening for peers on http://0.0.0.0:6660
2016-09-13 12:40:25.269544 I | etcdmain: listening for client requests on http://0.0.0.0:6666
а у кого нить работает калико?

Maxim
13.09.2016
13:12:48
нет
я так и не смог

yolkov
13.09.2016
13:13:26
ну я еще помучаюсь и тоже наверно не смогу)

Maxim
13.09.2016
13:14:10
use weave, luke

Ayrat
13.09.2016
13:18:08
порт 6666 не рабочий
и даже 4001
попробуй 2379
https://github.com/projectcalico/calico-containers/pull/597/files
а в остальном доджно быть ок

yolkov
13.09.2016
13:20:13
странно, т.е. они захардкодили порт? я его не могу изменить в настройках? я же вижу что демон слушает мой порт
у меня на этих портах etcd для кубернейтса

Stanislav
13.09.2016
13:21:21

yolkov
13.09.2016
13:23:05
и для кубернейтса используется последний етцд и с сертификатами, а у калико тоже есть с этим проблемы
https://github.com/projectcalico/calico-containers/issues/1107

Ayrat
13.09.2016
13:27:07
пока пробуй без сертов
k8s на 4001 посади, а calico на 2379

yolkov
13.09.2016
13:33:38
все работает, утилита calicoctl хотела переменную окружения
спасибо на наводку)

Google

Ayrat
13.09.2016
13:34:33
неужели мы увидим K8s hard way with calico by yolkov :)

Михаил
13.09.2016
13:34:44

yolkov
13.09.2016
13:35:23
отпишусь как чтото запущу

Ayrat
13.09.2016
14:28:51
@pipopolam я все не могу addon manager поднять :(

Maxim
13.09.2016
14:29:06
показывай логи

Ayrat
13.09.2016
14:29:11
pod поднялся

Maxim
13.09.2016
14:29:15
так

Ayrat
13.09.2016
14:29:17
а в логе
$ kubectl logs kube-addon-manager --namespace kube-system
== Kubernetes addon manager started at 2016-09-13T14:27:34+0000 with ADDON_CHECK_INTERVAL_SEC=60 ==
The connection to the server localhost:8080 was refused - did you specify the right host or port?
== Failed to start /opt/namespace.yaml in namespace at 2016-09-13T14:27:34+0000. 99 tries remaining. ==
The connection to the server localhost:8080 was refused - did you specify the right host or port?
The connection to the server localhost:8080 was refused - did you specify the right host or port?

Admin
ERROR: S client not available

Maxim
13.09.2016
14:29:39
The connection to the server localhost:8080 was refused

Ayrat
13.09.2016
14:29:45
такое чуство что здесь не срабатывает
https://gist.github.com/Bregor/6a8cf10f610922b5898dcffef957ff26#file-addon-manager-yaml-L11-L15
так как ADDON_CHECK_INTERVAL_SEC=10 там например

Maxim
13.09.2016
14:30:41
$ kubectl exec -it kube-addon-manager --namespace kube-system -- cat /etc/kubernetes/kubeconfig.yml

Ayrat
13.09.2016
14:31:12
да нету его
kubectl exec -it kube-addon-manager --namespace kube-system -- cat /etc/kubernetes/kubeconfig.yml
cat: /etc/kubernetes/kubeconfig.yml: No such file or directory
error: error executing remote command: error executing command in container: Error executing in Docker Container: 1
хотя файл лежит в controllere и на нодах

Maxim
13.09.2016
14:31:48
значит вот тут проблема: https://gist.github.com/Bregor/6a8cf10f610922b5898dcffef957ff26#file-addon-manager-yaml-L20-L23

Ayrat
13.09.2016
14:31:56
да

Google

Maxim
13.09.2016
14:32:22
$ kubectl describe po kube-addon-manager --namespace kube-system


Ayrat
13.09.2016
14:32:49
$ kubectl describe po kube-addon-manager --namespace kube-system
Name: kube-addon-manager
Namespace: kube-system
Node: 10.0.229.6/10.0.229.6
Start Time: Tue, 13 Sep 2016 14:27:12 +0000
Labels: <none>
Status: Running
IP: 10.0.229.6
Controllers: <none>
Containers:
kube-addon-manager:
Container ID: docker://4231fad415bdbd46f5b3aad91a69cf31142962194c15d726c56755eb9c86f773
Image: gcr.io/google-containers/kube-addon-manager-amd64:v5.1
Image ID: docker://sha256:735ce4344f7f05e28dd9e8631d4ebeccf194bb8180c91e6df0069e4151832e78
Port:
Requests:
cpu: 5m
memory: 50Mi
State: Running
Started: Tue, 13 Sep 2016 14:27:34 +0000
Ready: True
Restart Count: 0
Environment Variables:
KUBECTL: /usr/bin/kubectl --kubeconfig=/etc/kubernetes/kubeconfig.yaml
ADDON_CHECK_INTERVAL_SEC: 10
Conditions:
Type Status
Initialized True
Ready True
PodScheduled True
Volumes:
addons:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes
QoS Tier: Burstable
Events:
FirstSeen LastSeen Count From SubobjectPath Type Reason Message
--------- -------- ----- ---- ------------- -------- ------ -------
5m 5m 1 {default-scheduler } Normal Scheduled Successfully assigned kube-addon-manager to 10.0.229.6
5m 5m 1 {kubelet 10.0.229.6} spec.containers{kube-addon-manager} Normal Pulling pulling image "gcr.io/google-containers/kube-addon-manager-amd64:v5.1"
5m 5m 1 {kubelet 10.0.229.6} spec.containers{kube-addon-manager} Normal Pulled Successfully pulled image "gcr.io/google-containers/kube-addon-manager-amd64:v5.1"
5m 5m 1 {kubelet 10.0.229.6} spec.containers{kube-addon-manager} Normal Created Created container with docker id 4231fad415bd
5m 5m 1 {kubelet 10.0.229.6} spec.containers{kube-addon-manager} Normal Started Started container with docker id 4231fad415bd
$ ls -la /usr/bin/kubectl
lrwxrwxrwx 1 root root 15 Sep 12 10:58 /usr/bin/kubectl -> opt/bin/kubectl
/usr/bin/kubectl --kubeconfig=/etc/kubernetes/kubeconfig.yaml
-bash: /usr/bin/kubectl: No such file or directory
спасибо щас hard link поставил
дожно сработать


Maxim
13.09.2016
14:39:01
а вот так сделай:
$ kubectl exec -it --namespace=kube-system kube-addon-manager-10.83.8.195 -- which kubectl
ну только вместо 10.83.8.195 свое подставь

Ayrat
13.09.2016
14:39:59
$ kubectl exec -it --namespace=kube-system kube-addon-manager -- which kubectl
/usr/local/bin/kubectl

Maxim
13.09.2016
14:40:06
вооот
а ты его в /opt ищешь
- env:
- name: KUBECTL
value: /usr/local/bin/kubectl ...
kubectl у тебя внутри пода
свой
где там у тебя kubectl на хостовой фс никого не волнует

Ayrat
13.09.2016
14:41:40
ясно а я думал это он на worker node смотрит

Maxim
13.09.2016
14:42:46
теперь надо разобраться, почему не смонтировался kubeconfig.yaml
$ kubectl exec -it --namespace=kube-system kube-addon-manager -- find /etc/kubernetes/ -type f

Ayrat
13.09.2016
14:44:11
$ kubectl exec -it --namespace=kube-system kube-addon-manager -- find /etc/kubernetes/ -type f
/etc/kubernetes/config
/etc/kubernetes/kubeconfig.yaml
/etc/kubernetes/kubelet

Maxim
13.09.2016
14:44:26
a ssl где?
или это не весь вывод?