@kubernetes_ru

Страница 935 из 958
Ivan
22.10.2018
12:58:13
на portworx

пробовал еще storageos, но portworx лучше

Andor
22.10.2018
12:58:39
зачем не на локал волюмах?

bebebe
22.10.2018
12:58:42
rke open-ceph-user-level-docs
какой однако у ranche2 богатый функционал!

Google
Peter
22.10.2018
12:58:57
λ rke open-ceph-user-level-docs No help topic for 'open-ceph-user-level-docs'

Ivan
22.10.2018
12:59:18
хотелось что-то более изящное, чем local volumes )

Vadim
22.10.2018
12:59:20
надо в rke ще патч Бармина реализовать

народ, я смотрю, спокойно запускает всё что им советуют незнакомые люди в интернетах

Andor
22.10.2018
13:00:01
curl ... | bash

bebebe
22.10.2018
13:00:17
пора уже стикеры с rke делать, как минимум с парочкой команд

Nata
22.10.2018
13:39:15
Andor
22.10.2018
13:40:22
со слезами на глазах

Даниил
22.10.2018
13:40:40
Alexey
22.10.2018
13:41:55
“я не плачу, просто баш скрипт в глаз попал“

Andor
22.10.2018
13:42:16
"yaml в глаз попал" тогда уж

Nata
22.10.2018
13:43:58


Google
Alexey
22.10.2018
13:43:58
yaml вот сюда попал “cat manifest.yml | envsubst | kubectl apply -f -“

Peter
22.10.2018
14:39:11
Промлема с модулем решилась вот таким костылём kubelet: extra_binds: - "/lib/modules:/lib/modules"

Но осталось Warning FailedMount 25s kubelet, rancher02 MountVolume.WaitForAttach failed for volume "pvc-9cdbd25d-d5f3-11e8-8dc0-5254000172f3" : rbd: map failed exit status 110, rbd output: 2018-10-22 14:38:08.630865 7fb70967c100 -1 did not load config file, using default settings. 2018-10-22 14:38:08.635878 7fb70967c100 -1 auth: unable to find a keyring on /etc/ceph/ceph.client.kube.keyring,/etc/ceph/ceph.keyring,/etc/ceph/keyring,/etc/ceph/keyring.bin: (2) No such file or directory rbd: sysfs write failed 2018-10-22 14:39:08.634981 7fb70967c100 -1 auth: unable to find a keyring on /etc/ceph/ceph.client.kube.keyring,/etc/ceph/ceph.keyring,/etc/ceph/keyring,/etc/ceph/keyring.bin: (2) No such file or directory In some cases useful info is found in syslog - try "dmesg | tail" or so. rbd: map failed: (110) Connection timed out

Andor
22.10.2018
14:41:33
И что непонятно?

Клиент ceph не может найти keyring

Вряд ли он магически его сам сделает

bebebe
22.10.2018
14:45:58
И что непонятно?
вы упускаете момент, что кластер раздеплоен ранчером rke fix-cluster еще не запускали

Andor
22.10.2018
14:46:12
Ой, извините

Peter
22.10.2018
14:57:12
Где вы у него такие команды нашли? rke --help NAME: rke - Rancher Kubernetes Engine, an extremely simple, lightning fast Kubernetes installer that works everywhere USAGE: rke [global options] command [command options] [arguments...] VERSION: v0.1.10 AUTHOR(S): Rancher Labs, Inc. COMMANDS: up Bring the cluster up remove Teardown the cluster and clean cluster nodes version Show cluster Kubernetes version config Setup cluster configuration etcd etcd snapshot save/restore operations in k8s cluster help, h Shows a list of commands or help for one command GLOBAL OPTIONS: --debug, -d Debug logging --help, -h show help --version, -v print the version

Fike
22.10.2018
14:57:45
чет захрюкал

Vladimir
22.10.2018
14:57:49
господа, подскажите плз, чяднт сделал ингресс, запускаю - все бы хорошо, но нестат показывает, что он порты не слушает https://pastebin.com/BGrSu2AF

bebebe
22.10.2018
14:59:41
rke open-ceph-user-level-docs
@etkee вы видимо вот этот пассаж пропустили ^^^

Vladimir
22.10.2018
15:00:10
какого пода? это ж ингресс

Ivan
22.10.2018
15:00:38
а, это всё, что есть. Ну так сам ингресс надо запустить, nginx-ingress например

Andor
22.10.2018
15:01:07
чет захрюкал
Чота тоже

Ivan
22.10.2018
15:01:28
там будет под с нгинксом, там и будут логи и порты будут слушаться

Mikhail
22.10.2018
15:01:32
Google
Ivan
22.10.2018
15:02:05
да, я так сначала тоже удивился, пока nginx-ingress не добавил

Fike
22.10.2018
15:06:59
@etkee вы видимо вот этот пассаж пропустили ^^^
да я краем глаза начало того сообщения зацепил и сразу понял, что все пропускаю

Maxim
22.10.2018
15:43:26
Ребят. В сетях вообще ничего не понимаю. kube-router подходит для кейса, когда кроме парочки bare metal серверов ничего нет?

Я имею ввиду что не нужно какое-то дополнительное сетевое оборудование для kube-router?

Maxim
22.10.2018
15:51:46
Тогда у меня проблема. Между нодами нет приватной сети, только публичная. И у меня не работают сервисы. Сервис с kube dashboard открывается только на ноде, где запущен этот под

в логах kube-router ничего не понимаю =(

kvaps
22.10.2018
15:53:43
проверь ipvsadm и ip route

Ни у кого не было бага, когда поды получают IP из докера а не из CNI?

и добавляются в docker0 бридж

Maxim
22.10.2018
16:07:03
проверь ipvsadm и ip route
извиняюсь, а что смотреть в них?

kvaps
22.10.2018
16:07:45
ipvsadm должен содержать твои сервисы с endpoints

ip route должен содержать роуты для каждого nodeCIDR

Maxim
22.10.2018
16:08:33
почему-то из 7 машин в выводе ipvsadm вижу ip сервиса только на двух

kvaps
22.10.2018
16:08:56
значит проблема в этом

проврь еще lsmod | grep ipvs на тех машинах

Maxim
22.10.2018
16:09:26
разворачивал через kubespray, указал там kube_router_support_hairpin_mode: true, kube_router_run_service_proxy: true, kube_router_run_firewall: false

kvaps
22.10.2018
16:09:54
почему-то из 7 машин в выводе ipvsadm вижу ip сервиса только на двух
ты kube-router вместо kube-proxy используешь, или вместе?

Maxim
22.10.2018
16:10:27
в kubectl get pods --all-namespaces не вижу kube-proxy

kvaps
22.10.2018
16:11:02
тогда ок, проверь модули ipvs еще

Google
Maxim
22.10.2018
16:11:03
кстати ip сервиса есть в выводе ipvsadm только на двух машинах, которые я перезагружал час назад

остальные 5 машин не перезагружались

походу kube-router не обновляет конфигурацию ipvsadm на этих машинах

Даниил
22.10.2018
16:18:45
есть ли тут люди, которые используют спотинст в проде для кубернетес кластеров?

kvaps
22.10.2018
16:19:15
Maxim
22.10.2018
16:23:03
А почему в выводе ip route некоторые маршруты показаны как dev tun-23131313, а некоторые как via {ip соседней машины}?

Может это как-то связано с тем, что три машины имеют ip-адрес с общей подсетью /24, а остальные четыре в другой подсети /24?

ах да, куб мастера на трех kvm впсках, а nodes на 4х физических машинах

Maxim
22.10.2018
17:14:19
Может из-за того что флаг --advertise-cluster-ip не прописан?

( Add Cluster IP of the service to the RIB so that it gets advertises to the BGP peers.)

kube-router --run-router=True --run-firewall=False --run-service-proxy=True --kubeconfig=/var/lib/kube-router/kubeconfig

вообще вот так запущен он

Alisher
22.10.2018
17:15:46
Кто-нибудь peatio поднимал на локальном кластере?

kvaps
22.10.2018
17:16:41
скорее всего это логика работы kube-router, если у тебя две разные подсети, скорее всего трафик между ними ходит через тунели

kvaps
22.10.2018
17:17:11
проверить можно как ip route get <pod_ip>

Maxim
22.10.2018
17:19:18
проверить можно как ip route get <pod_ip>
проверил, везде есть запись

на ноде, где запущен под, там через kube-bridge

Google
Maxim
22.10.2018
17:20:01
пробую пинговать под со всех машин, пингуется только с 5 из 7

kvaps
22.10.2018
17:20:12
ну а дальше tcpdump в руки, и дебажить :)

Maxim
22.10.2018
17:21:22
на трех машинах вообще kube-bridge linkdown

может хостер блочит пакеты с другим source?

kvaps
22.10.2018
17:23:54
такое вполне возможно

Maxim
22.10.2018
17:25:51
хостер говорит что да, это невозможно)

даже между своими серверами

bebebe
22.10.2018
17:33:32
Тут в соседнем чате появилась хорошая инфографика, которая детально объясняет механизм работы helm

Maxim
22.10.2018
17:34:27
ахахахах

Pavel
22.10.2018
17:42:17
Очень похоже на куб

Хелм такой подошёл.. и много уборки

Страница 935 из 958