
Ivan
22.10.2018
12:58:13
на portworx
пробовал еще storageos, но portworx лучше

Andor
22.10.2018
12:58:39
зачем не на локал волюмах?

bebebe
22.10.2018
12:58:42

Google

Peter
22.10.2018
12:58:57
λ rke open-ceph-user-level-docs
No help topic for 'open-ceph-user-level-docs'

Ivan
22.10.2018
12:59:18
хотелось что-то более изящное, чем local volumes )

Vadim
22.10.2018
12:59:20
надо в rke ще патч Бармина реализовать
народ, я смотрю, спокойно запускает всё что им советуют незнакомые люди в интернетах

Andor
22.10.2018
13:00:01
curl ... | bash

bebebe
22.10.2018
13:00:17
пора уже стикеры с rke делать, как минимум с парочкой команд

Nata
22.10.2018
13:39:15

Andor
22.10.2018
13:40:22
со слезами на глазах

Даниил
22.10.2018
13:40:40

Alexey
22.10.2018
13:41:55
“я не плачу, просто баш скрипт в глаз попал“

Andor
22.10.2018
13:42:16
"yaml в глаз попал" тогда уж

Nata
22.10.2018
13:43:58

Google

Alexey
22.10.2018
13:43:58
yaml вот сюда попал “cat manifest.yml | envsubst | kubectl apply -f -“


Peter
22.10.2018
14:39:11
Промлема с модулем решилась вот таким костылём
kubelet:
extra_binds:
- "/lib/modules:/lib/modules"
Но осталось
Warning FailedMount 25s kubelet, rancher02 MountVolume.WaitForAttach failed for volume "pvc-9cdbd25d-d5f3-11e8-8dc0-5254000172f3" : rbd: map failed exit status 110, rbd output: 2018-10-22 14:38:08.630865 7fb70967c100 -1 did not load config file, using default settings.
2018-10-22 14:38:08.635878 7fb70967c100 -1 auth: unable to find a keyring on /etc/ceph/ceph.client.kube.keyring,/etc/ceph/ceph.keyring,/etc/ceph/keyring,/etc/ceph/keyring.bin: (2) No such file or directory
rbd: sysfs write failed
2018-10-22 14:39:08.634981 7fb70967c100 -1 auth: unable to find a keyring on /etc/ceph/ceph.client.kube.keyring,/etc/ceph/ceph.keyring,/etc/ceph/keyring,/etc/ceph/keyring.bin: (2) No such file or directory
In some cases useful info is found in syslog - try "dmesg | tail" or so.
rbd: map failed: (110) Connection timed out


Andor
22.10.2018
14:41:33
И что непонятно?
Клиент ceph не может найти keyring
Вряд ли он магически его сам сделает

bebebe
22.10.2018
14:45:58
И что непонятно?
вы упускаете момент, что кластер раздеплоен ранчером
rke fix-cluster еще не запускали

Andor
22.10.2018
14:46:12
Ой, извините

Peter
22.10.2018
14:57:12
Где вы у него такие команды нашли?
rke --help
NAME:
rke - Rancher Kubernetes Engine, an extremely simple, lightning fast Kubernetes installer that works everywhere
USAGE:
rke [global options] command [command options] [arguments...]
VERSION:
v0.1.10
AUTHOR(S):
Rancher Labs, Inc.
COMMANDS:
up Bring the cluster up
remove Teardown the cluster and clean cluster nodes
version Show cluster Kubernetes version
config Setup cluster configuration
etcd etcd snapshot save/restore operations in k8s cluster
help, h Shows a list of commands or help for one command
GLOBAL OPTIONS:
--debug, -d Debug logging
--help, -h show help
--version, -v print the version

Fike
22.10.2018
14:57:45
чет захрюкал

Vladimir
22.10.2018
14:57:49
господа, подскажите плз, чяднт
сделал ингресс, запускаю - все бы хорошо, но нестат показывает, что он порты не слушает
https://pastebin.com/BGrSu2AF

Anton
22.10.2018
14:58:29

bebebe
22.10.2018
14:59:41

Ivan
22.10.2018
14:59:45

Vladimir
22.10.2018
15:00:10
какого пода? это ж ингресс

Ivan
22.10.2018
15:00:38
а, это всё, что есть. Ну так сам ингресс надо запустить, nginx-ingress например

Andor
22.10.2018
15:01:07

Ivan
22.10.2018
15:01:28
там будет под с нгинксом, там и будут логи и порты будут слушаться

Mikhail
22.10.2018
15:01:32

Vladimir
22.10.2018
15:01:45

Google

Ivan
22.10.2018
15:02:05
да, я так сначала тоже удивился, пока nginx-ingress не добавил

Fike
22.10.2018
15:06:59

Maxim
22.10.2018
15:43:26
Ребят. В сетях вообще ничего не понимаю. kube-router подходит для кейса, когда кроме парочки bare metal серверов ничего нет?
Я имею ввиду что не нужно какое-то дополнительное сетевое оборудование для kube-router?

kvaps
22.10.2018
15:50:45

Maxim
22.10.2018
15:51:46
Тогда у меня проблема. Между нодами нет приватной сети, только публичная. И у меня не работают сервисы. Сервис с kube dashboard открывается только на ноде, где запущен этот под
в логах kube-router ничего не понимаю =(

kvaps
22.10.2018
15:53:43
проверь ipvsadm и ip route
Ни у кого не было бага, когда поды получают IP из докера а не из CNI?
и добавляются в docker0 бридж

Maxim
22.10.2018
16:07:03

kvaps
22.10.2018
16:07:45
ipvsadm должен содержать твои сервисы с endpoints
ip route должен содержать роуты для каждого nodeCIDR

Maxim
22.10.2018
16:08:33
почему-то из 7 машин в выводе ipvsadm вижу ip сервиса только на двух

kvaps
22.10.2018
16:08:56
значит проблема в этом
проврь еще lsmod | grep ipvs на тех машинах

Maxim
22.10.2018
16:09:26
разворачивал через kubespray, указал там kube_router_support_hairpin_mode: true, kube_router_run_service_proxy: true, kube_router_run_firewall: false

kvaps
22.10.2018
16:09:54

Maxim
22.10.2018
16:10:27
в kubectl get pods --all-namespaces не вижу kube-proxy

kvaps
22.10.2018
16:11:02
тогда ок, проверь модули ipvs еще

Google

Maxim
22.10.2018
16:11:03
кстати ip сервиса есть в выводе ipvsadm только на двух машинах, которые я перезагружал час назад
остальные 5 машин не перезагружались
походу kube-router не обновляет конфигурацию ipvsadm на этих машинах

Даниил
22.10.2018
16:18:45
есть ли тут люди, которые используют спотинст в проде для кубернетес кластеров?

kvaps
22.10.2018
16:19:15

Maxim
22.10.2018
16:23:03
А почему в выводе ip route некоторые маршруты показаны как dev tun-23131313, а некоторые как via {ip соседней машины}?
Может это как-то связано с тем, что три машины имеют ip-адрес с общей подсетью /24, а остальные четыре в другой подсети /24?
ах да, куб мастера на трех kvm впсках, а nodes на 4х физических машинах

kvaps
22.10.2018
17:13:47

Maxim
22.10.2018
17:14:19
Может из-за того что флаг --advertise-cluster-ip не прописан?
( Add Cluster IP of the service to the RIB so that it gets advertises to the BGP peers.)
kube-router --run-router=True --run-firewall=False --run-service-proxy=True --kubeconfig=/var/lib/kube-router/kubeconfig
вообще вот так запущен он

Alisher
22.10.2018
17:15:46
Кто-нибудь peatio поднимал на локальном кластере?

kvaps
22.10.2018
17:16:41
скорее всего это логика работы kube-router, если у тебя две разные подсети, скорее всего трафик между ними ходит через тунели

Maxim
22.10.2018
17:17:04

kvaps
22.10.2018
17:17:11
проверить можно как ip route get <pod_ip>

Maxim
22.10.2018
17:19:18
на ноде, где запущен под, там через kube-bridge

Google

Maxim
22.10.2018
17:20:01
пробую пинговать под со всех машин, пингуется только с 5 из 7

kvaps
22.10.2018
17:20:12
ну а дальше tcpdump в руки, и дебажить :)

Maxim
22.10.2018
17:21:22
на трех машинах вообще kube-bridge linkdown
может хостер блочит пакеты с другим source?

kvaps
22.10.2018
17:23:54
такое вполне возможно

Maxim
22.10.2018
17:25:51
хостер говорит что да, это невозможно)
даже между своими серверами

bebebe
22.10.2018
17:33:32
Тут в соседнем чате появилась хорошая инфографика, которая детально объясняет механизм работы helm

Maxim
22.10.2018
17:34:27
ахахахах

Pavel
22.10.2018
17:42:17
Очень похоже на куб
Хелм такой подошёл.. и много уборки