
Ilia
22.10.2018
09:27:38
Подскажите если кто использует Rancher и EC2, как автоматизировать создание кластера с помощью API или CLI. Спасибо

Anton
22.10.2018
09:34:45
https://toster.ru/q/572948
Правильно ли я понимаю что нужно править шаблон stolon?

Nata
22.10.2018
09:40:50
Привет. Снова странный вопрос. как подружить собственные правила iptables и правила кубика? У них вообще есть шанс жить дружно?
мастер-нода впринципе игнорит правила, остальные ноды кое-как работают с запущенным netfilter-persistent, но периодически вылезают таймауты

Google

Alexey
22.10.2018
09:42:08
как это мастер нода игнорит iptables?

Maxim
22.10.2018
09:42:15
Народ, добрый день! Нужна консультация по Kubernets, начинаем разрабатывать онлайн сервис, нужно общее понимание как/куда двигаться с Kubernets. За деньги.

Alexey
22.10.2018
09:42:37
не благодари

bebebe
22.10.2018
09:43:02

Maxim
22.10.2018
09:43:19
доки выкурены, надо понять как теорию применять к нашей ситуации.

Nata
22.10.2018
09:44:55

Maxim
22.10.2018
09:45:04

Stanislav
22.10.2018
09:45:06
Господа, такой странный вопрос: можно ли nginx-ingress указать разные авторизации для разных портов?
Хочу тестовый сайт по http прикрыть basic auth, а по https - tls auth, дабы насяльника не спрашивал каждый раз, какой там логин-пароль...

Alexander
22.10.2018
09:45:11
Коллеги подскажите,
SVC
selector:
app: MyApp
в селекторе апп может быть несколько апп?

Alexey
22.10.2018
09:45:37

Nata
22.10.2018
09:45:38
точнее работает, секунд 10, потом кубер переписывает правила и "пока"

bebebe
22.10.2018
09:45:57

Google

Alexey
22.10.2018
09:46:09
а что у вас хотя бы настроено? сами руками настраивали или что-то другое?

Nata
22.10.2018
09:48:35
руками, больше ничем не могу. Сетка flannel, netfilter-persistent с правилами обычными на дроп лишнего и перенаправление портов и kube-proxy в mode iptables

Alexey
22.10.2018
09:49:02
kubeadm?

Nata
22.10.2018
09:49:09
+

Andor
22.10.2018
09:50:10

Nata
22.10.2018
09:50:37
ну я думала, может нюанс какой есть, буду ковыряться

Andor
22.10.2018
09:51:32
Попробуй писать не в те же цепочки, в которые пишет кубер

Denis
22.10.2018
09:51:48
Всем привет, кто нибудь настраивал CI/CD из teamcity в кубер? Если да поделитесь статейкой/мануалом/бест практиком ?

Nata
22.10.2018
09:52:34
но я просто bash скрипт туда впихнула, которым из сорцов хельм собирала и деплоила на кластер

Dmitry
22.10.2018
09:53:37

Denis
22.10.2018
09:54:17

Maxim
22.10.2018
09:55:16

bebebe
22.10.2018
09:55:18
Зачем вы заставляете рыдать инженеров?

Nata
22.10.2018
09:56:09
ну если все шаги, то да, 1) сборка jar например 2) сборка образа 3) пакедж чарта 4) деплой 5) проверка

Dmitry
22.10.2018
09:57:39

kvaps
22.10.2018
10:03:21

Google

Let Eat
22.10.2018
10:03:32
ага, просто не ясно отчего у меня на bootstrap контролплейн самоудалился, а ноды стучатся на старый адрес
Посмотрел у себя. bootstap-* слушают на тех же портах , что и "настоящие" поды. Бутстрап стартуют как статичные поды, используют полноценный etcd (там был режим бутстрапа с etcd, но его выпилили), к ним подключаются кублеты (думая что подключаются к полноценному control plane), затем bootkube создаёт control plane поды , они пытаются стартовать на тех же кублетах, какие то смогут (как например controller manager), какие то нет (apiserver из-за конфликта портов), но главное что оно все прописалось в кублетах, тогда bootkube удаляет статичные поды, это даёт возможность всему control plane запуститься


Vadim
22.10.2018
10:04:48
Посмотрел у себя. bootstap-* слушают на тех же портах , что и "настоящие" поды. Бутстрап стартуют как статичные поды, используют полноценный etcd (там был режим бутстрапа с etcd, но его выпилили), к ним подключаются кублеты (думая что подключаются к полноценному control plane), затем bootkube создаёт control plane поды , они пытаются стартовать на тех же кублетах, какие то смогут (как например controller manager), какие то нет (apiserver из-за конфликта портов), но главное что оно все прописалось в кублетах, тогда bootkube удаляет статичные поды, это даёт возможность всему control plane запуститься
ага, а что с DNS происходит? Тоже меняется или в новых аписерверах написаны новые?

Let Eat
22.10.2018
10:06:17
bootstrap apiserver слушает с теми же сертификатами и на тех же портах что и полноценный аписервер

kvaps
22.10.2018
10:08:09

Vadim
22.10.2018
10:08:13
ага, спасибо, это многое объясняет. Это единственная неудобная часть в этом процессе - DNS переключать

Let Eat
22.10.2018
10:09:11

Vadim
22.10.2018
10:10:15

kvaps
22.10.2018
10:10:19
@rossmohax а как там в coreos с кастомными модулями ядра обходятся?

Let Eat
22.10.2018
10:10:46

Peter
22.10.2018
10:10:47
Может ли в один ceph’овый volume быть зацеплен сразу за несколько подов?

Let Eat
22.10.2018
10:11:01

Peter
22.10.2018
10:11:32
Т.е., если аппликуха хочет 3 вольюма, то и создать их надо 3?

bebebe
22.10.2018
10:14:37
Посмотрел у себя. bootstap-* слушают на тех же портах , что и "настоящие" поды. Бутстрап стартуют как статичные поды, используют полноценный etcd (там был режим бутстрапа с etcd, но его выпилили), к ним подключаются кублеты (думая что подключаются к полноценному control plane), затем bootkube создаёт control plane поды , они пытаются стартовать на тех же кублетах, какие то смогут (как например controller manager), какие то нет (apiserver из-за конфликта портов), но главное что оно все прописалось в кублетах, тогда bootkube удаляет статичные поды, это даёт возможность всему control plane запуститься
А буквально в двух словах вы можете объяснить юзкейс. Я просто мимо проходил

Vadim
22.10.2018
10:21:01

bebebe
22.10.2018
10:24:38

Anton
22.10.2018
10:25:24

Let Eat
22.10.2018
10:38:18

Google

Vadim
22.10.2018
10:39:10
и вообще - куда бонба упала там и эпицентр какбы

Let Eat
22.10.2018
10:40:14
Если HA то у вас kubelet на нодах все равно должны уметь находить живой аписервер

Vadim
22.10.2018
10:41:40
А bootkube запускается на всех трех нодах, в случае с тремя мастерами? Или просто на первом?
хмм, может быть это особенноти нашей схемы тогда.

Let Eat
22.10.2018
10:41:57
т.е. bootkube просто стартует кластер, но стартует его начиная с одной из контрол нод, для всех остальных кублетов это выглядит будто там живой аписервер, а на остальных контрол нодах просто ничего пока нет

Vadim
22.10.2018
10:42:49
ага, спасибо, тогда буду допрашивать своих отчего требуется отдельная нода для bootkube

Let Eat
22.10.2018
10:44:55
Т..е до старта bootkube все кублеты уже должны быть запущены и стучаться в пока несуществующий аписервер через тот ha который у вас предусмотрен. Потом стартует bootkube , все кублеты радостно получают поды, какие и должны, затем bootkube самоустраняется, удаляет все Статик поды и control plane который он задеплоил живёт своей жизнью

Vadim
22.10.2018
10:47:44
да, но все же манифесты и прочие ассеты на одном из мастеров останутся

bebebe
22.10.2018
11:00:08
коллеги, немного дичи
https://kubernetes.io/blog/2018/06/28/airflow-on-kubernetes-part-1-a-different-kind-of-operator/
кто-нибудь вообще пробовал airflow внутри инфры?

Никита
22.10.2018
11:06:25

Михаил
22.10.2018
11:07:47

Let Eat
22.10.2018
11:10:18

Vadim
22.10.2018
11:11:04
зачем конфигмап, пусть будет сервис, который по урлу выдает конфиги для нужной группы

Let Eat
22.10.2018
11:11:49
Вот ещё, сервис писать/держать :)

Peter
22.10.2018
11:13:09
Подскажите, почему volume не создаются, а только claim’ы висят?
λ kubectl get pvc --all-namespaces
NAMESPACE NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
prometheus prometheus-alertmanager Pending ceph-class 8m
prometheus prometheus-grafana Pending ceph-class 8m
prometheus prometheus-server Pending ceph-class 8m
Класс есть
kubectl get sc
NAME PROVISIONER AGE
ceph-class (default) kubernetes.io/rbd 1d
Или я тупой и нужное ко-во volume’ов нужно создать руками?
А классы только для группировки?

Psy
22.10.2018
11:26:45
1. как создаёшь
2. чё там в логе

Google

Anton
22.10.2018
11:26:55
kubectl describe pvc prometheus-alertmanager ?

Peter
22.10.2018
11:34:21
Так, тут понял, накосячил с секретами.
PVC будет сам долбиться через какой-то интервал до посинения или его как-то взбодрить нужно?
Всё, вижу - зацеились
Как бы понять почему так долго?
$ kubectl get po -n prometheus
NAME READY STATUS RESTARTS AGE
prometheus-alertmanager-6b8897ddfc-9m9dd 0/2 ContainerCreating 0 29m
prometheus-grafana-9dc745b68-hnv97 0/2 ContainerCreating 0 29m
prometheus-kube-state-metrics-8668948654-ql8xk 1/1 Running 0 29m
prometheus-node-exporter-2fdsp 1/1 Running 0 29m
prometheus-node-exporter-65tw7 1/1 Running 0 29m
prometheus-node-exporter-kd9pp 1/1 Running 0 29m
prometheus-server-78f564dfdb-5t4j8 0/2 Init:0/1 0 29m

bebebe
22.10.2018
12:42:27
через describe

Ivan
22.10.2018
12:49:42


Peter
22.10.2018
12:51:21
Круто, блин. Он в том namespace тоже пытается искать секрет. Создал.
Теперь в descibe вообще чудеса.
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 38m default-scheduler Successfully assigned prometheus/prometheus-server-78f564dfdb-5t4j8 to rancher01
Normal SuccessfulAttachVolume 38m attachdetach-controller AttachVolume.Attach succeeded for volume "pvc-9cdbd25d-d5f3-11e8-8dc0-5254000172f3"
Warning FailedMount 8m (x4285 over 38m) kubelet, rancher01 MountVolume.NewMounter initialization failed for volume "pvc-9cdbd25d-d5f3-11e8-8dc0-5254000172f3" : Couldn't get secret prometheus/ceph-secret-user err: secrets "ceph-secret-user" not found
Warning FailedMount 2m (x2 over 3m) kubelet, rancher01 (combined from similar events): MountVolume.WaitForAttach failed for volume "pvc-9cdbd25d-d5f3-11e8-8dc0-5254000172f3" : rbd: map failed exit status 2, rbd output: 2018-10-22 12:47:07.513732 7fd48ffb4100 -1 did not load config file, using default settings.
2018-10-22 12:47:07.518699 7fd48ffb4100 -1 auth: unable to find a keyring on /etc/ceph/ceph.client.kube.keyring,/etc/ceph/ceph.keyring,/etc/ceph/keyring,/etc/ceph/keyring.bin: (2) No such file or directory
libkmod: ERROR ../libkmod/libkmod.c:586 kmod_search_moddep: could not open moddep file '/lib/modules/4.4.0-135-generic/modules.dep.bin'
modinfo: ERROR: Module alias rbd not found.
modprobe: ERROR: ../libkmod/libkmod.c:586 kmod_search_moddep() could not open moddep file '/lib/modules/4.4.0-135-generic/modules.dep.bin'
modprobe: FATAL: Module rbd not found in directory /lib/modules/4.4.0-135-generic
rbd: failed to load rbd kernel module (1)
rbd: sysfs write failed
In some cases useful info is found in syslog - try "dmesg | tail" or so.
rbd: map failed: (2) No such file or directory


Anton
22.10.2018
12:51:42
Что вы имеете в виду?
Ну ща для посгреса много реализаий, ha, думал представляете конкретный проект, тут были парни kubedb допиливать собрались

bebebe
22.10.2018
12:51:56
в чатике запахло ceph'ом

Peter
22.10.2018
12:52:12
Ага, им ?
Только я не могу определить, что в этой цепочке косячит.
rancher2 или ceph

bebebe
22.10.2018
12:54:54

Peter
22.10.2018
12:55:15
нет
Там кластер-то на 3-х машиках + сам ранчер сервер
И на нём нет ничего, что мого бы успеть сломаться.

Ivan
22.10.2018
12:57:13

bebebe
22.10.2018
12:57:32

Andor
22.10.2018
12:57:38
но ведь столон юзает обычный постгрес?

Vadim
22.10.2018
12:57:40

Andor
22.10.2018
12:57:48
или вы его на какой-нибудь ceph посадили?