
Alex Milushev
25.04.2018
10:45:20
вопрос по поводу опций controller-manager:
- --cluster-signing-cert-file=/etc/kubernetes/ssl/ca.crt
- --cluster-signing-key-file=/etc/kubernetes/ssl/ca.key
это должны быть те-же самые ключи которые используются для генерации в том числе и вот этих вот ключей для api сервера:
- --tls-cert-file=/etc/kubernetes/ssl/master.crt
- --tls-private-key-file=/etc/kubernetes/ssl/master.key
или просто произвольная пара самоподписанных корневых ключей?

Andor
25.04.2018
10:57:47
image pull policy Always
Думаю оно не будет перекачивать если хеш тот же, но при этом у доскера крыша поехала и данные реально потерялись

Dmitrii <freehck>
25.04.2018
10:57:50
Ребята, странное что-то наблюдаю. Выполнил команду на ноде:
sudo kubeadm join —skip-preflight-checks —token b0f7b8.8d1767876297d85c 10.73.64.132:6443 —discovery-token-unsafe-skip-ca-verification
Она отчиталась об успешном выполнении. Захожу на мастер, выполняю:
kubectl get nodes
По-прежнему не вижу новой ноды.
Куда смотреть, что дебажить?

Aleksey
25.04.2018
12:00:14
Проверь ttl tokena

Google

Aleksey
25.04.2018
12:00:22
Kubeadm token list

Dmitrii <freehck>
25.04.2018
12:47:19

Aleksey
25.04.2018
12:47:55
смотри логи kubelet'a на ноде

Dmitrii <freehck>
25.04.2018
12:48:32
А, не, вру.
Я смотрел логи apiserver.
смотри логи kubelet'a на ноде
Посмотрел journalctl -u kubelet -f
Делаю kubeadm reset, вижу:
Apr 25 15:52:04 kube-node1 systemd[1]: Stopped Kubernetes Kubelet Server.
Делаю kubeadm join ..., ничего в лог не попадает.

Andrey
25.04.2018
12:56:17
Ребят, а какие-то дополнительные манипуляции для работы cephfs при бутстрапе через kubespray нужны?

Banschikov
25.04.2018
12:59:00

Andrey
25.04.2018
12:59:41
Я понимаю, включены. Что-то еще нужно?
Или нужно перед этим ручками поднять кластер, а ему уже просто ip мониторов скормить?

Banschikov
25.04.2018
13:01:14

Andrey
25.04.2018
13:06:56

Google

Alexander
25.04.2018
13:36:19
Пробую через helm установить redis
pod has unbound PersistentVolumeClaims
Вот такую ошибку выдаёт
Что это значит?

Valentin
25.04.2018
13:48:48
см. PersistentVolumeClaims, которые прописаны в деплойменте. У тебя для них нет PersistentVolume

Yuriy
25.04.2018
14:05:34
Всем привет , почему kubectl показывает статус системных и обычных нод running хотя 2 из трёх воркера выключено

Sergey
25.04.2018
14:06:14
systemctl status kubelet

Yuriy
25.04.2018
14:08:35
А все обновилось. Но слишком долго около 5 минут. Как то можно увеличить время опроса подов и нод ?

Maksim
25.04.2018
15:03:46
Логи кублет читай

Dmitrii <freehck>
25.04.2018
15:08:38
Во. Наконец что-то проясняется. Я выполнил kubeadm join — никакой активности в логе kubelet не было потому, что он был не запущен.
Выполнил systemctl start kubelet, он тут же вывалил кучу всего в лог и завершился. Меня обеспокоило вот это:
Apr 25 18:06:39 kube-node1 kubelet[18756]: F0425 18:06:39.676996 18756 server.go:233] failed to run Kubelet: cannot create certificate signing request: Post https://10.0.2.15:6443/apis/certificates.k8s.io/v1beta1/certificatesigningrequests: dial tcp 10.0.2.15:6443: getsockopt: connection refused
10.0.2.15 — это виртуальный интерфейс для связи с железом. Он же у меня фигурирует в admin.conf на мастере после выполнения kubeadm init.
Должен ли в admin.conf быть реальный ip, и как этого добиться во время kubeadm init?
Полагаю, мне нужно использовать во время kubeadm init опцию —apiserver-advertise-address <real-ip-address-for-api-server> ?


Андрэ
25.04.2018
15:40:12
Парни, может кто-нить ткнуть, где лучше почитать или как-то рассказать принципы, как правильно приготовить кластер Clickhouse? Ну, то есть, как запустить кликхаус - проблем то нет. Но как правильно сделать, чтобы, допустим, три реплики, работали именно как кластер? Там ведь конфигурация кластера именно в конфигах КХ прописывается. Это получается конфиги должны меняться, когда поды меняются или как? Курю -курю гугл, но думаю, спросить совета, что где читать, не помешает) Спасибо-пожалуйста заранее

Anton
25.04.2018
15:45:17
А k8s-то тут при чём?

Nik
25.04.2018
15:47:55
Statefulset + entrypoint будет только для replic норм , для шардирования не рискнул бы я в k8s его пихать. Clickhouse много ручной работы любит..

Alex Milushev
25.04.2018
16:04:57
А если Job создать при том, что нет памяти для ее запуска она будет отклонена или будет ждать пока не появятся ресурсы?

Андрэ
25.04.2018
16:07:03
А k8s-то тут при чём?
Речь о том, как репликацию КХ в кубере поднять. Как на железе руками сделать вопросов не возникает
У меня прост как-то фундаментально знаний не хватает на эту тему (репликация подобных штук, как КХ в кубере) )

Google

Nik
25.04.2018
16:09:41

Андрэ
25.04.2018
16:10:33
То ли какой-то sidecar должен рядом бежать, править конфиги и перезапускать поды или я не туда думаю...

Nik
25.04.2018
16:12:49

Андрэ
25.04.2018
16:13:13
А если кол-во реплик меняется?
Это надо конфиги пересоздать получается и контейнеры перезапустить

Anton
25.04.2018
16:19:49

Andrey
25.04.2018
16:19:51
Парни, может кто-нить ткнуть, где лучше почитать или как-то рассказать принципы, как правильно приготовить кластер Clickhouse? Ну, то есть, как запустить кликхаус - проблем то нет. Но как правильно сделать, чтобы, допустим, три реплики, работали именно как кластер? Там ведь конфигурация кластера именно в конфигах КХ прописывается. Это получается конфиги должны меняться, когда поды меняются или как? Курю -курю гугл, но думаю, спросить совета, что где читать, не помешает) Спасибо-пожалуйста заранее
Тот же вопрос, нашел на гитхабе https://github.com/count0ru/k8s-clickhouse-v2 в качестве примера

Андрэ
25.04.2018
16:24:30
ага, видел это тоже. уже не помню почему пошел дальше искать, но ещзе раз посмотрю что там к чему, спасиб

Valentin
25.04.2018
16:25:42
Господа, есть вариант с помощью FileBeat слать логи в logstash с разным индексом для разных типов логов? Например ingress-controller с одним индексом, дашборд - со вторым, всё остальное - с третьим. Или нужно иметь отдельных демонов?

Andrey
25.04.2018
16:27:00

Андрэ
25.04.2018
16:29:00
ну так то да

Andrey
25.04.2018
16:29:49
А еще можно поставить на тачку и завести external service)

Sergey
25.04.2018
16:30:29

Андрэ
25.04.2018
16:31:21

Valentin
25.04.2018
16:31:23

Андрэ
25.04.2018
16:31:45
но я уже и подумываю. может для начала тоже привязаться к конкретному кол-ву реплик

Andrey
25.04.2018
16:32:45
Все правильно, шарды на разных тачках - это гуд
У вас какое хранилище данных для volumes?

Андрэ
25.04.2018
16:34:09
Пока все еще проектируется. И познаний у меня в кубере маловато, учу еще

Google

Андрэ
25.04.2018
16:34:51
Пока даже не понятно, где работать будет - на AWS каком или bare metal. Или и так и так (разные экзепляры приложения имеется ввиду)

Andrey
25.04.2018
16:38:22
Я может не прав, сам только в это влез, но я clickhouse прибил к двум нодам и данные держу на локальных дисках. Пока как в примере: две реплики, два шарда. Это на bare-metal

Андрэ
25.04.2018
16:39:08
да, тоже сейчас думаю именно об этом. Правда есть вариант, что может быть одна физическая машина.

Andrey
25.04.2018
16:39:47
Я в hetzner взял две тачки по 4тб, норм)
Дешево и живое пока

Banschikov
25.04.2018
17:04:03

Andrey
25.04.2018
17:05:21
А почему экстремальное? По сути данные то останутся на хостовой машине.
Про «свой кластер под волумы для БД» тоже не совсем понятно, ибо для clickhouse оно лишнее, там свой механизм отказоустойчивости. Если говорим о prod решении для, к примеру, mysql, то соглашусь, лучше отдельно от куба держать и в реплике
Имхо, я б в кубе только для dev базу держал на ceph)

Banschikov
25.04.2018
17:16:31

Nik
25.04.2018
17:28:09
Это надо конфиги пересоздать получается и контейнеры перезапустить
Есть второй костыль, entrypoint запускает в supervisor clickhouse, сам по шедулеру стучится в api(сертификаты в поде уже есть, только кастомный service account понадобится) и смотрит за количеством реплик в statefulset, в зависимости от этого меняет файлик с конфигами реплик (можно сделать четные номера шард 2, нечётные шард 1). Кликхаус уже динамически релодить конфиг вроде научился. Я бы в эту сторону смотрел.
Я у себя прибил гвоздями на тестовой среде, больше пока не нужно.

Андрэ
25.04.2018
17:31:07
Ага. Изучу вопрос

Jango
25.04.2018
17:31:22
Господа, вопрос: как разграничить kubectl при использовании двух разных кластеров (один на aws, второй на gcp)?

Andrey
25.04.2018
17:32:51
так в конфиг добавь профили

Jango
25.04.2018
17:32:53
Нативного ничего в kubectl нет? Или проще юзать алиасы с kubectl config?

Andrey
25.04.2018
17:33:09
kubectl use-context же ж

Jango
25.04.2018
17:34:02
Ага, нашел где. Благодарю!

Andrey
25.04.2018
17:35:24
https://habr.com/company/flant/blog/333956/

Valentin
25.04.2018
18:39:35
как в Filebeat add_kubernetes_metadata указать папку с логами /var/log/containers ? чёт делал как здесь, и нифига: https://github.com/elastic/beats/pull/4981
и в доках нет

Google

Alexander
25.04.2018
19:45:13
Ребята, как освободить привязку PVC от PV после удаления PVC?

Vlad
25.04.2018
19:54:17
если при создании PVC не использовать persistentVolumeReclaimPolicy: Recycle тогда нужно удалить PV и создать заново

Alexander
25.04.2018
19:57:33
:(

Vlad
25.04.2018
20:24:23
by default persistentVolumeReclaimPolicy: Retain

Vitaliy
25.04.2018
20:28:01

Vlad
25.04.2018
20:28:41

Vitaliy
25.04.2018
20:29:08
В 1.8.7 ещё delete)

Vlad
25.04.2018
20:35:13
хз.. на данный момент на 1.9.5, но на старом кластере 1.7.7 тоже самое

Руслан true.sorcerer
25.04.2018
20:36:15
А подскажите ранчер 2 взлетает на core os или можно норм юзать центу?

Vlad
25.04.2018
20:40:36

Руслан true.sorcerer
25.04.2018
20:44:32
Спс

Valentin
25.04.2018
21:01:49
он себя ведёт так, какбудто в папке нет ничего :/

Nik
25.04.2018
22:09:15
Ну и в logstash приходится source парсить , чтобы namespace, container-name вытащить(

Dmytro
25.04.2018
22:44:43