
Fike
30.09.2018
20:54:28
Это отсутствие использования чего-либо как такого, чем я намекаю на неправильную постановку вопроса. Если вы хотите сэкономить на чем-то, то расскажите нам про это что-то, пока что вопрос звучит как "в какой пятерочке акции с самой большой скидкой? не важно, на что"

M
30.09.2018
20:57:01

Vadim
30.09.2018
21:05:30

Google

Alexey
30.09.2018
21:36:45

Anton
01.10.2018
06:06:28
Добрый день! Подскажите по отправке логов в ELK с Kubernetes. Все описал в вопросе https://toster.ru/q/567085

Sergey
01.10.2018
06:23:01

Anton
01.10.2018
06:41:35
проверка всей цепочки что говорит
т.е. согласно этой статье https://logz.io/blog/kubernetes-log-analysis/
fluentd монтирует папку /var/log/containers и отправляет все в Elasticsearch?

Sergey
01.10.2018
06:50:09

Anton
01.10.2018
06:51:18
kubectl --namespace=efk exec -it efk-fluent-bit-58vn5 -- /bin/bash
root@efk-fluent-bit-58vn5:/var/log/containers# ls | grep db-master
root@efk-fluent-bit-58vn5:/var/log/containers#
зашел в fluentd - а там лога нет.

Banschikov
01.10.2018
07:04:07
Всем привет! Подскажите, был OOM на ноде k8s. Все поды переехали на другие ноды. Проблему исправил, но эта нода в статусе NodeNotReady в describe. Подскажите как ей сказать что она здорова?

Валентин
01.10.2018
07:11:10
А, если notready - там kubelet живой вообще?

Banschikov
01.10.2018
07:15:17
uncordon, не?
Пробовал. Да ребутну ноду. kubelet жив насколько понял

Anton
01.10.2018
07:18:35

Banschikov
01.10.2018
07:19:17

Artem
01.10.2018
07:44:21
Добрый. Обновил все ноды в кластере до 1.12, пытаюсь заджойнить еще одну ноду, получаю такую ошибку: configmaps "kubelet-config-1.12" is forbidden: User "system:bootstrap:qws8xq" cannot get configmaps in the namespace "kube-system"

Google

Artem
01.10.2018
07:44:52
кто-нибудь подскажет, что может быть не так?

Sergey
01.10.2018
07:52:05
тебе же все написали в ошибке

Banschikov
01.10.2018
07:53:54
Товарищи, посоветуйте какой-нибуть удобный дашборд в графане, чтобы в нем было видно состояние всех нод в кластере? Много их уже перелопатил , но что то не могу найти то что нужно

Sergey
01.10.2018
07:54:46

Banschikov
01.10.2018
07:55:06

Sergey
01.10.2018
07:55:21
теперь в курсе

Banschikov
01.10.2018
07:58:13

Anton
01.10.2018
07:58:54

Sergey
01.10.2018
07:59:16
habr
grafana
зачем гуглить

Никита
01.10.2018
08:00:22
Ток он через оператор и кастомные ресурсы работает.

Banschikov
01.10.2018
08:05:12

Stanislav
01.10.2018
08:07:51
ncuxu(tm)

Iaroslav
01.10.2018
08:09:51
А кто-то к дашборду ldap прикручивал? dex поставлен а дашборд по токенам и не ясно как вообще все это связать вместе

kvaps
01.10.2018
08:14:03

Artem
01.10.2018
08:14:14

kvaps
01.10.2018
08:15:30

Banschikov
01.10.2018
08:17:05

Google

kvaps
01.10.2018
08:18:39

Banschikov
01.10.2018
08:22:13

S
01.10.2018
09:24:44
приветствую. Встречал кто ошибку с cephfs-provisioner "mount error 5 = Input/output error" PVC создается, но не маутиться.

Konstantin
01.10.2018
09:57:08
у меня проблема такого плана: когда я создаю кластер в kops 1.10+, то на мастере поднимается только kube-proxy. В /etc/kubernetes/manifests только он и лежит.
А на 1.9.x всё нормально. Никто не сталкивался?
ls /etc/kubernetes/manifests/
kube-proxy.manifest

S
01.10.2018
10:10:21
Разобрался, надо namespace исключить

Georgiy
01.10.2018
10:10:32
привет
когда кронджоба не может исполнится копятся POD-ы: 0/1 ImagePullBackOff 0 3d, и в какой-то момент кончается квота на POD и перестают работать другие джобы/деплой приложений
можно ли где-то поставить, чтобы зафейлившиеся поды удалялись ?

Banschikov
01.10.2018
10:19:58

Georgiy
01.10.2018
10:59:04
работает как надо, спасибо

Vasilyev
01.10.2018
11:30:13
бляяяя

bebebe
01.10.2018
11:30:34
@SinTeZoiD

Alexey
01.10.2018
11:33:40
надо группу шардировать, им же не интересны группы меньше какого-то порога ?

Михаил
01.10.2018
11:41:53
им всё равно

Anton
01.10.2018
11:43:52
нет
Здорова, не подскажешь у тебя не было проблем с запуском stolon-keeper в кубере? на некоторых машинах не работает сегфолтится initdb

Михаил
01.10.2018
11:44:35
не было

Anton
01.10.2018
11:44:57
На машинах где 256гб, выдает шаред память 32мб - все запустилось, на тез где 64 выдает 8мб и там крашится
не было
А образы сам собирал, или их взял?

Михаил
01.10.2018
11:45:23
взяли

Google

Михаил
01.10.2018
11:45:26
какие не помню

Anton
01.10.2018
11:46:52
взяли
А на хосте сколько памяти? просто уже че только не делал и русурсы прописывал и /dev/shm в память монтировал - нифига, единственное предположение связано с хостовой памятью

Михаил
01.10.2018
11:47:07

Anton
01.10.2018
11:47:36

Михаил
01.10.2018
11:47:41
та не за что)

Anton
01.10.2018
11:48:45
ну хотябы пока буду думать в направлении памяти на хосте

vlad
01.10.2018
11:51:44
Народ есть сводная табличка сравнения реализаций сетевой подсистемы flannel/calico/weavenet/etc,
по аналогии с https://docs.google.com/spreadsheets/u/1/d/16bxRgpO1H_Bn-5xVZ1WrR_I-0A-GOI6egmhvqqLMOmg/edit#gid=1612037324 для ингресов
?
что бы всё в одном месте

Anton
01.10.2018
11:52:58
вброшу про postgres, в его буферы же обычно не загоняют всю раму с хоста. в контейнерах с лимитами какая политика по выделению памяти? каждый коннект жрет немало, да и под файловый кэш нужно пространство.


Anton
01.10.2018
11:54:19
он там 400кб берет чтоли
creating directory /stolon-data/postgres ... ok
creating subdirectories ... ok
selecting default max_connections ... 20
selecting default shared_buffers ... 400kB
на некторых хостах
FATAL: could not create shared memory segment: No space left on device
DETAIL: Failed system call was shmget(key=4097, size=56, 03600).
HINT: This error does *not* mean that you have run out of disk space.
It occurs either if all available shared memory IDs have been taken,
in which case you need to raise the SHMMNI parameter in your kernel,
or because the system's overall limit for shared memory has been reached.
на некоторых просто segmentation fault
там где рамы 256 и более - проблем нет, думаю раму он отдает в каком то процентном соотношении


Alexey
01.10.2018
12:29:01
> in which case you need to raise the SHMMNI parameter in your kernel
а kernel.shmmni пробовал поднимать?

Usagi
01.10.2018
13:13:00
Здарова всем. Кто подключал self-hosted gitlab с kubernetes? У меня кластер подключается к проекту, helm tiller устанавливается, но runner не работает (last contact: never).

Михаил
01.10.2018
13:15:53
Гитлаба

Usagi
01.10.2018
13:18:26
там все чисто. Даже подключал runner напрямую (не kubernetes) - все работает. Но именно runner в кластере не подключается. При этом в логе контейнера ругает: 401 Unauthorized

Google

Usagi
01.10.2018
13:24:07
И вот так вот в гитлабе

Anton
01.10.2018
13:40:14

Евгений
01.10.2018
13:42:15

Vadim
01.10.2018
13:42:45

Евгений
01.10.2018
13:44:14

Alexey
01.10.2018
13:46:37

Vadim
01.10.2018
13:48:57

Евгений
01.10.2018
13:51:56

kvaps
01.10.2018
13:53:33
ну так а можно пример?) какими костылями его можно включить?
как вариант написать свой провижионер,
что-нить типа такого:
- запускается как daemonset и смотрит за новыми PVC, как только PVC появляется.
Создает local-волум с нужными параметрами на ноде, затем PV в кубере.
Остается только придумать как они между ссобой договариваться будут

Евгений
01.10.2018
13:54:30
oh shi)
тогда зайду с другой стороны. допустим у меня есть виртуалка со 100 гигабайтами диска. как сказать куберу - вот тебе тачка, хости все на ней?