@kubernetes_ru

Страница 857 из 958
Fike
30.09.2018
20:54:28
Это отсутствие использования чего-либо как такого, чем я намекаю на неправильную постановку вопроса. Если вы хотите сэкономить на чем-то, то расскажите нам про это что-то, пока что вопрос звучит как "в какой пятерочке акции с самой большой скидкой? не важно, на что"

M
30.09.2018
20:57:01
Это отсутствие использования чего-либо как такого, чем я намекаю на неправильную постановку вопроса. Если вы хотите сэкономить на чем-то, то расскажите нам про это что-то, пока что вопрос звучит как "в какой пятерочке акции с самой большой скидкой? не важно, на что"
большую часть времени виртуалки в gke простаивают ну грубо говоря из этих 760 часов работают они в лучше случае половину. а нужно чтото где можно запустить пару под они возьмут задание выполнят и хватит, pod autoscsling более быстрый процесс чем node autoscaling вот и спрашиваю есть ли вариант это решить

Vadim
30.09.2018
21:05:30
Google
Anton
01.10.2018
06:06:28
Добрый день! Подскажите по отправке логов в ELK с Kubernetes. Все описал в вопросе https://toster.ru/q/567085

Anton
01.10.2018
06:41:35
проверка всей цепочки что говорит
т.е. согласно этой статье https://logz.io/blog/kubernetes-log-analysis/ fluentd монтирует папку /var/log/containers и отправляет все в Elasticsearch?

Sergey
01.10.2018
06:50:09
т.е. согласно этой статье https://logz.io/blog/kubernetes-log-analysis/ fluentd монтирует папку /var/log/containers и отправляет все в Elasticsearch?
это я тебя спросил чтобы проверить почему нет, надо проверять всю цепочку

Anton
01.10.2018
06:51:18
kubectl --namespace=efk exec -it efk-fluent-bit-58vn5 -- /bin/bash root@efk-fluent-bit-58vn5:/var/log/containers# ls | grep db-master root@efk-fluent-bit-58vn5:/var/log/containers# зашел в fluentd - а там лога нет.

Banschikov
01.10.2018
07:04:07
Всем привет! Подскажите, был OOM на ноде k8s. Все поды переехали на другие ноды. Проблему исправил, но эта нода в статусе NodeNotReady в describe. Подскажите как ей сказать что она здорова?

Banschikov
01.10.2018
07:15:17
uncordon, не?
Пробовал. Да ребутну ноду. kubelet жив насколько понял

Artem
01.10.2018
07:44:21
Добрый. Обновил все ноды в кластере до 1.12, пытаюсь заджойнить еще одну ноду, получаю такую ошибку: configmaps "kubelet-config-1.12" is forbidden: User "system:bootstrap:qws8xq" cannot get configmaps in the namespace "kube-system"

Google
Artem
01.10.2018
07:44:52
кто-нибудь подскажет, что может быть не так?

Sergey
01.10.2018
07:52:05
тебе же все написали в ошибке

Banschikov
01.10.2018
07:53:54
Товарищи, посоветуйте какой-нибуть удобный дашборд в графане, чтобы в нем было видно состояние всех нод в кластере? Много их уже перелопатил , но что то не могу найти то что нужно

Banschikov
01.10.2018
07:55:06
а то что последнее на хабре анонсили?
К сожалению не в курсе этого(

Sergey
01.10.2018
07:55:21
теперь в курсе

Banschikov
01.10.2018
07:58:13
теперь в курсе
А можно ссылочку? А то сижу гуглю и ничего ненахожу

Sergey
01.10.2018
07:59:16
habr grafana зачем гуглить

Banschikov
01.10.2018
08:05:12
Stanislav
01.10.2018
08:07:51
ncuxu(tm)

Iaroslav
01.10.2018
08:09:51
А кто-то к дашборду ldap прикручивал? dex поставлен а дашборд по токенам и не ясно как вообще все это связать вместе

Artem
01.10.2018
08:14:14
Обновите кластер до 1.12
спасибо, вот уже :)

Banschikov
01.10.2018
08:17:05
kubectl describe nodeпокажет почему NotReady
Показывает и пишет что там был OOM.

Google
kvaps
01.10.2018
08:18:39
Banschikov
01.10.2018
08:22:13
смотри в Conditions
принял.спс

S
01.10.2018
09:24:44
приветствую. Встречал кто ошибку с cephfs-provisioner "mount error 5 = Input/output error" PVC создается, но не маутиться.

Konstantin
01.10.2018
09:57:08
у меня проблема такого плана: когда я создаю кластер в kops 1.10+, то на мастере поднимается только kube-proxy. В /etc/kubernetes/manifests только он и лежит. А на 1.9.x всё нормально. Никто не сталкивался?

ls /etc/kubernetes/manifests/ kube-proxy.manifest

S
01.10.2018
10:10:21
Разобрался, надо namespace исключить

Georgiy
01.10.2018
10:10:32
привет когда кронджоба не может исполнится копятся POD-ы: 0/1 ImagePullBackOff 0 3d, и в какой-то момент кончается квота на POD и перестают работать другие джобы/деплой приложений можно ли где-то поставить, чтобы зафейлившиеся поды удалялись ?

Georgiy
01.10.2018
10:59:04
работает как надо, спасибо

Vasilyev
01.10.2018
11:30:13
бляяяя

bebebe
01.10.2018
11:30:34
@SinTeZoiD

Alexey
01.10.2018
11:33:40
надо группу шардировать, им же не интересны группы меньше какого-то порога ?

Anton
01.10.2018
11:43:52
нет
Здорова, не подскажешь у тебя не было проблем с запуском stolon-keeper в кубере? на некоторых машинах не работает сегфолтится initdb

Михаил
01.10.2018
11:44:35
не было

Anton
01.10.2018
11:44:57
На машинах где 256гб, выдает шаред память 32мб - все запустилось, на тез где 64 выдает 8мб и там крашится

не было
А образы сам собирал, или их взял?

Михаил
01.10.2018
11:45:23
взяли

Google
Михаил
01.10.2018
11:45:26
какие не помню

Anton
01.10.2018
11:46:52
взяли
А на хосте сколько памяти? просто уже че только не делал и русурсы прописывал и /dev/shm в память монтировал - нифига, единственное предположение связано с хостовой памятью

Anton
01.10.2018
11:47:36
Михаил
01.10.2018
11:47:41
та не за что)

Anton
01.10.2018
11:48:45
ну хотябы пока буду думать в направлении памяти на хосте

vlad
01.10.2018
11:51:44
Народ есть сводная табличка сравнения реализаций сетевой подсистемы flannel/calico/weavenet/etc, по аналогии с https://docs.google.com/spreadsheets/u/1/d/16bxRgpO1H_Bn-5xVZ1WrR_I-0A-GOI6egmhvqqLMOmg/edit#gid=1612037324 для ингресов ?

что бы всё в одном месте

Anton
01.10.2018
11:52:58
вброшу про postgres, в его буферы же обычно не загоняют всю раму с хоста. в контейнерах с лимитами какая политика по выделению памяти? каждый коннект жрет немало, да и под файловый кэш нужно пространство.

Anton
01.10.2018
11:54:19
он там 400кб берет чтоли

creating directory /stolon-data/postgres ... ok creating subdirectories ... ok selecting default max_connections ... 20 selecting default shared_buffers ... 400kB

на некторых хостах FATAL: could not create shared memory segment: No space left on device DETAIL: Failed system call was shmget(key=4097, size=56, 03600). HINT: This error does *not* mean that you have run out of disk space. It occurs either if all available shared memory IDs have been taken, in which case you need to raise the SHMMNI parameter in your kernel, or because the system's overall limit for shared memory has been reached. на некоторых просто segmentation fault

там где рамы 256 и более - проблем нет, думаю раму он отдает в каком то процентном соотношении

Alexey
01.10.2018
12:29:01
> in which case you need to raise the SHMMNI parameter in your kernel а kernel.shmmni пробовал поднимать?

Usagi
01.10.2018
13:13:00
Здарова всем. Кто подключал self-hosted gitlab с kubernetes? У меня кластер подключается к проекту, helm tiller устанавливается, но runner не работает (last contact: never).

Usagi
01.10.2018
13:18:26
там все чисто. Даже подключал runner напрямую (не kubernetes) - все работает. Но именно runner в кластере не подключается. При этом в логе контейнера ругает: 401 Unauthorized



Google
Usagi
01.10.2018
13:24:07
И вот так вот в гитлабе



Евгений
01.10.2018
13:42:15
все не так просто - https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume- но с костылями можно
так, а о каких костылях речь? вроде как динамического провиженинга там вообще нет ни в каком виде

Vadim
01.10.2018
13:42:45
так, а о каких костылях речь? вроде как динамического провиженинга там вообще нет ни в каком виде
вот именно, если хочется динамического - то тут начинаются костыли

Евгений
01.10.2018
13:44:14
вот именно, если хочется динамического - то тут начинаются костыли
ну так а можно пример?) какими костылями его можно включить?

Alexey
01.10.2018
13:46:37
вот именно, если хочется динамического - то тут начинаются костыли
а какой динамический на baremetal? сколько есть, столько и создал. Это же не облако.

Vadim
01.10.2018
13:48:57
а какой динамический на baremetal? сколько есть, столько и создал. Это же не облако.
именно по этому я не стану показывать свой костыль - 1) он жуткий, 2) у гражданина выше поди другая ситуация

kvaps
01.10.2018
13:53:33
ну так а можно пример?) какими костылями его можно включить?
как вариант написать свой провижионер, что-нить типа такого: - запускается как daemonset и смотрит за новыми PVC, как только PVC появляется. Создает local-волум с нужными параметрами на ноде, затем PV в кубере. Остается только придумать как они между ссобой договариваться будут

Евгений
01.10.2018
13:54:30
oh shi)

тогда зайду с другой стороны. допустим у меня есть виртуалка со 100 гигабайтами диска. как сказать куберу - вот тебе тачка, хости все на ней?

Страница 857 из 958