@kubernetes_ru

Страница 544 из 958
Sergey
03.05.2018
12:50:27
ну не знаю, через конфиги передавай))

Ребят, а кто то пробовал уже CoreOS Operator? Что это за зверь такой? Аналог хельма для CoreOS?

в чем отличия от кубер-хельма?

bebebe
03.05.2018
13:12:24
Не в амазоне
А причем тут это?

Google
Andor
03.05.2018
13:13:52
при том, что в общем случае это не работает

есть несколько драйверов/провайдеров которые умеют шарить волюмы

но далеко не все

Yuriy
03.05.2018
13:37:04
Всем привет. Есть у кого линки как работает heapster или telegraph, инетресует как вручную поднять и прописать лог колекторы для кубера, как говорится хочется увидеть изнутри. Поднять inflyx/elasticsearch + прицепить графану это не проблема, больше интересует как собираются логи и метрики из k8s окружения.

Sergey
03.05.2018
13:38:08
https://github.com/kubernetes/heapster

не?)

Andor
03.05.2018
13:39:25
heapster/cadvisor/kube-state-metrics

первое с прометеем не работает, но требуется для графиков в дашборде

Valentin
03.05.2018
13:41:43
такое решение - сильно лучше чем прометей?

Andor
03.05.2018
13:43:08
у нас cadvisor и kube-state-metrics используются с прометеем

Valentin
03.05.2018
13:45:18
чтото большой зоопарк технологий - непонятно, что куда

прометей: тычется к эндопоинты, собирает с них инфу и кладёт к себе в БД, откуда можно графаной строить графики

а это heapster/cadvisor/kube-state-metrics как работает?

Google
Valentin
03.05.2018
13:47:31
я как раз на пороге принятия решения на этот счёт, и теряюсь сильно

Andor
03.05.2018
13:52:58
cadvisor - экспортер про метрики контейнеров

kube-state-metrics - экспортер про стейт кубера

хипстер только для дашборды юзаем, но он вроде умеет в инфлюкс, хз

первые два - с прометеем дружат

Valentin
03.05.2018
14:00:51
получается, что первые два - маст хэв, чтоли

Andor
03.05.2018
14:01:17
ну первый в кубелете зашит

а второй очень полезен

Valentin
03.05.2018
14:01:23
в моих влажных фантазиях кубик сам умел отдавать метрики ))

ааа, вот оно

Andor
03.05.2018
14:01:40
кубелет отдаёт сам

стейт-метрик опционален, но очень полезен

Valentin
03.05.2018
14:05:10
вроде и установка у него как два пальца об асфальт

Andor
03.05.2018
14:05:32
ну да. просто демонок внутри кубера

и кубер-дискавери в прометее для него

Yuriy
03.05.2018
14:59:11
Интересно в k8s есть похожие команды для генерирования полного reference к примеру kind: Deployment, что то похожее на aws ec2 blablabla —generate-cli-sceleton > blablabla.json ???

Yuriy
03.05.2018
15:12:57
что-то вроде этого https://gist.github.com/negz/c3ee465b48306593f16c523a22015bec ?
Вот за этот скриптик спасибо. Единственно, что он сгенерировал скелеты только на основе существующих субьектов. А так не плохо, благодарю.

Alexey
03.05.2018
15:17:05
Добрый день, я хочу один котейнер в поде разделить на два: один с доступом к базе, а второй без. И собственно возникли вопросы: 1) можно ли секреты цеплять к контейнеру, а не поду, чтоб у второго не было секретов 2) как лучше всего организовать коммуникацию? Порт на локалхосте? Сокет? Нужны ли доп к8с сервисы? Надо ли что-то делать чтоб к контейнеру без доступа к базе мог коннектиться другой контейнер только из того же пода?

Google
Andor
03.05.2018
15:17:44
Секреты же и так к контейнерам цепляются, а не к подам

Секреты превращаются в переменные окружения или конфигмапы, которые уже к контейнерам цепляются

Alexey
03.05.2018
15:18:46
Да, точно

Andor
03.05.2018
15:19:19
Слушай юникс сокет или локалхост и будет норм

Alexey
03.05.2018
15:20:25
Если несколько таких подов будут на одной ноде и все откроют один порт это будет ок?

Andor
03.05.2018
15:21:20
У каждого будет свой локалхост

Alexey
03.05.2018
15:22:26
Ок

Спасибо

Banschikov
03.05.2018
17:25:31
Подскажите пожалуйста. Поднял локально на VB k8s. С одним мастером и 2 воркерами. И частенько при деплое получаю такое сообщение. Я понимаю что под не может быть размещен, но логику почему не могу понять

0/3 nodes are available: 1 node(s) had taints that the pod didn't tolerate, 2 node(s) didn't match pod affinity/anti-affinity, 2 node(s) didn't satisfy existing pods anti-affinity rules.

Andor
03.05.2018
17:29:06
что подсказать-то?

Banschikov
03.05.2018
17:31:26
что подсказать-то?
ЧТо он пытается сказать? Просто мое понимание не привело исправлению ситуации, вот и решил поинтересоватся у более опытных коллег

Andor
03.05.2018
17:32:06
ну написано что на одной ноде через taint нельзя запускать ноды, вероятно на мастере

и две оставшиеся ноды не соответствуют правилам anti-affinity

Banschikov
03.05.2018
17:34:25
и две оставшиеся ноды не соответствуют правилам anti-affinity
Но этих правил у меня нет в манифестах. Получается в k8s есть поумолчанию, негласные правила

Maksim
03.05.2018
18:34:40
Но этих правил у меня нет в манифестах. Получается в k8s есть поумолчанию, негласные правила
Манифесты дай. Скорее всего они там есть). Просто ты о них не знаешь

Banschikov
03.05.2018
18:35:33
Манифесты дай. Скорее всего они там есть). Просто ты о них не знаешь
https://github.com/openebs/openebs/blob/master/k8s/demo/percona/demo-percona-mysql-pvc.yaml

Maksim
03.05.2018
18:36:25
Ресурсы. Это и есть аффнити правила.

Banschikov
03.05.2018
18:37:57
Ресурсы. Это и есть аффнити правила.
Понял, спасибо. Буду учитывать теперь

Maksim
03.05.2018
18:39:51
В каком то смысле кривова-то сделано, что ресурсы тоже аффинити)

Google
Banschikov
03.05.2018
18:43:51
В каком то смысле кривова-то сделано, что ресурсы тоже аффинити)
Правильно понимаю, что в этом случае антиаффинити получилось?)

Banschikov
03.05.2018
19:16:07
Да
Типа не могут поделить ресурсы процессора, которые им выделены, так как на вычислительной ноде меньше заявленой общей цифры в манифесте)? правильно понял?)))

Andor
03.05.2018
19:20:15
нет, про это requests/limits параметры

Maksim
03.05.2018
19:20:18
Ну типо того.

нет, про это requests/limits параметры
В том то и прикол, что ошибка идет по антиаффинити.

Andor
03.05.2018
19:21:16
у меня если ресурсов для скедулинга подов нет, то кубер так и говорит

Maksim
03.05.2018
19:22:57
Точно? Ибо у меня оно пишет что не удовлитворило правилам антиаффинити.

Andor
03.05.2018
19:24:22
нет, не точно

давно этого не видел, но вроде про requests ругалось

Banschikov
03.05.2018
19:24:34
у меня если ресурсов для скедулинга подов нет, то кубер так и говорит
У меня писал к примеру если я создаю под и в ресурсах указывал завышенное значиние cpu, чем реально есть на машине. Так и писал

А тут получается что ресурсов то хватает для каждого пода, но когда они вместе садятся на одну ноду, то происходит эта фигня

Я так понял

Maksim
03.05.2018
19:25:51
Кстати высадка пода и скейл деплоя проходят разными путями

Andor
03.05.2018
19:26:25
что такое "высадка пода"?

Banschikov
03.05.2018
19:26:55
Maksim
03.05.2018
19:26:59
что такое "высадка пода"?
Когда шедулер назначает под на ноду.

Создание kind Pod
Чуточку позже)

Banschikov
03.05.2018
19:28:34
Maksim
03.05.2018
19:30:19
А можно плез в 2 словах чем отличается?
Путями. При увеличении числа реплик в демлое сначала депдоймент контрллер изменяет реалик сет, а реплик сет пораждает поды, после шедулер выдает поды нодам, а кублеты делаеи грязную работу и рапортуют статус

Google
Stanislav
03.05.2018
19:31:30
расскажи мне как сделать плавильно
nomad, там и CNCF совместимость, и гуй и автоскейлинг если у тебя лист джобов перестал влазить на одну ноду

Andor
03.05.2018
19:31:35
а создание kind pod чем отличается?

разве скейл deployment не создаёт kind pod?

Maksim
03.05.2018
19:32:19
а создание kind pod чем отличается?
Ну нету реплик и деплой контроллеров.

разве скейл deployment не создаёт kind pod?
Он создает новый реплик сет.

Он создает новый реплик сет.
В случае скейла редактирует существующий.

Banschikov
03.05.2018
19:33:39
Он создает новый реплик сет.
Кстать, верно. Читал про это

Andor
03.05.2018
19:33:47
Он создает новый реплик сет.
а реплик сет не создаёт kind pod?

Maksim
03.05.2018
19:34:37
Andor
03.05.2018
19:34:57
тогда в чём может быть разница создания kind pod и скейла деплоймента?

я возможно не понимаю чего-то

но кажется что в кубере одна из основных сущностей - создание пода

Maksim
03.05.2018
19:35:32
тогда в чём может быть разница создания kind pod и скейла деплоймента?
В отсутвии двух контролеров. Kind pod мож и без контроллеров делать.

Andor
03.05.2018
19:35:44
и любые деплойменты стейтфулсеты и прочие сеты так или иначе заканчиваются созданием подов

Maksim
03.05.2018
19:36:57
Да все контроллеры так или иначе создают поды. Просто поды можно создать без контроллеров)

Andor
03.05.2018
19:37:59
ну так изначально было "скейл деплоймента отличается от создания кинд под"

что типа по-другому скедулится

что типа по-другому скедулится
возможно я прочитал жопой, извините

Maksim
03.05.2018
19:40:55
что типа по-другому скедулится
Там как минимум два контроллера над. Так что где-то может весеть костыль в виде предварительной проверки ресов. Либо в 1.10.1 убрали ошибку о ресах оставив только один ексепшен)

Stanislav
03.05.2018
19:40:55
Nomad is architecturally much simpler. Nomad is a single binary, both for clients and servers, and requires no external services for coordination or storage. Nomad combines a lightweight resource manager and a sophisticated scheduler into a single system. By default, Nomad is distributed, highly available, and operationally simple.

Страница 544 из 958