@kubernetes_ru

Страница 527 из 958
Sergey
20.04.2018
07:18:26
а если шина в другом поде, разница есть?

Andrey
20.04.2018
07:18:43
а чем обусловленно требование быть в одном поде?

Юрий
20.04.2018
07:19:14
Всегда должен быть 1 инстанс шины на 1 инстанс приложения.

Так заложено архитектурой шины.

Google
Andrey
20.04.2018
07:22:05
может, тогда чарты объединить, и пусть одна команда этим занимается?

или они у вас где-то по отдельности ещё используются?

Юрий
20.04.2018
07:22:30
Не варинт, так как приложений работающих с шиной > 50

Andrey
20.04.2018
07:23:06
и все 50 должны быть в одном поде?

Юрий
20.04.2018
07:23:22
нет, ты что)

просто не хочется во все 50 чартов приложений делать копипаст чартов шины

Andrey
20.04.2018
07:24:11
а, понял

Юрий
20.04.2018
07:24:38
и хочется дать гибкий механизм по обновлению версии шины. Мол указал другую версию шины, и все завелось.

Andrey
20.04.2018
07:25:07
Скорее всего, придётся. Если у тебя все приложения зависят от zip, то его надо для всех приложений указать, как зависимость

Юрий
20.04.2018
07:26:37
Да, только в случае с зипом ты его ставишь в тот же контейнер из deb репозитория.

и это не процесс который должен жить постоянно.

Sergey
20.04.2018
07:26:51
какая шинка

Юрий
20.04.2018
07:27:43
У нас своя реализация шины над одним из популярных решений.

Google
Юрий
20.04.2018
07:31:47
Вчера курил интернеты по поиску подобного решения. Полагаю ничего подобного пока что нету =(

Andrey
20.04.2018
07:32:51
просто зависимость. То, что необходимо для работы (части) приложения.

Юрий
20.04.2018
07:34:49
на ладно, пусть будет nignx
Что ты имеешь ввиду под "зависимостью"? Приложение внутри контейнера или пода?

Если ставить его в тот же контейнер, это уже не по фэншую. Будет 2 процесса на 1 контейнер.

Dmitrii <freehck>
20.04.2018
07:42:10
Ребята, а кто-нибудь сталкивался с тем, что под xenial на ноде с мастером в kubespray не поднимается kube-apiserver?

Я там видел инструкции для Jessie, что советуют поставить systemd 230, может быть в этом дело? В syslog мне пишет, что контейнер вроде как сдыхает сразу же: https://pastebin.com/ZQQXsNzV

Let Eat
20.04.2018
07:48:27
Привет коллеги! Хотел бы услышать ваше мнение по одному из кейсов использования helm. Есть 2 компонента: 1) Само приложение (допустим генератор случайных чисел) 2) Шина - по сути транспорт через который приложение общается с другими приложениями. Так вот, архитектурно, шина должна быть установлена локально, рядом с приложением, т.е. в том же поде что и само приложение. Приложение разрабатывается одной командой. Шина другой. Соответсвенно хелм чарты тоже поддерживаются разными командами, и находятся в разных репозиториях. По сколько все должно быть в одном поде, то чарты надо как-то соединять. Ищю удобный механизм по деплою подобных приложений. В идеале представляю что-то типа: apiVersion: apps/v1 kind: Deployment metadata: name: some-deployment spec: template: spec: containers: - name: my-number-generator image: my-number-generator:0.1.0 {{ include_remote_file https://raw.githubusercontent.com/custom/bus/v1.0.0/part.yml}}
Хелм слабо подходит под такое, у него вообще компоновать куски нет неущербных инструментов

Roman
20.04.2018
08:04:37
Коллеги, поправьте меня. Фичуры, которые предоставляет клауд-провайдер (типа aws) для куба - сводятся к стореджу и к балансировке перед кубом. Это так, или я что-то забыл?

Arslanbekov
20.04.2018
08:22:23
ребята, кто-нибудь использует — https://github.com/kubernetes-incubator/kube-arbitrator для управления ресурсами?

Denis
20.04.2018
09:03:22
Народ кто в курсе почему Хипстер ошибками срет и метрики не пишет : error while getting containers from Kubelet: failed to get all container stats from Kubelet URL "http://10.x.0.x:10255/stats/container/": Post http://10.x.0.x:10255/stats/container/: dial tcp 10.x.0.x:10255: getsockopt: connection refused

Andrey
20.04.2018
09:04:49
потому что у тебя у кублета readonly port на 10255 не задан

Denis
20.04.2018
09:05:07
thnx =)

у меня вообще на этом порту ни фига не слушает

потому что у тебя у кублета readonly port на 10255 не задан - как победить?

Andrey
20.04.2018
09:16:39
потому что у тебя у кублета readonly port на 10255 не задан - как победить?
посмотреть в список флагов, которые можно передать kubelet при запуске

Silent
20.04.2018
09:45:10
День добрый господа

вчера поднял кубеспрей HAproxy

Valentin
20.04.2018
09:49:33
*applause*

Google
Dmitryi
20.04.2018
10:49:25
Всем привет

У кого-то был опыт с cephfs на кубере ?

https://github.com/kubernetes-incubator/external-storage/tree/master/ceph/cephfs

Если да, то как правильно указать reclaimPolicy для этого storageclass ?

Вычитал что нужно просто добавить reclaimPolicy для storageclass но не срабатывает. Еще посмотрел на код и там есть поддержка ReclaimPolicy но буд-то она не срабатывает. https://github.com/kubernetes-incubator/external-storage/blob/master/ceph/cephfs/cephfs-provisioner.go#L176

Andor
20.04.2018
10:52:48
а ты пересоздавал?

Dmitryi
20.04.2018
10:52:55
да

Алексей
20.04.2018
10:58:35
подскажите плюсы и минусы self-hosted кластера kubernetes

Владимир Калинин
20.04.2018
10:59:40
подскажите плюсы и минусы self-hosted кластера kubernetes
Имхо плюс - дешевле при тех же мощностях) минус - геморойнее)

Favoretti
20.04.2018
10:59:49
плюсы - ты все контролируешь. минусы - ты все контролируешь

Sergey
20.04.2018
11:00:20
грубо говоря следить за ним придется тебе

Алексей
20.04.2018
11:01:48
контролирую я и так все, либо в виде сервисов на хостовой операционке, либо все тоже самое в самом кластере средствами kubernetes по дешевле не совсем понятно, потребление ресурсов не меняется

геморнее в чем?

Sergey
20.04.2018
11:03:25
тут скорее вопрос не в kubernetes, а в принципе в хостинге, за дисками и охлаждением тоже ты следить должен

Andrey
20.04.2018
11:05:15
геморнее в чем?
Обновления кластера. В гугле этим не ты занимаешься

Алексей
20.04.2018
11:06:00
у меня бареметал, вариант кластер как сервис не рассматривается

Sergey
20.04.2018
11:06:25
а как что вы его рассматриваете

Alex Milushev
20.04.2018
11:08:23
господа, а кто-то пробовал стартовать etcd как статик под в кублете?

Google
Alex Milushev
20.04.2018
11:08:31
или это нафиг не уперлось?

Алексей
20.04.2018
11:08:52
Да Владимир, вы все поняли правильно как абстракцию поверх железа позволяющую уменьшить количество трудозатрат на выведение сервисов в использование.

Ihor
20.04.2018
11:09:30
@zunkree а как вы еще его собираетесь стартовать, если внутри кубера крутите?

Алексей
20.04.2018
11:09:48
И уменьшить затраты времени на этот процесс. Есть еще вопросы стандартизации ну и прочие мелочи.

Alex Milushev
20.04.2018
11:09:53
ну можно отдельно на тазиках с помощью systemd стартовать

Ihor
20.04.2018
11:11:12
ну это уже, простите, извращение

это называется не "ранить в кубернетисе", а "реюзать докер демон кластера кубернетиса". или, возможно, я недопонял

Andor
20.04.2018
11:14:21
кажется речь про етцд который для кубера

Sergey
20.04.2018
11:14:35
+

Ihor
20.04.2018
11:15:32
ну и?

нельзя стартовать поды через systemd, можно только docker контейнеры

Andor
20.04.2018
11:15:59
запускать жизненно необходимый компонент системы внутри этой системы?

Ihor
20.04.2018
11:16:32
именно так люди это и делают, представляете? :)

kubelet такой стартуется systemd и запускает "жизненно необходимые" компоненты кубера в подах

Andor
20.04.2018
11:17:23
etcd разве тоже внутри запускают?

Ihor
20.04.2018
11:17:55
ну здрасте. так это по умолчанию и запускают. а потом вытягивают из кубера, если нагрузка большая

Andor
20.04.2018
11:18:21
и как же бутстрапят етцд если етцд нету?

djaarf
20.04.2018
11:20:57
kubelet при старте запускает поды описаные в /etc/kubernetes/manifests

Alex Milushev
20.04.2018
11:20:58
через static pods

у нас так все компоненты кроме etcd на стенде собраны

Google
Andor
20.04.2018
11:21:28
понял

не знал про такую радость

Alex Milushev
20.04.2018
11:21:35
вот Я и подумал, а почему-бы туда так-же и etcd не впихнуть

и может у кого есть опыт, почему это хуйово

Алексей
20.04.2018
11:22:05
это не умолчания, собственно можно все запускать как сервисы операционной системы, можно self-hosted это когда компоненты кластера управлюятся самим кластером

Айбелив
20.04.2018
11:22:14
вот Я и подумал, а почему-бы туда так-же и etcd не впихнуть
при смерти кубелета мастера, умирает и etcd рядом

Алексей
20.04.2018
11:22:33
https://github.com/kubernetes/community/blob/master/contributors/design-proposals/cluster-lifecycle/self-hosted-kubernetes.md

Alex Milushev
20.04.2018
11:22:42
но etcd будет ранаться на отдельных машинах а сам кублет сразу будет рестартован systemd'ой

Алексей
20.04.2018
11:24:59
Собственно мой вопрос выше как раз про это плюсы и минусы кластера в такой конфигурации свои мысли есть, но хочется послушать чужое мнение.

Sergey
20.04.2018
11:25:47
куберу все равно где ты его запустишь, тут опять же повторюсь вопрос не в кубере

djaarf
20.04.2018
11:26:06
плюсы, можно смотреть логи и статус и рестартить через kubectl )))

Айбелив
20.04.2018
11:26:44
djaarf
20.04.2018
11:26:45
минусы помимо кубелета он еще зависит и от демона докера

Алексей
20.04.2018
11:26:48
мониторинг железа и дисков я не поднимаю, это отдельная тема которая давно решена.

что значит нельзя остановить?

Айбелив
20.04.2018
11:27:37
минусы помимо кубелета он еще зависит и от демона докера
а есть вариант запускать на машине etcd и кубелет без докера?

Страница 527 из 958