@kubernetes_ru

Страница 384 из 958
Sergey
15.01.2018
14:45:01
А работать оно может через единый лоадбалансер, например через клаудфларе или на базе Route53 LBR

bebebe
15.01.2018
14:45:59
k8s не поддерживает гетерогенные системы

Sergey
15.01.2018
14:48:11
ну это тоже "нюанс" для тех кто хочет запихнуть всё в один большой кластер. А вот это "Чтобы было надежней" в итоге может превратиться в ад при разваливании этого кластера или попытках его апгрейда

Pasha
15.01.2018
14:50:38
может кто подсказать статью для нубов про storageclass'ы и statefulsets ?

Google
Sergey
15.01.2018
14:51:04
google ?

Pasha
15.01.2018
14:51:50
ну там все доки на kubernetes.io и уже для тех, кто понимает зачем это и что ему нужно:(

ок, начать с этого надо https://kubernetes.io/docs/concepts/storage/volumes/

Maksim
15.01.2018
15:02:29
может кто подсказать статью для нубов про storageclass'ы и statefulsets ?
Сам спросил, сам ответил, приятно разговаривать с умным человеком)

Pasha
15.01.2018
15:02:40
все так))

Maksim
15.01.2018
15:05:26
Если по простому, то у тебя есть sds с автопровижингом volume (ceph/glusterFS/StorageOS и т.п.) и storageclass это описание как к нему присоденеится, и авторизационные данные (на нодах с кублетом должен быть клиент для этого кластера). Собсно когда создаётся pvc (запрос на pv), в его аннотации указывается этот самый storageclass и контроллер в автономном режиме создаёт волюм.

Ну а stafullset это когда название подов статично. как и их число.....

Вроде это все чем statefull сет отличается от деплоя, хотя тут я могу и ошибаться, я их почти не юзал.

на гитхабе есть примеры storageclass для тех, что кубер поддерживает

Pasha
15.01.2018
15:14:21
Если по простому, то у тебя есть sds с автопровижингом volume (ceph/glusterFS/StorageOS и т.п.) и storageclass это описание как к нему присоденеится, и авторизационные данные (на нодах с кублетом должен быть клиент для этого кластера). Собсно когда создаётся pvc (запрос на pv), в его аннотации указывается этот самый storageclass и контроллер в автономном режиме создаёт волюм.
супер спасибо! мне для разработки нужен pv для хранения там базы, для того чтобы все поды на моих 3х нодах имели доступ к этой базе я так понимаю мне нужно делать какой-то внешний pvs, но из легкого я так понимаю только storageos мне подойдет

верно же?

Maksim
15.01.2018
15:15:14
ну в теории можно обойтись и nfs -)

только pv прийдётся в ручную делать.

Google
Pasha
15.01.2018
15:15:33
кубер локальный есличто

Maksim
15.01.2018
15:15:59
Локально это как?

всё в одной виртуалке?

Pasha
15.01.2018
15:16:10
не

4 виртуалки - мастер + 3 слейва

Maksim
15.01.2018
15:16:33
сооруди на мастере nfs

и сделай pv ручками

не нужен тебе starageOS и т.п. на виртуальках...

Storageclass это скорее решение для функционирующего кластера, что бы администраторы ручками и делали каждый pv

если у тебя 1-2 pv то тебе всё это накручивать не надо

в описании pv вроде описано как сделать pv + pvc для nfs

Вот этой инфы тебе хватит

https://kubernetes.io/docs/concepts/storage/persistent-volumes/

Pasha
15.01.2018
15:27:27
сооруди на мастере nfs
и он будет доступен для всех подов на всех слейвах?

Maksim
15.01.2018
15:27:39
да

Ты его сделаешь Read-write many и несколько подов смогут в него писать

но для БД так делать не стоит, потеряешь консистентность данных и БД умрёт

Pasha
15.01.2018
15:28:55
мне надо это дело автоматом получать, виртуалки мы нарезаем, поверх них кубеспреем ставим кубер и дальше вот надо pvc наконфигурячить, чтоб девелопер только деплоймент своего суперскейлебл приложения запускал)

Maksim
15.01.2018
15:32:56
ну тогда делай storageclass с sds

под "локально" я понимаю разворот кластера в каком нить виртулбоксе-)

Google
Maksim
15.01.2018
15:34:36
не знаю как остальные,а сеф можно развернуть кубером-)

Anton
15.01.2018
15:42:16
как прокинуть переменную окружения с одного контейнера в другой (в пределах пода)?

Mikhail
15.01.2018
15:43:32
заюзать конфиг мап например?

Anton
15.01.2018
15:44:59
то есть я могу создать конфиг мап, который будет описывать переменную окружения, в которую я могу записать в init container, а считать в другом контейнере?

не совсем понятно, как именно будет производиться запись в нее из первого контейнера

Maksim
15.01.2018
15:46:33
как прокинуть переменную окружения с одного контейнера в другой (в пределах пода)?
никак, у них разные ns исполнения, в одном поде у контейнеров общие: сеть и волюмы. Так что через внешние тулзы

например повесить переменну на localhost и дёргать

Anton
15.01.2018
15:47:51
вот как писать?

Maksim
15.01.2018
15:48:15
вот как писать?
через api вызов-)

Anton
15.01.2018
15:48:35
как-то прохладно звучит

Mikhail
15.01.2018
15:48:37
ну или kubectl bla-bla-bla...

Anton
15.01.2018
15:48:57
делать api вызов из пода это то еще веселье

Maksim
15.01.2018
15:49:01
ну или kubectl bla-bla-bla...
что не сильно то отличается, kubectl так же работает через API -)

Mikhail
15.01.2018
15:49:10
ага )

Maksim
15.01.2018
15:49:25
делать api вызов из пода это то еще веселье
почему же?-) юзаешь сервис аккаунт и всё тут

Mikhail
15.01.2018
15:49:27
ну поды разные, ns разные,

Maksim
15.01.2018
15:49:44
ну поды разные, ns разные,
не поды контейнеры..

Anton
15.01.2018
15:49:44
нет, под то как раз один

> у них разные ns исполнения имеется ввиду linux namespace?

Google
Mikhail
15.01.2018
15:50:55
я почему-то думал что к контейнеров в пределах одного Пода NS одинаковые

Maksim
15.01.2018
15:51:36
хотя с последними там то же не всё так просто. -)

Max
15.01.2018
16:00:33
Прогоняли мемтест в течении суток. Нет проблем с памятью. Запустили диагностику дисков, но чето ощущение что и там чисто будет. Может таки кто нибудь поделится версиями компонент стабильных продакшен кластеров? ??
Коллеги, мы продолжаем исследовать проблему рестартующих нод. Прогнали стресстесты, тесты памяти и дисков, никаких проблем с железом не выявлено. Из различий с непадающим продом кроме железа: - версия докера (на непадающем проде 1.13.1, на падающем тестинге 17.0.3.2) - версия ядра (prod: 4.10.0-32-generic testing: 4.10.0-40-generic) Поделитесь плз проверенной в бою на нагрузке версией докера? Мб кто то использует в проде cri-o ?

Max
15.01.2018
16:14:59
Anton
15.01.2018
16:55:41
вот volume как бы может быть основан на конфиг мапе, а наоборот может быть?

Admin
ERROR: S client not available

Anton
15.01.2018
16:56:42
ну то есть я в одном контейнере что-то написал в файл, и при этом у меня есть какой-то конфигмап, который мапит этот файл в значения, которые я уже подтягиваю в env

sherzod
15.01.2018
18:14:15
Подскажите такая ситуация: есть образы в gcloud есть minikube локальный поднимаю deployment при всех скачанных образах, то есть локально они закешированы, но кубер всё равно пытается их пуллить, и, конечно, натыкается на аутентификацию как сделать чтобы не пуллил?

ну вот. спросил, потом нагуглил)) imagePullPolicy: IfNotPresent

Mikhail
15.01.2018
18:24:28
?

Anton
15.01.2018
18:26:24
Лоад-балансер, нормально обслуживает постоянные подключения?

sherzod
15.01.2018
18:26:27
ну то есть я в одном контейнере что-то написал в файл, и при этом у меня есть какой-то конфигмап, который мапит этот файл в значения, которые я уже подтягиваю в env
Вряд ли. Это как-то противоречит идеологии, будет странно если рантайм начнёт менять настройки кластера. Но это просто моё мнение.

Anton
15.01.2018
18:30:30
Клиенты соединяются к сервису, и висят продолжительное время

В отличии от http, где подключение, запрос, отключение

sherzod
15.01.2018
18:31:23
балансер работает на соединение, после соединения он уже только пересылает трафик

Google
Anton
15.01.2018
18:32:06
Ну мне желательно по опыту, не рвутся соединения?

sherzod
15.01.2018
18:32:30
а в этом смысле. не подскажу, сам новенький

Anton
15.01.2018
18:33:46
Я хочу один сервис запихнуть в кубер с auto scale правилами, интересно при перестроении или в других случаях не теряет ли коннекты

А еще вопрос, немного не по теме, какое впн решение есть для объединения несколькох ДЦ?

Sergey
15.01.2018
18:38:59
под лоадбалансером имелся в виду ингресс контролер? он держит коннекты с медленными клиентами согласно выставленным кипалайв таймаутам, а на бекенды проксирование уже обычно без кипалайва. Но можно и персистент, тоже не вижу проблем.

Сергей
15.01.2018
18:47:00
mpls

Deep Sea
15.01.2018
18:53:23
или решения от циско/жунипера

Anton
15.01.2018
18:54:33
tinc
Сейчас исполюзуется, однопоточный, в условиях частых потерь, не востанавливается

Deep Sea
15.01.2018
18:59:20
ну тогда либо свои костыли

либо https://www.cisco.com/c/en/us/products/security/dynamic-multipoint-vpn-dmvpn/index.html

Anton
15.01.2018
19:33:34
ну тогда либо свои костыли
Эх, на циско завязыватся не хочется

Maxim
15.01.2018
19:34:50
https://vyos.io/

https://hub.docker.com/r/2stacks/vyos/

в принципе можно даже так, но честно скажу не уверен что это хорошая идея будет его в контейнер запихивать :)

Anton
15.01.2018
19:36:33
vyos в виртуалку поставить
А чем оно лучше StrongSWAN/ OpenVPN без VyOS?

Maxim
15.01.2018
19:37:11
А чем оно лучше StrongSWAN/ OpenVPN без VyOS?
готовый комплект типа, можно все это по отдельности самому собрать да

Страница 384 из 958