Maksim
Ты его сделаешь Read-write many и несколько подов смогут в него писать
Maksim
но для БД так делать не стоит, потеряешь консистентность данных и БД умрёт
Pasha Chalyk
мне надо это дело автоматом получать, виртуалки мы нарезаем, поверх них кубеспреем ставим кубер и дальше вот надо pvc наконфигурячить, чтоб девелопер только деплоймент своего суперскейлебл приложения запускал)
Maksim
ну тогда делай storageclass с sds
Maksim
под "локально" я понимаю разворот кластера в каком нить виртулбоксе-)
Maksim
не знаю как остальные,а сеф можно развернуть кубером-)
Anton
как прокинуть переменную окружения с одного контейнера в другой (в пределах пода)?
Mikhail [azalio]
заюзать конфиг мап например?
Anton
то есть я могу создать конфиг мап, который будет описывать переменную окружения, в которую я могу записать в init container, а считать в другом контейнере?
Anton
не совсем понятно, как именно будет производиться запись в нее из первого контейнера
Maksim
например повесить переменну на localhost и дёргать
Mikhail [azalio]
Anton
вот как писать?
Anton
как-то прохладно звучит
Mikhail [azalio]
ну или kubectl bla-bla-bla...
Anton
делать api вызов из пода это то еще веселье
Mikhail [azalio]
ага )
Mikhail [azalio]
ну поды разные, ns разные,
Maksim
Anton
нет, под то как раз один
Anton
> у них разные ns исполнения
имеется ввиду linux namespace?
Maksim
Mikhail [azalio]
я почему-то думал что к контейнеров в пределах одного Пода NS одинаковые
Maksim
Maksim
хотя с последними там то же не всё так просто. -)
Serega
Mikhail [azalio]
Max
Anton
вот volume как бы может быть основан на конфиг мапе, а наоборот может быть?
Anton
ну то есть я в одном контейнере что-то написал в файл, и при этом у меня есть какой-то конфигмап, который мапит этот файл в значения, которые я уже подтягиваю в env
sherzod
Подскажите такая ситуация:
есть образы в gcloud
есть minikube локальный
поднимаю deployment при всех скачанных образах, то есть локально они закешированы, но кубер всё равно пытается их пуллить, и, конечно, натыкается на аутентификацию
как сделать чтобы не пуллил?
sherzod
ну вот. спросил, потом нагуглил))
imagePullPolicy: IfNotPresent
Mikhail [azalio]
👍
Anton
Лоад-балансер, нормально обслуживает постоянные подключения?
sherzod
sherzod
Anton
Клиенты соединяются к сервису, и висят продолжительное время
Anton
В отличии от http, где подключение, запрос, отключение
sherzod
балансер работает на соединение, после соединения он уже только пересылает трафик
Anton
Ну мне желательно по опыту, не рвутся соединения?
sherzod
а в этом смысле. не подскажу, сам новенький
Anton
Я хочу один сервис запихнуть в кубер с auto scale правилами, интересно при перестроении или в других случаях не теряет ли коннекты
Anton
А еще вопрос, немного не по теме, какое впн решение есть для объединения несколькох ДЦ?
Serega
под лоадбалансером имелся в виду ингресс контролер? он держит коннекты с медленными клиентами согласно выставленным кипалайв таймаутам, а на бекенды проксирование уже обычно без кипалайва. Но можно и персистент, тоже не вижу проблем.
Ivan
Anton
Anton
Ivan
Ivan
или решения от циско/жунипера
Anton
tinc
Сейчас исполюзуется, однопоточный, в условиях частых потерь, не востанавливается
Ivan
ну тогда либо свои костыли
Ivan
либо https://www.cisco.com/c/en/us/products/security/dynamic-multipoint-vpn-dmvpn/index.html
Anton
А чем оно лучше StrongSWAN/ OpenVPN без VyOS?
Anton
какойто *SWAN тестили Libre/Open/Strong в сравнении с tinc у него был пинг выше
Anton
Если отказаться от Mesh - думаю попробовать OpenVPN + LDAP
sherzod
Кто-нить сталкивался с такой проблемой:
minikube version: v0.24.1
kernel: 4.14.6-1-default #1 SMP PREEMPT
Docker Version: 17.09.1-ce
невозможно никак убить контейнеры, тупо висят, ни под рутом ни под кем. ни стопнуть, ни кильнуть не даёт (permission denied)
Maksim
Maksim
смысл в версии ядра? ЧТо за дистрибутив?
sherzod
Смысл дистрибутива???) OpenSuse
Maksim
Потому что проблемы прав это не проблемы ядра.
sherzod
а понял. имеется в виду apparmor или selinux
sherzod
отключены
Maksim
ядро 4.14 есть как у Фидоры так и Убнты, а тамюзер спейс построен не так
sherzod
Я просто ориентировался на это https://github.com/moby/moby/issues/19030
sherzod
подозреваю что это не проблема прав, так как нельзя убить под рутом
neb0t
у кубернетис ноды должны быть в изолированой подсети или можно использовать также белый ИР?
Maksim
neb0t
как хочешь
спс! буду пробовать на внешний вешать
G72K
G72K
Что ж вы в ipv6 мире делать будете?
Maksim