Maksim
Ты его сделаешь Read-write many и несколько подов смогут в него писать
Maksim
но для БД так делать не стоит, потеряешь консистентность данных и БД умрёт
Pasha Chalyk
мне надо это дело автоматом получать, виртуалки мы нарезаем, поверх них кубеспреем ставим кубер и дальше вот надо pvc наконфигурячить, чтоб девелопер только деплоймент своего суперскейлебл приложения запускал)
Maksim
ну тогда делай storageclass с sds
Maksim
под "локально" я понимаю разворот кластера в каком нить виртулбоксе-)
Maksim
не знаю как остальные,а сеф можно развернуть кубером-)
Anton
как прокинуть переменную окружения с одного контейнера в другой (в пределах пода)?
Mikhail [azalio]
заюзать конфиг мап например?
Anton
то есть я могу создать конфиг мап, который будет описывать переменную окружения, в которую я могу записать в init container, а считать в другом контейнере?
Anton
не совсем понятно, как именно будет производиться запись в нее из первого контейнера
Maksim
как прокинуть переменную окружения с одного контейнера в другой (в пределах пода)?
никак, у них разные ns исполнения, в одном поде у контейнеров общие: сеть и волюмы. Так что через внешние тулзы
Maksim
например повесить переменну на localhost и дёргать
Anton
вот как писать?
Maksim
вот как писать?
через api вызов-)
Anton
как-то прохладно звучит
Mikhail [azalio]
ну или kubectl bla-bla-bla...
Anton
делать api вызов из пода это то еще веселье
Maksim
ну или kubectl bla-bla-bla...
что не сильно то отличается, kubectl так же работает через API -)
Mikhail [azalio]
ага )
Maksim
делать api вызов из пода это то еще веселье
почему же?-) юзаешь сервис аккаунт и всё тут
Mikhail [azalio]
ну поды разные, ns разные,
Maksim
ну поды разные, ns разные,
не поды контейнеры..
Anton
нет, под то как раз один
Anton
> у них разные ns исполнения имеется ввиду linux namespace?
Mikhail [azalio]
я почему-то думал что к контейнеров в пределах одного Пода NS одинаковые
Maksim
хотя с последними там то же не всё так просто. -)
Max
Прогоняли мемтест в течении суток. Нет проблем с памятью. Запустили диагностику дисков, но чето ощущение что и там чисто будет. Может таки кто нибудь поделится версиями компонент стабильных продакшен кластеров? 🙏🏻
Коллеги, мы продолжаем исследовать проблему рестартующих нод. Прогнали стресстесты, тесты памяти и дисков, никаких проблем с железом не выявлено. Из различий с непадающим продом кроме железа: - версия докера (на непадающем проде 1.13.1, на падающем тестинге 17.0.3.2) - версия ядра (prod: 4.10.0-32-generic testing: 4.10.0-40-generic) Поделитесь плз проверенной в бою на нагрузке версией докера? Мб кто то использует в проде cri-o ?
Anton
вот volume как бы может быть основан на конфиг мапе, а наоборот может быть?
Anton
ну то есть я в одном контейнере что-то написал в файл, и при этом у меня есть какой-то конфигмап, который мапит этот файл в значения, которые я уже подтягиваю в env
sherzod
Подскажите такая ситуация: есть образы в gcloud есть minikube локальный поднимаю deployment при всех скачанных образах, то есть локально они закешированы, но кубер всё равно пытается их пуллить, и, конечно, натыкается на аутентификацию как сделать чтобы не пуллил?
sherzod
ну вот. спросил, потом нагуглил)) imagePullPolicy: IfNotPresent
Mikhail [azalio]
👍
Anton
Лоад-балансер, нормально обслуживает постоянные подключения?
sherzod
ну то есть я в одном контейнере что-то написал в файл, и при этом у меня есть какой-то конфигмап, который мапит этот файл в значения, которые я уже подтягиваю в env
Вряд ли. Это как-то противоречит идеологии, будет странно если рантайм начнёт менять настройки кластера. Но это просто моё мнение.
Anton
Клиенты соединяются к сервису, и висят продолжительное время
Anton
В отличии от http, где подключение, запрос, отключение
sherzod
балансер работает на соединение, после соединения он уже только пересылает трафик
Anton
Ну мне желательно по опыту, не рвутся соединения?
sherzod
а в этом смысле. не подскажу, сам новенький
Anton
Я хочу один сервис запихнуть в кубер с auto scale правилами, интересно при перестроении или в других случаях не теряет ли коннекты
Anton
А еще вопрос, немного не по теме, какое впн решение есть для объединения несколькох ДЦ?
Serega
под лоадбалансером имелся в виду ингресс контролер? он держит коннекты с медленными клиентами согласно выставленным кипалайв таймаутам, а на бекенды проксирование уже обычно без кипалайва. Но можно и персистент, тоже не вижу проблем.
Anton
Ivan
или решения от циско/жунипера
Anton
tinc
Сейчас исполюзуется, однопоточный, в условиях частых потерь, не востанавливается
Ivan
ну тогда либо свои костыли
Ivan
либо https://www.cisco.com/c/en/us/products/security/dynamic-multipoint-vpn-dmvpn/index.html
Anton
ну тогда либо свои костыли
Эх, на циско завязыватся не хочется
Anton
А чем оно лучше StrongSWAN/ OpenVPN без VyOS?
Anton
какойто *SWAN тестили Libre/Open/Strong в сравнении с tinc у него был пинг выше
Anton
Если отказаться от Mesh - думаю попробовать OpenVPN + LDAP
sherzod
Кто-нить сталкивался с такой проблемой: minikube version: v0.24.1 kernel: 4.14.6-1-default #1 SMP PREEMPT Docker Version: 17.09.1-ce невозможно никак убить контейнеры, тупо висят, ни под рутом ни под кем. ни стопнуть, ни кильнуть не даёт (permission denied)
Maksim
вот volume как бы может быть основан на конфиг мапе, а наоборот может быть?
Конфигмап это не фаил в контейнере, это фаил в etcd
Maksim
смысл в версии ядра? ЧТо за дистрибутив?
sherzod
Смысл дистрибутива???) OpenSuse
Maksim
Потому что проблемы прав это не проблемы ядра.
sherzod
а понял. имеется в виду apparmor или selinux
sherzod
отключены
Maksim
ядро 4.14 есть как у Фидоры так и Убнты, а тамюзер спейс построен не так
sherzod
Я просто ориентировался на это https://github.com/moby/moby/issues/19030
sherzod
подозреваю что это не проблема прав, так как нельзя убить под рутом
neb0t
у кубернетис ноды должны быть в изолированой подсети или можно использовать также белый ИР?
neb0t
как хочешь
спс! буду пробовать на внешний вешать
G72K
ну то есть я в одном контейнере что-то написал в файл, и при этом у меня есть какой-то конфигмап, который мапит этот файл в значения, которые я уже подтягиваю в env
Даже если бы магия по подтягиванию файла в конфигмап заработала, env переменные нельзя обновлять для запущенного процесса динамически, без хаков с gdb. И это не ограничение куба на этот раз.
Maksim
спс! буду пробовать на внешний вешать
ну чем больше серверов с белым ip тем не безопасней система
G72K
Что ж вы в ipv6 мире делать будете?
Maksim
Хера себе
Так считают наши безы-)