Sergey
Ну делать доступ к контейнеру через нат это мего решение
Sergey
Когда говорите от докере
Sergey
Не надо отождествлять
Sergey
Да и никто не мешает в нутрь контейнера интерфейс прокинуть
Ivan
отождествлять с чем? мы же говорим о докер контейнерах
Sergey
Ну вы написали когда говоришь о контейнерах
Sergey
Я уточнил что о докер
Ivan
я просто не понимаю о каких еще контейнерах речь? о Linux Containers?
Sergey
У меня был кейс когда контейнер апался без сети и уже через сетевой немспейс ему вовнутрь прикидывался интерфейс
Sergey
Lxc lxd proto тыщи их
Sergey
И это все линукс контейнера
Sergey
Ибо контейнер это линуховый неймспейс и сгруппы для рулежки ресурсов
Ivan
Sergey
Ip утилита
Sergey
Она умеет с сетевым неймспейсом работать
Sergey
pipwork есть на баше утилита
Sergey
От одного из разрабов докера кстати
Sergey
https://github.com/jpetazzo/pipework
Ivan
спасибо! посмотрю
Sergey
Да нет за что
Anonymous
Deis Workflow v2.18 will arrive in September 2017 as the last official monthly release. After that, maintainers will accept critical fixes only for six months.
первое правило опенсорса: не продаваться микрософт :)
Sergey
Это откуда !
bebebe
Anonymous
ага, похоронили deis
Logan
хватит :)
Anonymous
я в отпуске был :)
Andrei
Всем продуктивного дня! Есть вопрос: нормально ли будет работать куб, если worker ноды будут diskless и не будут сохранять никаких данных между перезагрузками?
Maksim
А хранить image от докера где собираешься?
Maksim
В принципе собрать такое можно, уведя docker-storage в сеть
Logan
Andrei
Хранится все на мастер нодах
Andrei
Diskless при включении все заново подтягивают
Logan
𝚔𝚟𝚊𝚙𝚜
Andrei
Andrei
Мастер ноды дисковые, если что
Maksim
𝚔𝚟𝚊𝚙𝚜
Пробовал через kubeadm, после второго раза удаления/добавления ноды лагает
𝚔𝚟𝚊𝚙𝚜
так что лучше не через него)
𝚔𝚟𝚊𝚙𝚜
хотя может пофиксили уже
Denis
А кто нибудь дружил fluentd и логи где есть сообщения больше 16K, которые режутся докером?
Andrei
Да меня в этой задаче и fleet устроил бы полностью, пока я не увидел что он deprecated. Ибо куб тут, как из пушки по воробьям
Vitalii
root будет на tmpfs, готовьте память под докер образы
Vitalii
У нас некоторые ноды так работают, но мы постепенно втыкаем диски, т.к. сложно без дисков бороться с oom killer
Vitalii
У нас root везде на tmpfs, а все данные хранятся в /mnt. Во всем софте на хосте настроено хранение данных там или через bind. Удовольствие с coreos стоит 266mb памяти
Anonymous
http://blog.kubernetes.io/2016/01/simple-leader-election-with-Kubernetes.html?m=1 интересное решение имплементации выбора мастера через сайдкар на основе эксклюзивного занятия ресурса кубера... а кто нибудь более профессиональное и поддерживаемое решение встречал? Хочу попробовать поюзать
Denis
Anonymous
я че-то не нашел репозитория с кодом %)
Denis
я точно находил
Denis
щас
Denis
https://github.com/kubernetes/contrib/tree/master/election
Denis
https://github.com/kubernetes/contrib/blob/master/election/lib/election.go
Denis
просто использует Go API для куба
Denis
Повторю вопрос, может кто сталкивался
Denis
А кто нибудь дружил fluentd и логи где есть сообщения больше 16K, которые режутся докером?
Anonymous
G72K
Denis
Это никак с kubectl не связано
Denis
Это просто sidecar приложение
G72K
они втянули код leader eleaction в client-go, я надеялся что дадут к нему доступ из kubectl
Роман
nginx ingress 0.8.3 - указываю ssl-dh-param в виде base64, но почему-то он не реагирует на него. Не релоадится и не подхватываются настройки из конфигмап. Что я делаю не так?
Logan
коллеги, а существует какой-нибудь roadmap на куб 2.0? Обладает кто-то секретным знанием?
Sergey
я знаю человека который знает)
Logan
давайте позовем его сюда и спросим? :)
Sergey
я уже ему написал
Sergey
Ihor is a Program Manager at Mirantis, focused on the Kubernetes-related efforts at open source community. He acts as a Product Manager at Kubernetes community, leading Product Management Special Interest Group with the goals of growing Kubernetes as a #1 open source container orchestration platform.
Sergey
короче если ответит - то гуд
Sergey
он как раз за фичи там отвечает
Igor
Дорогие коллеги!
Интересна ли будет реализация шаблона сервиса на Go, который будет соответствовать требованиям Kubernetes?
Основные возможности:
- Реализация health checks
- Конфигурация через переменные окружения
- Интерфейс для логирования
- Обработка системных сигналов для изящного закрытия сервиса или перехода на обслуживание
- простейший CI/CD через команды make
- Helm charts для релиза сервиса
- Поддержка SSL сертификатов для клиента
- настроенный менеджер пакетов dep
- Автоматизированное версионирование
Подробнее здесь https://github.com/takama/k8sapp
Dmitry
Вполне! Но на счет нужности ssl я бы поспорил. Все ж внутри клястера гонять ssl мне кажется лишнее.. это задача ингрессов
Dmitry
хотя я могу и заблуждаться
Igor
Есть одна штука в Go клиенте, если надо сходить на https куда-либо, то без корневого сертификата никак
Igor
обычно в Alpine image ставим сертификат, но когда надо FROM scratch - не всё очевидно
Igor
Возможно, что многие даже не замечают, что нужен сертификат когда используют Go клиент с обращениями по https. Так как запускают приложение из OS где уже установлены сертификаты в /etc/ssl/certs/
No1
Или сами генерируют на старте)