Denis
Значит ждём скоро активности в https://telegram.me/rkt_ru
Dmi3y
Так волнами ж. Народ набегает - народ убегает
Alexander
Rkt лучше потому что проще и меньше зависимостей
Alexander
и там ещё есть режим rkt fly, который без systemd-nsspawn, а просто как chroot, например, если у нас много baremetal-нод и нет необходимости что-то как-то разграчивать , у докера такого, кажется, нет
Alexander
https://coreos.com/rkt/docs/latest/running-fly-stage1.html
Dmi3y
У докера есть какие-то system containers, которые можно наблюдать в Fedora Atomic Host
Dmi3y
Сейчас дам ссылку
Dmi3y
Ладно, у меня поубавилось уверенности в том, что это относится именно к докеру
Dmi3y
https://www.projectatomic.io/blog/2016/09/intro-to-system-containers/
Dmi3y
Суть в том, что местные рулят ими той же утилитой atomic, которой они рулят докером
Vadim
пока просто из любопытства. кто-нибудь пробовал сборку kubernates от canonical? оно по правильному работает или так, для новичков чтобы по простому?
Vadim
про это: https://www.ubuntu.com/cloud/kubernetes
Sn00part
у каноникал все работает через назад
Sn00part
как начали с еукалипта
Sn00part
каноникал это бизнесмены с альтернативным взглядом на мир
Sn00part
они хотят сделать лучше, чем у всех и по-другому
Sn00part
а получается как обычно
Sn00part
juju один чего стоит
Sn00part
happy fucking new year folks
Alexander
Alexander
присоединяюсь
Zon
В этом году нас ждет 1.6, 1.7 и вроде даже 1.8 :)
Anonymous
Планируем четыре релиза, по одному в квартал
Logan
это радует. А планируете дать возможность использовать разные базы для мониторинга?
Logan
и поддержку lxc
Anonymous
и поддержку lxc
Не слышал о таких планах, но если и будет, то это будет инициатива Canonical :)
Logan
ну CNI уже есть. Только оно в альфа
Anonymous
CNI есть, но каким боком он к LXC? LXC - это к CRI
Zon
Мне интересно, как будет rkt vs docker, насколько оно того стоило
Anonymous
Конкуренция и разнообразие точно на пользу)
Logan
да, прошу прощения, CRI
Etki
https://www.distelli.com а этой штукой кто-нибудь пользовался?
Gleb
Вопрос. А кто какой вариант с сетью для выдачи external ip использует в своих self hosted решениях с кубером?
Anonymous
https://github.com/Mirantis/k8s-externalipcontroller
Anonymous
> @etkee а этой штукой кто-нибудь пользовался? попробуй, расскажешь
Etki
D:
kay
https://www.youtube.com/watch?v=BcjkUvaIdAg
Anonymous
ахаха, как ты четко щас описал то чем на канале этом занимаемся :)
Anonymous
вопрос к тем у кого на aws крутится - чем деплоить щас актуальнее кластер?
Anonymous
kube-aws?
Anonymous
kops?
Anonymous
Формально оба варианта подходят)
Anonymous
у меня проблема: я получил аккаунт в китайском амазоне, и там нет некоторых вещей на которые опираются эти модные скрипты (kube-aws хочет kms а там такого нет, kops не умеет зону cn и тп) если идти по kubernetes hard way то там некоторых нужных вещей мне нет (балансировщик, явно заточен на обучение а не на продакшн) что посоветуете? :)
Zon
@vkfont https://github.com/kubernetes/charts/pull/349#issuecomment-270519468 говорят можно в стейбл. Ты уже проверял?
Anonymous
я до 1.5.1 не обновился еще на гугле... после праздников хочу заняться, сори
Zon
А, сорри, праздники :) я тут про них забываю :)
Stanislav
@kalevas явился =)
Aleksey
Gleb
https://github.com/Mirantis/k8s-externalipcontroller
Так и не удалось завести это дело.
Gleb
Уперся в то, что сервер реджектит запрос от контроллера на создание адреса на интерфейсе
Gleb
Кто-нибудь решил это?
Gleb
I0105 15:10:17.770171 1 reflector.go:284] github.com/Mirantis/k8s-externalipcontroller/vendor/k8s.io/client-go/1.5/tools/cache/reflector.go:109: forcing resync I0105 15:10:17.770487 1 controller.go:110] Received update event. Old ipclaim 172-24-26-28-24 - , New ipclaim 172-24-26-28-24 - -4959 I0105 15:10:17.770535 1 controller.go:110] Received update event. Old ipclaim 172-24-26-30-24 - , New ipclaim 172-24-26-30-24 - -4962 I0105 15:10:17.770604 1 controller.go:142] Processing claim 172.24.26.28/24 with node and uid kube002 I0105 15:10:17.770660 1 netutils.go:135] Removing addr 172.24.26.28/24 from link eth0 I0105 15:10:17.771749 1 controller.go:142] Processing claim 172.24.26.30/24 with node and uid kube002 I0105 15:10:17.771767 1 netutils.go:135] Removing addr 172.24.26.30/24 from link eth0 E0105 15:10:18.241981 1 controller.go:166] Error creating node kube002: the server rejected our request due to an error in our request (post ipnodes.ipcontroller.ext) E0105 15:10:18.742517 1 controller.go:166] Error creating node kube002: the server rejected our request due to an error in our request (post ipnodes.ipcontroller.ext) E0105 15:10:19.245324 1 controller.go:166] Error creating node kube002 : the server rejected our request due to an error in our request (post ipnodes.ipcontroller.ext)
Gleb
Каких-то еще сторонних контроллеров я тоже не нашел. Почитал про calico, но там у них не приметил поддержки какой-то выдачи внешних адресов.
Gleb
Как я понял, тут чятег в основном gce/aws пользует для работы с k8s.
Anonymous
Так и не удалось завести это дело.
Заведи багу на гитхабе, посмотрим
Gleb
Хорошо, в ближайшее время сделаю. Спасибо
Anonymous
А что и как мы хуярите?
Anonymous
*вы
Igor
@xSTASiANx мы не используем NAT и ExternalIP routing, врядли смогу помочь с пробросом траффика до NAT
Stanislav
https://twitter.com/nixcraft/status/816358052823601152
Anonymous
:D
Anonymous
@takama так а что у вас? (безотносительно исходного вопроса)
Igor
private cloud, real IPs
Igor
Что касается балансинга - перед k8s стоит HAProxy на внешний траффик
Gleb
Что касается балансинга - перед k8s стоит HAProxy на внешний траффик
Т.е. вы создаете поды и отслеживаете у себя какие порты им выдались и накручиваете где-то сверху HAproxy?
Igor
Все внутренние сервисы ходят на 443/tcp, но через HAProxy по acl
Igor
Схемы две: 1. service-name.domain:443 2. domain:443/service-name
Gleb
Сама HAproxy деплоится там же на k8s или же на отдельных серверах с public ips?
Igor
На отдельных серверах
Igor
У подов не важно какой порт, в конечном счете у них у всех exposed 443 через Ingress
Gleb
А, т.е. у каждого пода ingress является точкой входа.
Igor
да
Gleb
А как haproxy сообщаете, что новый под поднялся? Через что-то самописное или chef/ansible?
Igor
только не у каждого пода, а у каждого сервиса
Igor
По схеме domain:443/service-name у HAProxy никаких изменений не делается
Gleb
А изоляция сервисов посредством calico?