Pavel
там есть красивый ./hack/local-up-cluster.sh
Только так смог завестись у меня локально
Anton
по etcd - v3 snapshot достаточно для бэкапа? сужу по опции apiserver --storage-backend=etcd3
Sergei
Господа, никто не сталкивался с тем, что k8s отказывается маунтить PVC в mountPath, который совпадает с VOLUME в докерфайле?
𝚔𝚟𝚊𝚙𝚜
Блин новый ранчер 2.0, ваще бомба!
𝚔𝚟𝚊𝚙𝚜
поскорей бы релиз
Logan
а он живой вообще?
Terry
ток ребята поспешили
Terry
а потом одумались
Alexey
он теперь на кубернетес перепрофилировался
Logan
а это не их майкрософт недавно выкупил?
Oleksandr
вроде как самостоятельные были
Logan
точно
Logan
спасибо
𝚔𝚟𝚊𝚙𝚜
еще прикольно что его теперь можно просто как вебморду использовать для уже установленного kubernetes
𝚔𝚟𝚊𝚙𝚜
но вообще устанавливается проще чем kubeadm и деплоит куб 1.7.6 из коробки
Anton
еще один openshift?
Oleksandr
гуи для управления контейнерами
bebebe
оффтопик: где можно бесплатно и на века захостить контйнер у которого будет открыт udp из нутри, и возможность обратиться к нему снаружи?
bebebe
heroku отпал из-за udp
Alexey
бесплатно вообще ничего нормального не бывает, в лучшем случае временное
bebebe
https://www.openshift.com/pricing/index.html позволяют например
Andrii
GCP предоставляет бесплатный micro сервер. Можно там поднять https://cloud.google.com/free/ Правда надо за трафиком сдедить
Alexey
aws тоже бесплатный на год может быть, но это не "на века", и за трафик и диск правда всё равно платить
bebebe
трафик шуточный, мне нужно с rtsp который по udp работает ffmpeg'ом снять скриншот и nginx'ом его раздать с cache-policy: never
Oleg
kompose созрел?
Maksim
А он зрел?
Oleg
я не знаю. Потому и спрашиваю
Ihor
Господа, есть у кого опыт использования rancher + kuber в проде?
Maksim
А почему плюс? Rancher и есть кубер
Etki
Что
Ihor
Rancher так же может быть и сворм и месос.
Ihor
А почему плюс? Rancher и есть кубер
Vitalii
когда ещё год назад смотрел их доклад с одной из конференций, подумал, что они психи - делать банк на кубере https://community.monzo.com/t/current-account-payments-may-fail-major-outage/26296/95
Vitalii
из доклада я помню про все бэкенды и вроде vault. На ютюбе их легко найти. И тех. блог где-то был
Vitalii
насчёт бд непонятно. Может амазоновские юзают
Logan
восхищен их смелостью
Anton
это оч любопытно, если правильно понял тут https://github.com/kubernetes/kubernetes/issues/47131 собираются поднять версию клиента etcd в k8s
Anton
как страшно жить, я думал было к версии 1.8 все уже отточено
G72K
ну я надеюсь обновят везде: 1.6, 1.7, 1.8
Anton
по поводу --profiling, который по умолчанию true. в kubespray его отключают, ссылаясь на рекомендации по безопасности https://github.com/kubernetes-incubator/kubespray/commit/d487b2f927965782f45f1f8ddfcce11f52dac9c6 насколько стремно включенный профайлинг держать для мастер компонент в проде?
G72K
доступ к /debug/pprof через RBAC идет, зачем отключать
Anton
даже опции не предусмотрено в kubespray для включения =\
G72K
а kubespray разве устанавливать надо? мне казалось там просто git clone
Anton
ну его опции можно\нужно менять
Anton
инвентори как минимум свой
G72K
Ну раз git clone, то можно свои правки вносить везде и просто подтягивать обновления с git merge. Это я к тому, что делать опцию на каждый флаг непрактично
Роман
доступ к /debug/pprof через RBAC идет, зачем отключать
А где поподробней про профайлинг почитать?
Anton
Ну раз git clone, то можно свои правки вносить везде и просто подтягивать обновления с git merge. Это я к тому, что делать опцию на каждый флаг непрактично
там куча ролей с опциями по дефолту практически на все случаи жизни =) проверил, можно через apiserver_custom_flags, controller_mgr_custom_flags и scheduler_custom_flags перезадать ключ, в конец списка добавляется, просто добавив --profiling=true
Anton
А где поподробней про профайлинг почитать?
что то в /debug/pprof чет слишком много всего. это что то программерское. нужно понимать как компоненты внутри устроены
𝚔𝚟𝚊𝚙𝚜
здесь есть извращенцы такие как я, кто kubernetes внутри lxc-контейнера запускал?
𝚔𝚟𝚊𝚙𝚜
lxc.apparmor.profile: unconfined lxc.cgroup.devices.allow: a lxc.cap.drop: lxc.mount.auto: proc:rw sys:rwС таким конфигом запускается, но хочется по максимуму его в правах урезать
Andrey
отпишешь получилось ли
фиг там, не поставился даже сам k8s, скрипт инсталяции - http://paste.openstack.org/show/625190/ ошибка: fatal: [master]: FAILED! => {"changed": true, "cmd": "/usr/local/bin/kubectl get secrets -o custom-columns=name:{.metadata.name} --no-headers | grep -m1 default-token", "delta": "0:00:00.173465", "end": "2017-11-01 09:42:27.087856", "failed": true, "msg": "non-zero return code", "rc": 1, "start": "2017-11-01 09:42:26.914391", "stderr": "", "stderr_lines": [], "stdout": "", "stdout_lines": []}
Anton
оффтоп: кто нить logentries linux agent запускает внутри k8s\docker container? он похоже в бэкграунд отправляет процесс, в итоге pid 1 дохнет и контейнер сворачивается.
Anton
он на python написан, https://github.com/rapid7/le/blob/master/src/le.py#L3115 похоже что можно его не в режиме демона запускать и будет норм
Ihor
Подскажите пожалйуста, хочу развернуть HA кластер, есть 3 сервера на каждом по мастеру,etcd и ноде. Как я понял если разворачивать через kubespray, то нужно отдельно ещё иметь load balancer? Буду очень признателен если кто-то обьяснит как правильно сделать HA.
Anton
HA для которого из компонент?
Ihor
Я так понимаю для мастера.
Ihor
Собственно задача в том, чтобы если одна жилезка умрет - поды продолжали жить.
Anton
мастер компоненты тычут в 127.1 для общения с apiserver
Ihor
Нет, но все имеют публичный ip
Mikhail [azalio]
𝚔𝚟𝚊𝚙𝚜
Нет, но все имеют публичный ip
Тогда как Anton сказал - думаю будет лучшее решение)
Anton
мастер компоненты тычут в 127.1 для общения с apiserver
и kubelet тоже общается через 127.1 внутри для общения с apiserver используется kubernetes.svc.default, которая может содержать массу endpoints, зависит от опции apiserver --apiserver-count кажется
𝚔𝚟𝚊𝚙𝚜
Keepalived вычеркиваем
А разве он не на L3 работает?
Anton
почему кстати keepalived вычеркиваем?
𝚔𝚟𝚊𝚙𝚜
В чем тогда его преимущество перед CLUSTER-IP?
Anton
Keepalived вычеркиваем
а, в том плане, что если нода себе адрес заберет, не факт что вообще к ней трафик для этого ip будет роутится
Anton
Нет, но все имеют публичный ip
так HA для мастера типа из коробки есть для внутренних клиентов
Mikhail [azalio]
А разве он не на L3 работает?
Мне почему-то казалось должна быть l2 связность. Нет?