Ivan
по поводу cron-подобной функциональности - в 1.4 должна быть альфа-поддержка Scheduled Jobs https://github.com/kubernetes/features/issues/19
Alexander
да, я видел))) ждемс с нетерпением
M
кто-нибудь использует elk из contrib ? как вы запускаете fluent?
Maxim
коллеги, а ни у кого CNI over Weave не отвалился при обновлении на k8s-1.3.5?
Maxim
на 1.2.2 - 1.3.4 все ок обновляюсь на 1.3.5 и при попытке запустить любой под вижу в евентах: Sync {kubelet 10.83.8.200} Error syncing pod, skipping: failed to "SetupNetwork" for "nginx-2032906785-i2qf2_default" with SetupNetworkError: "Fai led to setup network for pod \"nginx-2032906785-i2qf2_default(c85b3699-60ac-11e6-beb6-002590d2b7e9)\" using network plugins \"cni\": could not find \".\" plugin; Skipping pod"
Ivan
зависит от того, как развёрнут кластер. наблюдал похожую проблему с calico из-за /opt/cni в hyperkube image
Maxim
kubelet'ы бегут отдельными бинарями на хостах с ... --config=/etc/kubernetes/manifests --network-plugin=cni --network-plugin-dir=/etc/cni/net.d ... все остальные компоненты запускаются кьюблетами в контейнерах по манифестам в /etc/kubernetes/manifests
Maxim
bare metal
Maxim
ubuntu
Ivan
что в /opt/cni на хостах?
Ivan
https://github.com/coreos/coreos-kubernetes/issues/600 (тут правда kubelet в контейнере)
Maxim
# tree /opt/cni/ /opt/cni/ └── bin ├── weave-ipam └── weave-net
Maxim
weave-1.6.0
Maxim
проблемы только с k8s-1.3.5
Maxim
воспроизводимость стопроцентная
Maxim
возвращаемся на 1.3.4 - и все начинает работать как надо
Ivan
@pipopolam не, с ходу не подскажу, наверное :( можно попробовать issue создать
Алексей
@pipopolam а CNI какой версии?
Maxim
@Ai_boy не совсем понял вопрос
Алексей
@pipopolam в cluster/images/hyperkube/Makefile CNI_RELEASE что прописанно?
Maxim
аэы, я не пользуюсь kube-up
Maxim
https://github.com/evilmartians/chef-kubernetes/blob/master/recipes/default.rb
Maxim
манифесты в /etc/kubernetes/manifests/ накидал и запускаю kubelet
Maxim
@Ai_boy перерыл все контейнеры, нигде ничего похожего не нашел
Maxim
а, стоп
Maxim
у меня ж hyperkube
Maxim
оно там уже с собой
Maxim
# docker exec -it 5d8ce62ee880 ls -al /opt/cni/bin total 45112 drwxr-xr-x 2 root root 4096 May 4 23:18 . drwxr-xr-x 3 root root 4096 Aug 1 16:56 .. -rwxr-xr-x 1 root root 4796256 May 4 23:18 bridge -rwxr-xr-x 1 root root 3550760 May 3 23:10 cnitool -rwxr-xr-x 1 root root 10344136 May 3 23:10 dhcp -rwxr-xr-x 1 root root 3595728 May 3 23:10 flannel -rwxr-xr-x 1 root root 3788744 May 3 23:10 host-local -rwxr-xr-x 1 root root 4214960 May 4 23:18 ipvlan -rwxr-xr-x 1 root root 3502784 May 3 23:10 loopback -rwxr-xr-x 1 root root 4226536 May 4 23:18 macvlan -rwxr-xr-x 1 root root 4791288 May 4 23:18 ptp -rwxr-xr-x 1 root root 3362616 May 3 23:10 tuning
Ivan
там как раз weave не хватает
Maxim
Ну его там никогда и не было
Maxim
Посмотрел штук пять релизов
Maxim
Набор файлов одинаковый
Ayrat
▫️Какой у вас проект или где работаете? K8s on Openstack (Mirano, Magnum) ▫️В чём вы специалист? Openstack, K8s, docker,linux и т.д. немного js, node.js ▫️Чем можете быть интересны или полезны сообществу? Sig Openstack K8s, Организатор K8s и Openstack митаопов, презентую на Summitах, делюсь своим опытом ▫️Чем интересно сообщество вам? есть интререс k8s ▫️Откуда вы? Монреаль ▫️Как узнали про группу? Через Иван Шедунова #whois
Alexander
как погодка в Монреале?
Ayrat
Настало время систематизации коммуникации в группе @devops_ru и как один из шагов - выделение общения по специфичным, но важным инструментам.
На днях игрался c Minikube - Позволяет ранить кубернитес на лаптопе. (All-in-One) рекомендую если кто еще не пробовал https://github.com/kubernetes/minikube
Ivan
с minikube единственная заморочка в том, что он слабо применим для ковыряния самого kubernetes’а
Ivan
(ну, не единственная, скорее для меня самая заметная)
Denis
Но для локального тестирования на dev-окружении вполне приемлим?
Ivan
это само собой
Ivan
рекомендуемый вариант
Denis
Это необходимо, потому что в жизни со всей сложностью конфигураций необходимо это всё проверять. Можно конечно в рамках отдельного namespace, но это слабомасштабируемо в большой команде. А вот локальная версия как раз то, что нужно - BGD, rollback и тд
Denis
А кто как организовал хранение секретов? В GitHub repo? Или что-то вроде Vault используете от HashiCorp?
Denis
https://www.vaultproject.io
Maxim
у нас пока что в репе
Maxim
прятать не от кого
Maxim
кстати
Maxim
а как сейчас модно etcd бэкапить?
M
а как сейчас модно etcd бэкапить?
Не доверяешь кластеру?)
M
+ etcdctl backup иногда
Maxim
etcdctl backup - это же только для v2?
Maxim
а кто-нибудь уже перешел с v2 на v3?
Anonymous
А кто как организовал хранение секретов? В GitHub repo? Или что-то вроде Vault используете от HashiCorp?
гитхаб + gpg. Распаковка админским ключем при доставке на целевую машину
Alexander
это прямо в Поде (в контейнере) осуществляется? Или перед деплоем ноды? мы храним пока в Secrets, которые хранятся в приватном репозитории. Деплой на кластер через kubectl. Подключаем либо в качестве монтируемого вольюма, либо напрямую в переменные окружения (все зависит от применимости, например ключи к приватным registry монтируем KubernetesSecrets -> файлы с ключами)
Maxim
а вы какую проблему-то решаете?
Maxim
от кого вы прячете secret'ы?
Alexander
у нас все проще - у нас вся конфигурация во внешку не выходит, нам не надо прятать. в Secrets храним данные для Oauth, пароли, токены к API
Maxim
а что значит "вся конфигурация во внешку не выходит"?
Maxim
(простите, я не очень умный :( )
Alexander
репозиторий с настройками Kubernetes приватный, хранить секреты отдельно нет смысла, как и использовать Vault или какое-то шифрование
Maxim
аааа
Maxim
ну вот я об этом и спрашивал там выше
Alexander
Поэтому нам лично достаточно базовой функциональности
Maxim
в данном-то случае все эти vault'ы нужны только когда от других коллег их прятать надо
Alexander
просто механизм Secrets и его монтирование в переменные окружения/вольюмы довольно прикольный и удобнй
Alexander
да, верно
Maxim
и при этом еще как-то надо запретить тем коллегам делать kubectl get secret supadupasecret -o yaml
Maxim
я читал http://kubernetes.io/docs/admin/authorization, но пока было не надо, поэтому заюзать повода не было
M
Ну те коллеги вероятно совсем не должны иметь возможности использовать kubectl
Maxim
дане, судя по доке можно почти точечно
Maxim
http://kubernetes.io/docs/admin/authorization/#request-payloads
Maxim
например вот
M
Любопытно
M
А кто-нибудь использует ingress на локальной установке без облаков?
M
Вы используете внешние балансировщики или как выводите сервис наружу?
Maxim
у меня kube-dns присутствует в /etc/hosts, и nginx, установленный на фронтенд-хостах, обращается прямо к кубе-сервисам
M
Фронты не в кластере?
Maxim
нет
Maxim
там куча всего не контейнеризировано