Maksim
Ну учитывая что RBAC в namespace заработал только в 1.5
Maksim
)
kay
придется пилить clusterrole
Vitalii
Привет. У кого как работает аутентификация? CSV файлик совсем больно сейчас.
kay
rbac
kay
пилишь сертификаты, в них объявляешь группы через O=groupname subject
Vitalii
Это авторизация)
Vitalii
API server отзыв сертификатов не поддерживает, только перевыпуск intermediate Ca
kay
аутентификация работает в rbac по subject сертификата
kay
это да. всё никак не запилю этот гребаный crl
kay
может поможешь? )
Vitalii
Мне нужно коллег аутентифицировать, желательно через лдап...
kay
тогда openshift https://docs.openshift.com/enterprise/3.1/install_config/syncing_groups_with_ldap.html
Vitalii
Слаб я в golang:) Щас с горя пытался накатать прокси сервер с лдап аутентификацией, и сломался на вебсокетах
Vitalii
В чате 500+ человек. Я надеюсь есть люди не с openshift и gke)
G72K
Vitalii
dex
он из коробки работает? пользователь в веб-интерфейсе dex логинится через лдап и получает токен для kubectl?
я пару месяцев назад пробовал и не осилил. Там нужен был отдельный севрер с example-app и т.д.
Vitalii
ещё хочется обычный http basic, чтобы в дашборд ходить
bebebe
хм, если ставить каргой k8s, то там это есть из коробки
bebebe
только не лдап, хотя вроде не так сложно его прикрутить
Vitalii
пойду перечитаю dex...
bebebe
ну как не надо, там из коробки PR висит что бы dashboard: true отрабатывал :)
но в общем случае да
bebebe
кстати, тут есть люди которую каргу используют?
Olsen
ололо, а много здесь тех, кому сейчас скучно?
Dmitry
Anonymous
видимо, у человека кластер не собирается
Dmitry
Я тут три дня убил на очередные заигрывания с k8s и, честно говоря, не очень понимаю, почему люди его используют на bare metal/в public cloud
Dmitry
Гемороя с "собиранием" же немерено
G72K
в public cloud норм
Dmitry
Когда какой-нибудь swarm mode заводится с полпинка двумя командами у k8s сплошные приключения: kubeadm в альфе и не для прода, network-плагины полусырые и отданы на аутсорс
G72K
какая беда?
Dmitry
А наа weave пальцем лучше не показывать, его жор CPU и почти полное отсутствие документации радует
Konstantin
а причем тут k8s?
Dmitry
Я сейчас не говорю про GCE/AWS, где есть VPC и все в шоколаде
G72K
Dmitry
G72K
ну AWS вполне себе public cloud :)
Dmitry
k8s там - просто рай на земле. Наверное.
Dmitry
А говоря public cloud я имею ввиду что-то вроде DigitalOcean.
Dmitry
Или, в условиях нашей великой страны, что-то еще более бюджетное
Olsen
Dmitry
А вообще я не понимаю, как ж так вышло то, что на голой чистой убунте (с последним/1.12 докером) kubeadm + calico (по официальному мануалу http://docs.projectcalico.org/v2.3/getting-started/kubernetes/installation/hosted/kubeadm/) не взлетают
Olsen
https://blog.sonm.io/join-test-alpha-b4f999105fef
мне интересно что будет если эту сырую пре-альфу чуток глючащего образа для докера дать тем у кого кластеры на кор-осе постоянно под рукой =)
Dmitry
Dmitry
И соответственно никакого connectivity нет в помине
Dmitry
Konstantin
DO под k8s лучшне не использовать
Konstantin
У нас были проблемы с сетью и артефакты вылазили не понятные. Используем для разворачивания kargo и сейчас переехали на свое железо
Dmitry
Konstantin
k8s + flannel + ubuntu 16 + kargo
Dmitry
Лично у меня kargo ни разу нормально не отработал. Ни на конфигурации из трех нод, ни даже на одной
Konstantin
было пару issue, но они быстро прикрыли
Konstantin
Docker 1.13
Dmitry
И вообще мне кажется, что kargo творит слишком много магии для продакшена. И как troubleshoot'ить это потом при случае вообще не понятно
Dmitry
А запускать эту штуку на production-кластере под нагрузкой страшно втройне
Konstantin
Сейчас не скажу, но раньше точно использовали какой-то тэг
Konstantin
Там же ansible все читается
Dmitry
Читается. Но блин это хуже php
Dmitry
Ох, ладно. Моя боль так и останется моей. Просто я не понимаю, зачем нужно столько костылей.
Буквально вчера поднимал кластер from scratch. Все шло идеально ровно до момента kube-dns и настройки сети
Dmitry
Когда документация вдруг резко закончилась
Konstantin
С докой беда, только гуглить и самому разбираться. Ну и может в доку, что-то законтребьютить)
Dmitry
Казалось бы все очевидно: запихни переменные в шаблон, kubectl apply -f *.yml и готово
Dmitry
Но нет, не поднимается. Притом членораздельных ошибок тоже не вываливает
Dmitry
Ну и как с этим жить? А главное зачем?
Dmitry
А самое "прекрасное" то, что даже Rancher заводит k8s через раз
Dmitry
А в случае с разделением control plane и compute plane так вообще не заработало
Dmitry
И блин, это только самое начало. С разверткой k8s сталкиваются сотни человек как минимум. Где адекватные туториалы? Такое ощущение, что все живут либо в GCE/AWS, либо на bare metal с tectonic/еще чем-нибудь
Dmitry
И почему черт подери у команды докера получилось все свести до элементарных docker swarm init + docker swarm join? Почему у них нормально и быстро работает сетка и есть опциональный ipsec из коробки? Multimaster, raft, ingress все дела...
Logan
Dmitry
Dmitry
И такое ощущение, что ничего с тех пор не поменялось