Alexey
Они божественны :)
Zon
Хотя если очень хочется можно в base64 и в переменную, но это прям на любителя
Alexey
Тоже об этом думал, но это для любителей неизведанного, как по мне.
Konstantin
Ну так в докее есть же secrets/configs
Konstantin
Alexey
@nodekra Был чистый докер, там решалось всё просто, ибо был байнд на хосты и весь деплой происходил через паппет. Потом ранчер, который сейчас развернут на новой инфру и который я полировал месяца 3. Но с ним у меня любовь и ненависть в одном флаконе. k8s у меня чисто на своих машинках для интереса. Слишком много вакансий, которые требуют его)
Alexey
Konstantin
Не помню когда, относительно недавно
Konstantin
@ketchoop мне пока swarm всё делает что нужно, ранчер великоват, кубер вроде как тоже. Но видать задачи ещё не было под них, хз)
Alexey
@nodekra Я думал о сворме, но года полтора назад он был сырой, а в недавнем времени особо инфы на тему того как изменился сворм не было. Сейчас вижу, что много всего крутого добавили. У ранчера клёвая админка и куча фич прикольных. Он простой в плане архитектуры, но куча мелких багов, которые потом выливаются в головную боль, что просто хочется взять и послать нафиг.
Anonymous
а есть кто-нибудь кто с neo4j в кубернетесе балуется?
Denis
Подскажите, какие гарантии дает k8s на то, что если я указал количество реплик = 1, то в любой момент времени, при любых факапах количество инстансов не буде больше 1 ?
Denis
ну конечно при условии что нет сплитбрейнов в etcd
G72K
G72K
если зададите maxUnavailable=1, maxSurge=0, replicas=1, то будет максимум 1 под запущен при любых обновлениях
Denis
Роман
Я создал для каждой сущности rc, создал сервис. (Type: ClusterIP). Поместил всё это в один неймспейс. Пробую пинговать приложение app1 из приложения app2 по имени - Name or service not known.
Что я упустил?
G72K
я бы проверил kubectl describe svc app1 , Endpoints: должно быть с адресами подов
G72K
если Endpoints: None , то копать почему так
Роман
Роман
И адрес пингуется из приложения.
G72K
а поды случайно не net=host?
G72K
( клиенты)
G72K
ну значит смотрите что у вас в kube-dns творится
G72K
fqdn резолвится?
G72K
нет , это полное имя, обычно заканчивается cluster.local
G72K
podName.$serviceFqdn
G72K
как-то так, в доках это есть
Салтыдык
Кто-нибудь юзал portworx?
Oleg
локально кубер кто как разворачивает?
Салтыдык
kubeadm
Oleg
еще кто как делает?
Alexey
Локально? Minikube же.
Салтыдык
ну зависит от потребностей. Если много нод, тогда виртуалка и миникуб, если одна — кубеадма хватит
Ivan
Салтыдык
*а, да, пардон. Миникуб же тоже только одна нода.
Роман
Ivan
А в продакшене?
а до продакшена я не дошел, кубер начальство свернуло. Планировал также ansible+kubeadm на bare metal servers ставить.
Maksim
зачем ansible + kubeadm когда это тулзы для решения одной и той же задачи?
Denis
А какие есть альтернативы flannel, которые стоит рассматривать для прода? weave?
Pavel
Привет парни
Maksim
ну привет
Konstantin
Го перекличку
Konstantin
На девопс канале так и дос устроить можно
Pavel
а есть группа по docker swarm?
Konstantin
@docker_ru
Pavel
ну там просто докер
Pavel
хмм
Artem
может еще группу по докер компоузу завести?)
Artem
и про докер билд тоже пригодится
Pavel
+
Etki
По инспекту
Denis
docker ps
Роман
Если не указано явно, как кубер выбирает на какой ноде развернуть под?
Denis
думаю делает так чтобы все были равномерно нагружены по ресурсам
Pavel
Maksim
ничего он не распределяет
Maksim
просто хватает первую ноду с достаточным кол-ве ресурсов и деплоит там под
Maksim
*первую попавшуюся по шедулеру*
G72K
https://github.com/kubernetes/community/blob/master/contributors/devel/scheduler_algorithm.md
A
Товарищи, правильно понимаю, что kubeadm, вроде как, со верменем, должен стать нативным решением для разворачивания k8s?
A
Какие ещё есть альтернативы для нубов, которые хотят на своем железе разворачивать kubernetes также просто и быстро, аки swarm? :)
G72K
kubespray (бывший kargo кажется) вроде живой
Stanislav
Stanislav
мы на bare-metal разворачиваем, можно и на gce
A
Хм... Добавлю с закладочки.
Роман
Кто-то уже пользуется 1.7?
Denis
Если куб развернут на своих сервака то от --type=LoadBalancer особого толка нет я так понимаю. Как тогда пускать в кластер? Через NodePort и какой нибудь балансер?
Etki
полгода-год назад было обычной практикой ставить балансировщик на входе и пускать через node port
Sergei
Denis
Denis
Denis
Вообще поллить etcd не лучший варик, потому что это детали реализации и достаточно хрупко. Лучше через kubectl.