Alexey
Они божественны :)
Zon
Хотя если очень хочется можно в base64 и в переменную, но это прям на любителя
Alexey
Тоже об этом думал, но это для любителей неизведанного, как по мне.
Konstantin
Ну так в докее есть же secrets/configs
Konstantin
Тоже об этом думал, но это для любителей неизведанного, как по мне.
Я вот только не понял, у тебя чистый докер/swarm или кубер?
Alexey
@nodekra Был чистый докер, там решалось всё просто, ибо был байнд на хосты и весь деплой происходил через паппет. Потом ранчер, который сейчас развернут на новой инфру и который я полировал месяца 3. Но с ним у меня любовь и ненависть в одном флаконе. k8s у меня чисто на своих машинках для интереса. Слишком много вакансий, которые требуют его)
Alexey
Ну так в докее есть же secrets/configs
Это в сварм недавно добавили? Круто!
Konstantin
Не помню когда, относительно недавно
Konstantin
@ketchoop мне пока swarm всё делает что нужно, ранчер великоват, кубер вроде как тоже. Но видать задачи ещё не было под них, хз)
Alexey
@nodekra Я думал о сворме, но года полтора назад он был сырой, а в недавнем времени особо инфы на тему того как изменился сворм не было. Сейчас вижу, что много всего крутого добавили. У ранчера клёвая админка и куча фич прикольных. Он простой в плане архитектуры, но куча мелких багов, которые потом выливаются в головную боль, что просто хочется взять и послать нафиг.
Anonymous
а есть кто-нибудь кто с neo4j в кубернетесе балуется?
Denis
Подскажите, какие гарантии дает k8s на то, что если я указал количество реплик = 1, то в любой момент времени, при любых факапах количество инстансов не буде больше 1 ?
Denis
ну конечно при условии что нет сплитбрейнов в etcd
G72K
если зададите maxUnavailable=1, maxSurge=0, replicas=1, то будет максимум 1 под запущен при любых обновлениях
Denis
там еще maxSurge учитывается при роллах
Ага нашел в доках, спасибо!
Роман
Я создал для каждой сущности rc, создал сервис. (Type: ClusterIP). Поместил всё это в один неймспейс. Пробую пинговать приложение app1 из приложения app2 по имени - Name or service not known. Что я упустил?
G72K
я бы проверил kubectl describe svc app1 , Endpoints: должно быть с адресами подов
G72K
если Endpoints: None , то копать почему так
Роман
я бы проверил kubectl describe svc app1 , Endpoints: должно быть с адресами подов
Так и сделал - эндпоинтс с адресом оверлейной сети.
Роман
И адрес пингуется из приложения.
G72K
а поды случайно не net=host?
G72K
( клиенты)
Роман
а поды случайно не net=host?
Нет. Я их не объявлял с hostNetwork: true. Или как это посмотреть?
G72K
ну значит смотрите что у вас в kube-dns творится
G72K
fqdn резолвится?
Роман
fqdn резолвится?
Это то, что возвращает hostname? Нет.
G72K
нет , это полное имя, обычно заканчивается cluster.local
Роман
нет , это полное имя, обычно заканчивается cluster.local
Айпи сервиса резолвится по fqdn, но пинги не идут. А у пода тоже должен быть fqdn? Как его посмотреть?
G72K
podName.$serviceFqdn
G72K
как-то так, в доках это есть
Салтыдык
Кто-нибудь юзал portworx?
Роман
podName.$serviceFqdn
Сам виноват, короче. Сервисы назвал не так, как пинговал)
Oleg
локально кубер кто как разворачивает?
Салтыдык
kubeadm
Oleg
еще кто как делает?
Alexey
Локально? Minikube же.
Салтыдык
ну зависит от потребностей. Если много нод, тогда виртуалка и миникуб, если одна — кубеадма хватит
Салтыдык
*а, да, пардон. Миникуб же тоже только одна нода.
Роман
Ivan
А в продакшене?
а до продакшена я не дошел, кубер начальство свернуло. Планировал также ansible+kubeadm на bare metal servers ставить.
Maksim
зачем ansible + kubeadm когда это тулзы для решения одной и той же задачи?
Denis
А какие есть альтернативы flannel, которые стоит рассматривать для прода? weave?
Pavel
Привет парни
Maksim
ну привет
Konstantin
Го перекличку
Konstantin
На девопс канале так и дос устроить можно
Pavel
а есть группа по docker swarm?
Konstantin
@docker_ru
Pavel
ну там просто докер
Pavel
хмм
Artem
может еще группу по докер компоузу завести?)
Artem
и про докер билд тоже пригодится
Pavel
+
Etki
По инспекту
Denis
docker ps
Konstantin
ну там просто докер
А сворм не в докере?)
Роман
Если не указано явно, как кубер выбирает на какой ноде развернуть под?
Denis
думаю делает так чтобы все были равномерно нагружены по ресурсам
Pavel
Роман
думаю делает так чтобы все были равномерно нагружены по ресурсам
Странно, но у меня, помимо мастера, две ноды. Развернул приложение с тремя подами и все задеплоились на одну ноду. Памяти на ней используется в восемь раз и процессора в два раза больше чем на другой ноде. В связи с этим и вопрос...
Maksim
ничего он не распределяет
Maksim
просто хватает первую ноду с достаточным кол-ве ресурсов и деплоит там под
Maksim
*первую попавшуюся по шедулеру*
G72K
ничего он не распределяет
распределяет, можно даже веса задавать для каждого критерия
G72K
https://github.com/kubernetes/community/blob/master/contributors/devel/scheduler_algorithm.md
A
Товарищи, правильно понимаю, что kubeadm, вроде как, со верменем, должен стать нативным решением для разворачивания k8s?
A
Какие ещё есть альтернативы для нубов, которые хотят на своем железе разворачивать kubernetes также просто и быстро, аки swarm? :)
G72K
kubespray (бывший kargo кажется) вроде живой
Stanislav
мы на bare-metal разворачиваем, можно и на gce
A
Хм... Добавлю с закладочки.
Роман
Кто-то уже пользуется 1.7?
Denis
Если куб развернут на своих сервака то от --type=LoadBalancer особого толка нет я так понимаю. Как тогда пускать в кластер? Через NodePort и какой нибудь балансер?
Etki
полгода-год назад было обычной практикой ставить балансировщик на входе и пускать через node port
Sergei
Если куб развернут на своих сервака то от --type=LoadBalancer особого толка нет я так понимаю. Как тогда пускать в кластер? Через NodePort и какой нибудь балансер?
кстати, никто не писал кастомную реализацию type=LoadBalancer, которая поллит etcd и управляет своим кастомным балансировщиком?
Denis
Вообще поллить etcd не лучший варик, потому что это детали реализации и достаточно хрупко. Лучше через kubectl.