Александр
Да с externalIPs все завелось - еше одно спасибо :)
Oleg
Да с externalIPs все завелось - еше одно спасибо :)
лайк статье поставь) я ее писал именно потому что несколько недель назад сюда пришел с тем же самым вопросом и мне никто не помог
Егор
Добрый день, по месной традиции представлюсь. Меня зовут Егор, недавно занялся DevOps, работаю в корпсекторе, пилим софт для b2b на базе k8s, очень рад, что есть такое сообщество, не серчайте, если буду задавать глупые вопросы.
Oleg
шаг влево - шаг вправо - требует исследований
Oleg
я вот до сих пор гластер не могу запустить из коробки https://github.com/gluster/gluster-kubernetes/issues/392
Роман
У меня два мастера. На них нет taints. Как куб понимает, что на них нельзя разворачивать поды?
Роман
Какие ещё могут быть варианты?
Serega
SchedulingDisabled
Anatoliy
шаг влево - шаг вправо - требует исследований
да я руками так и не смог кубер запустить, только через спрей, так что чего уж там. вроде делал тоже самое всё
Роман
SchedulingDisabled
А где это смотреть?
Сергей
kubectl get nodes
Салтыдык
я вот до сих пор гластер не могу запустить из коробки https://github.com/gluster/gluster-kubernetes/issues/392
джарпа отписал, что нужно посмотреть логи. Я тоже всегда в логах сидел
Роман
А, всё увидел. А есть какой-то способ шедюлить там поды? DS разворачиваются ведь.
Салтыдык
да там ничего нет существенного
из мастера разворачивался?
Роман
kubectl uncordon
А tolerations какой-нибудь нельзя сделать? Я хочу запустить всего один специальный под.
Oleg
из мастера разворачивался?
да, на местере. после kubesparay.
Салтыдык
да, на местере. после kubesparay.
выглядит так, как будто с fuse что-то не так. Пробовал прыгнуть на nfs?
Oleg
я на ubuntu. там вроде только glusterfs-client н ужен чтобы mount появился
Салтыдык
да. И я бы ещё проверил совпадают ли версии клиента и сервера
Oleg
ну кстати могу на центоси такую же проблему легко воспроизвести
Салтыдык
но ~год назад fuse был очень тормозной вариант, как только перешёл на NFS, полегчало
Салтыдык
У меня сначала был успешный опыт установки гластера, но без провизионинга на k8s 1.4.x вроде. Потом решился на эту репу, то как-то не зашло: https://github.com/gluster/gluster-kubernetes/issues/279 Слишком много магии, решил временно отказаться
Oleg
ну там да, вайпить + modprobe dm_thin_pool на каждой ноде надо
Oleg
кстати. kubespary умеет glusterfs из коробки
Салтыдык
я о другое споткнулся, lvm отказывался работать в контейнере
Oleg
и там вроде все развертывается, pv, pvc. Но внутри контейнера облом
Alex Sharov
Господа, а хорошо ли создавать namespace в чартах хелма?
Andrey
Есть такая идея...
Andrey
нужен отказоустойчивый кубер, проблема как сделать сторейдж без гемороя, всего есть 3 сервера
Andrey
я пока пришел к мысли ставить к куберу гластер на те же ноды и прокидывать из него вольюмы в контейнеры
Andrey
я хороших отзывов про хекети не слышал, а плохих очень много от коллег) не хочу даже связываться, в крайнем случае cephfs попробую
Oleg
heketi пока единственный способ получить dynamic provisoning на glusterfs
Andrey
мне dynamic как раз не нужен, мне существующие данные надо тащить, те которые у меня уже давно persistent
Oleg
мне тоже вообще говоря, но glusterfs не удалось подключить к контейнеру
Oleg
надо как-нибудь в скайпе всем собраться. я расшарю экран и на свежем кубере посмотрим проблемы. может вместе найдем решение
Vitaliy
господа, начал копать tolerations и застрял. мне надо чтобы на одну ноду попадали только проекты отдной команды. => deployment/daemonset этой команды. но мне надо также чтобы всякие kube-proxy и weave-net тоже попадали на эту ноду. это можно сделать с tolerations?
Роман
И правильно ли вообще делать uncordon у мастера?
Роман
Точнее, почему это может быть плохим?
Dmitry
Ребята, а у всех кубер-кластеры нормально работают, докер не зависает на docker ps периодически?
Andrey
:D
Andrey
К стати ребят а со здоровьем у всех все нормально ? спина не болит если мешки картошки поворочать ?
Volodymyr
а external service это просто dns запись? не больше? без проксирования?
Etki
Ребята, а у всех кубер-кластеры нормально работают, докер не зависает на docker ps периодически?
В древние времена такое было, если большой port range указать. Он скорее считает что-то, чем завис, типичный докер в общем.
Andrey
я как-то fio в скрине забыл, там не только docker ps зависал))
Volodymyr
а external service это просто dns запись? не больше? без проксирования?
ExternalName: Maps the service to the contents of the externalName field (e.g. foo.bar.example.com), by returning a CNAME record with its value. No proxying of any kind is set up. This requires version 1.7 or higher of kube-dns.
Volodymyr
тут какая то мистика с сеткой в кубе... php воркера залипают на очереди... в контейнере куча ESTABLISHED # netstat -nlap | grep 5672 | grep -c EST 53 а на самом ребите # netstat -nlap | grep 5672 | grep -c EST 7 не было такого не у кого?
Volodymyr
networking calico
Sergei
Господа, а есть какой-то канонический способ внутри StatefulSet'а найти всех остальных членов этого StatefulSet'а?
Serega
так по именами? они же жестко назначаются для статефулсет
Etki
headless service?
Sergei
headless service?
да, это мне тоже в голову пришло. но есть два опасения: 1) если подов много (ну 100 например), то это будет хреново работать 2) иногда не катит хедлесс-сервис и нужен с балансером. можно конечно два завести, но как-то костылище
Serega
если дернуть StatefulSet Domain не отдает разве всех подов?
Etki
ну теоретически можно и апишку запрашивать на предмет эндпоинтов
Sergei
ну теоретически можно и апишку запрашивать на предмет эндпоинтов
теоретически можно и консул в этом же неймспейсе поднять и регистрироваться там. только выглядет костыльненько
Volodymyr
где почитать сравнительные характеристики нетворкингов? где то попадалась статья, но не могу найти :(
Роман
Отвечу сам себе. Можно прописать nodeName явно.
Роман
А tolerations какой-нибудь нельзя сделать? Я хочу запустить всего один специальный под.
Serega
nodeselector ?
Роман
nodeselector ?
На мастере SchedulingDisabled стоит и taints нету.
Serega
зачем запускать на мастере?
Роман
зачем запускать на мастере?
В этом и вопрос: почему нет?
Роман
Мне, например, нужно запустить один под, который всегда будет на мастере. Переезжать не будет.
Serega
для этого ds
Роман
В принципе, я об этом тоже думал. Можно и так.
Александр
пробую так https://github.com/kubernetes/ingress-nginx/blob/master/docs/examples/external-auth/dashboard-ingress.yaml прокинуть через ингресс дашбоард - не работает а в логе error obtaining service endpoints: error getting service default/kubernetes-dashboard from the cache: service default/kubernetes-dashboard was not found хотя неймспейс указан - и ингресс я второй в kube-system неймспейсе пустил ( изначально в одном прописал )
Александр
оно конечно не обязательно каждый может у себя kubectl proxy пустить - но было бы не плохо
Anatoliy
А может кто пояснить нафига ингресу обязательный секрет тлс нужен? Я просто не вижу что бы он в yaml файле вообще к нему обращался...
Artem
если не хочешь https, то не нужен)
Anatoliy
по тому мануалу что я смотрю - там https делается через лего и выходит что секрет тлс там тоже не сдался