Anton
значит нужно поковырять в эту сторону, может действительно подойдет
Anton
спасибо
Tony
всем привет. подскажите, почему nginx не может resolve по имени сервиса (my_service), а только по my_service.default.svc.cluster.local. Через docker-compose работает, а через k8s только длинные названия
G72K
Запустите в одном с приложением и будет работат
Tony
он в default тоже запущен. curl работает на короткие имена в контейнере nginx
Tony
да, я пробовал и kube-dns ip указывать, не помогло
Tony
иначе как он my_service.default.svc.cluster.local резолвит
G72K
Он должен либо системный резолвер использовать, либо подцеплять search domains из resolv.conf чтобы уметь в короткие имена
G72K
Кто-нибудь попробовал ksonnet и не умер?
Sergei
nginx вроде не использует /etc/resolv.conf :(
нджинкс на старте вполне себе использует системный резолвер
Etki
https://serverfault.com/a/638855
Etki
и кажется даже не собираются (не собирались) работать с системным https://trac.nginx.org/nginx/ticket/658
Tony
единственный нормальный выход как я вижу это вынести это в ENV переменные, или использовать 2 конфига. один для dev (где короткие работают), другой с длинными. Ну, или заюзать kube-gen
Etki
Зачем вам nginx при разработке?
Tony
Зачем вам nginx при разработке?
как proxy для сервисов
Serega
вместо ингресс контролера или сервис меш? )
Etki
зачем прокси при разработке?
Dmitry
нджинкс на старте вполне себе использует системный резолвер
Вот тут и секрет. У nginx есть куча граблей с dns. Можете поискать про его resolver
Tony
зачем прокси при разработке?
сейчас есть image nginx, который связывает frontend с backend. Согласен, что лучше заюзать service mesh, но пока так :)
Etki
Так а что им мешает общаться напрямую?
Serega
общаться напрямую ничто не мешает, кроме того, если этот нжинкс не в одном поде с фронтендом, то смысла от него тоже никакого нет.
Serega
если нода с сервисом вылетит, то другой сервис об этом узнает не сразу, в результате часть запросов не доходит. В итоге к зоопарку добавляется или service mesh или какие-нибудь кастыли. Типа коннектить сервисы между собой через ингресс...
Serega
мне вот интересно, как вообще народ живет без сервис меш в проде? в каждое приложение впихиваете hystrix-style логику? всякие curcuit breaker и т.д. ?
Maksim
мм а просто уменьшить время опроса нод и выводы из сервиса не?
Serega
за секунду не может пройти сотня-тысяча rps ?
Serega
т.е. уменьшить время опроса (как нод так и подов) - не убирает проблему целиком.
Serega
кстати, Conduit еще никто не пробовал? выглядит перспективно, но сырость смущает
Anonymous
Думаешь вложиться в криптовалюты? Думаешь у тебя что либо получится? На всех каналах тебе говорят вкладываться и у тебя будет много денег? Нет, это не так, у тебя ничего не получится и тут @seventhcnala ты узнаешь почему.
Alex Sharov
господа, а можно насильно дернуть крон джобу?
Max
у кого плюсомет?
Sergei
@DenisIzmaylov , роди здесь работающих модераторов
G72K
Говна в чем?
В том что он ни нормально установить не может, ни обновить, ни удалить . От package manager там одно название. Поищите в поиске, я изливал тут желчь уже
G72K
Написал выше: kubectl apply
Anton
ну смысл помогать, ботов кикак любой сможет
Dmitry
Хелм говно, огребете.' helm template | kubectl apply -f - —prune ...' Ваш друг
Кстати, что скажете про замену бинарника helm чем-то типа ansible + helm module?
Dmitry
Там есть state: absent. Думаю заценить на выходных, как оно туда-сюда может гонять.
Anton
Absent наверное делает kubectl delete -f yaml
Anonymous
оффтоп: а щас можно уже через конфиг настраивать burst ресурсов на стартапе контейнера а потом отбирать?
G72K
Вроде динамически менять ресурсы нельзя
Serega
но можно забацать кастыльчик в виде сайд контейнера, который будет мониторить ресурсы. У текущего хипстера похоже так и сделано # Heapster's pod_nanny monitors the heapster deployment & its pod(s), and scales # the resources of the deployment if necessary.
Serega
т.е. примерно похожая концепция с амазоновской динамодб, когда приходится запускать джобу\контейнер чтобы мониторил потребление ресурсов и выставлял реад-врайт капасити. (агрессивный маркетинг или архитектура через Ж - без коментариев)
Anonymous
Ни с того ни с сего перестал работать helm
Anonymous
kubectl -n kube-system port-forward tiller-deploy-352283156-jcc00 44134 Такая команда в 4 случаев из 5 не работает
Anonymous
Тем не менее kubectl proxy работает на том же кластере (возможно она работает по-другому?)
Красное Перо
Приветствую, я из looi factory. Я не специализируюсь на чём-то конкретном прям, но я очень любознательный. Сейчас мне дана свобода внедрять в коммерческое потоковое производство (цифровые продукты) передовые технологии, и я буду внедрять кубер. Меня друг убедил, техдир из другого агентства. Был бы рад быть полезен сообществу отчетом об опыте внедрения, ну и получать полезные рекомендации был бы рад вдвойне. #whois
Красное Перо
Ваще, я понимаю, наступающий и все дела, но кто-нибудь щупал KubeNow?
Sergey
Даеще еще деплойщиков в угоду Бога деплоя)
Sergey
KubeNow с единственным мастером?
Красное Перо
Я не знаю, почему нет?
Красное Перо
У меня куча мутирующих микросервисов, я думал просто их загнать в хорошую mesh-сеть
Sergey
Я не знаю, почему нет?
ну единая точка отказа
Красное Перо
Sergey
у гугла gke же есть
Sergey
Тогда лучше kops вряд ли будет
Красное Перо
ну единая точка отказа
согласен, а разве нет способа репликации того, что сделает kubenow?
Sergey
А ну да
G72K
Нахер копс
Sergey
Ну вообщем в гугле - да, я просто по дефолту клауд => kops
Sergey
за ним потом переделывать больше
Красное Перо
я понял, ну были такие подозрения
Sergey
авс не все кладуы
Красное Перо
мне понравилось что сохраняется всё в terraforme
Sergey
азур в последней версии тож умеет вроде, но в азуре тоже своя тема есть
Красное Перо
все это так интересно в этом кубер-мире, честно говоря
G72K
мне понравилось что сохраняется всё в terraforme
Ерундой не страдайте. Ставьте галочку и получайте нормальный отказоустойчивый куб, с интеграцией со всеми плюшками гугла вроде сборки логов
Красное Перо
так точно, сэр!