Logan
ок, нафиг etcd
куда же вы в к8 от etcd убежите? Там все данные лежат.
Anonymous
я в плане нафиг знать где он )
Sn00part
etcdctl status или это другой etcd?
Zon
другой
Anonymous
по поводу всех этих документаций, статей и книжек, что бесит именно меня (ну не то чтобы бесит, но вот прям неудобно)
открываем любую из этих штук и там 90% в духе "кубернетес это платформа управления контейнерами, смотрите как клево можнно создавать поды и как они скалируются, а вот еще ... ну и тп", короче дословный перевод документации причем только ее основ
но проблема в том что мне надо знать другое: лучшие практики, советы и рабочие решения, разбор основных проблем, и тп
а вот этого нигде нет
Zon
Issues?
Anonymous
ну там тоже много скама, да и сортировать это все... в общем этот чатик спасает частично, я к тому что не бойтесь делиться опытом, все будет в кассу если что :)
Sn00part
это же bleeding edge
Sn00part
тут всегда так
Anonymous
ейп, согласен... об чем и речь: то что мы обсуждаем хрен где найдешь, поэтому больше, больше инфы )
Anonymous
запилили че-то крутое - сюда
Anonymous
запилил некрутое - все равно сюда )
Zon
а есть у кого полный список альфа фич в *.alpha.kubernetes.io аннотации?
Anonymous
а вот кто с nginx-ingress работал, подскажите как заставить его пересоздать конфиг и убрать оттуда сервисы которые удалены? в логах постоянно светится что-то типа "upstream service-staging-service-api-8080 does not have any active endpoints. Using default backend"
kay
Да, есть такая проблема. Но это всего лишь лог, можно игнорировать. Возможно в новой версии контроллера исправят.
Vitalii
Мы тоже не обращаем внимания
Anonymous
Ага, только он мне в stderr срет постоянно и красивые графики эластика портит )
Vitalii
А сервисы без endpoint и должны быть для staging?
kay
Так ты фильтруй их в эластике или в обработчика логов
Anonymous
так и сделал в fluentd... не критичная фигня, просто не знал что пока не удаляется
Anonymous
а вот интересно, есть готовое решение по скалированию инстансов в зависимости от нагрузки? не фиксированое количество подов деплоймента, а по разным правилам
Anonymous
https://5pi.de/2016/11/20/15-producation-grade-kubernetes-cluster вот еще в тему сабжа
Zon
Anonymous
а, все, вопрос снят :) че-то я забыл про horizontalautoscale
Zon
Гце может от данных с балансера или метрик их мониторинга ноды скейлить
Anonymous
где почитать? у гугля в этом плане документация скудная, а та которая есть далеко запрятана
Anonymous
о, вот еще какую штуку интересную нашел: https://coreos.com/blog/introducing-operators.html
Zon
В хелпе к инстанс группам
Andrew
Насчет установки ручками, мне помогли скрипты kube-deploy/docker-multinode
Andrew
В режиме cni=false все понятно. С cni=true сейчас разбираюсь, понадобилось для calico
Михаил
я понимаю, что я хочу старнного и не правильного, но как мне прописать в yaml, что бы порт пода был выставлен наружу?
Logan
Михаил
ну да, но как это правильно в yaml прописать?
Logan
http://kubernetes.io/docs/user-guide/connecting-applications/#exposing-pods-to-the-cluster
не оно?
Михаил
ок, почитаем, спасибо
Max
А гоняет кто постгрю в прод режиме в кубе? Или любую другую БД
Инетересусет организация локации данных.
Etki
persistent volume claim
Max
очевидно))
а физический уровень
Max
ведь все это будет кочевать через сеть и дофига накладных расходов теоритичкски
Etki
физический уровень что?
Max
вот есть у меня 3 воркера в короси, и дальше ни чего не могу выдумать, кроме того что бы через контейнеры создать например GFS кластер
Max
как устроить файловое хранилище
Etki
если используете штуки типа куба, то файлы разумно хранить в облачном хранилище того же гугла / амазона / селектела (последнее, впрочем, под вопросом)
Max
оке, пасибо
Logan
коллеги, глупый вопрос - никто не подскажет, как указать ноде ее публичный адрес, если в системе несколько интерфейсов? Собрал тестовый кластер, но все сервисы публикаются на внутренних IP, kubectl node describe показывает только приватные адреса нод
Max
ох я нукашался в подобном. Заюзал по итогу externalIPs
Михаил
Max
кто так, да
Михаил
Ну там же k8s с любым говном может жить
Михаил
Storage orchestration
Automatically mount the storage system of your choice, whether from local storage, a public cloud provider such as GCP or AWS, or a network storage system such as NFS, iSCSI, Gluster, Ceph, Cinder, or Flocker.
Михаил
А теперь по пунктам. Какие объемы?
Logan
Max
пока конечно не большие PG около 100Гб
Anonymous
"Automatically mount the storage system of your choice" - врут все, не любой а только тот что поддерживается :) google bucket например я хз как смонтировать без бубнов
Logan
Max
тут как бы проблема в том, что бы держать данные поближе к процессу постгревому
Михаил
А что за инфраструктура?
Max
поменьше всякой накладухи иметь, на столько на сколько это возможно
Max
железки 1 мастер(мультимастер вот еще интерестный квест), 3 воркера.
CoreOS stable, k8s-1.4.3
Михаил
А это вы снимаете или ваше?
Max
арендованные
Михаил
Михаил
GPFS от ibm купите)
Михаил
Она вроде не дорого
Max
погуглю, спасибо.
И что бы кстати решило елси бы железки были наши? Все равно ж железки
Михаил
Михаил
Но это если от десятков терабайт хорошо)
Михаил
А вообще
Михаил
https://clusterhq.com/flocker/introduction/
Михаил
Первый раз увидел, но выглядит интересно
Sergei
Михаил
Да? Я просто мельком просмотрел с телефона
Михаил
А что это?
Sergei
это типа унифицированное апи к куче разных стораджей.
Sergei
как openstack cinder
Михаил
А
Михаил
А зачем оно если k8s умеет в cinder?)