Dmitry
@rossmohax вы просили историю про CoreOS, прочитали?
Салтыдык
ды даже когда она есть, но хочется HA и мало пространства
G72K
@rossmohax вы просили историю про CoreOS, прочитали?
про ребуты? там где "все ребутнулось, ничего непонятно"? :)
Dmitry
оно самое) но в итоге то все факты говорят о том, что ядро там сыроватое. если end-user софт его в панику отправляет
Dmitry
если бы был прямой доступ к серверу, большее удалось бы выяснить
Dmitry
ну попробую теперь центос
G72K
разве там нету консоли?
G72K
ну и sysctl kernel.panic=0 чтобы оно висело и ждало вас :)
Dmitry
в OVH можно заказать доступ KVM-IP за несколько десятков евро. пару раз заказывал. но они блин после заказа еще могут протупить несколько дней. а лежачая нода проблемы вызывает. хотелось бы конечно побольше выяснить…
G72K
удалите ноду из куба, скажите, что так и было
G72K
новую ноду взамен , а повисшая пусть висит пока KVM-IP не принесут
Dmitry
дак у нас там local storage)
Dmitry
уже надоело эксперементировать
G72K
local storage как -то переносится между нодами? (не знаком c OVH)
Dmitry
нет. это bare metal
Dmitry
локальный диск просто
G72K
ну тогда в чем проблема. что нода висит в панике, но исключена из куба?
Dmitry
и пока нода лежит - некоторые сервисы не могут работать
Dmitry
которые там данные хранят
G72K
ааа, после перезагрузки она живой в строй возрващается?
Dmitry
ну да. данные на диске то никто не трогает
G72K
да , стремно тогда.
Салтыдык
а у нас KVM включен ^.^
Dmitry
это где?
Салтыдык
Dmitry
это на самом OVH? мы просто на SYS
Alexey
Парни, а в кубах записывается нода для сервис дискавери, как например в консуле(some-machine.node.consul) в их DNS?
Rob
Привет есем, есть тут кто практикующий React Server-side Rendering в контексте Docker/Kubernetes? Мы разбираемся с проблемой скорости рендеринга, которая отличается на порядок между локальными запусками и версиями в облаке на Google Cloud (50 vs 250ms), может у кого был подобный опыт?
Роман
Попробую ещё раз. А вдруг!
Роман
Кто-нибудь деплоит проекты из гитлаба в кубер?
Timur
Кто-нибудь деплоит проекты из гитлаба в кубер?
Деплою на тестовое окружение только. На одном стейдже в раннере собираются образы и заливаются в реджестри. Если они собрались, то на следующем стейдже делается kubectl set image для деплоймента.
Timur
Делал по этому тутору: https://about.gitlab.com/2016/12/14/continuous-delivery-of-a-spring-boot-application-with-gitlab-ci-and-kubernetes/
Роман
Деплою на тестовое окружение только. На одном стейдже в раннере собираются образы и заливаются в реджестри. Если они собрались, то на следующем стейдже делается kubectl set image для деплоймента.
У меня нубовский вопрос: не получается настроить гитлаб и кубер. Я включил интеграцию с кубером в проекте гитлаба. Там нужно указать токен и адрес аписервера, а также неймспейс. Я указал токен, который кубеадм сгенерил автоматом (при kubeadm init). Но пайплайн гитлаба говорит: $ kubectl get deployments -l app=$CI_ENVIRONMENT_SLUG Error from server (Forbidden): User "system:bootstrap:<токен-ид>" cannot list deployments.extensions in the namespace "test". (get deployments.extensions) Что ему ещё нужно?
Artem
у меня все довольно проще
Artem
только у нас gke
Artem
настроил gcloud sdk на раннере и с него просто через kubectl все делается
Роман
К сожалению, у нас не gke
Igor
kebectl get secret -n namespace
Igor
Находишь default и достаёшь откуда токен
Роман
Нужен токен default ServiceAccount этого nemespace
Именно его вписывать в настройки интеграции?
Igor
С ним работает, но я предпочитаю сделать ещё один SA - deploy-robot и использовать его
Роман
А подскажите по ролям и ролебиндингам: Создал я роль: rules: - apiGroups: - "" resources: - replicationcontrollers - services verbs: - post - put И для неё ролебиндинг. Но всё равно получаю ошибку: User "system:serviceaccount:<namespace>:default" cannot create replicationcontrollers in the namespace "<namespace>". (post replicationcontrollers) Что я делаю не так?
Andrey
Ку! народ есть какой-то отдельынй чат по rancher - ?
Роман
а ролебиндинг какой?
apiVersion: rbac.authorization.k8s.io/v1beta1 kind: RoleBinding metadata: name: gitlab-rolebinding namespace: <namespace> roleRef: apiGroup: rbac.authorization.k8s.io kind: Role name: gitlab subjects: - kind: ServiceAccount name: default namespace: <namespace>
Alexey
Ку! народ есть какой-то отдельынй чат по rancher - ?
Здесь есть люди, которые юзали ранчер в проде, например я. Можешь спрашивать, если что-то интересно)
Artemiy
я создал я создал, https://t.me/rancher_ru
Alexey
В процессе переезда ещё. На текущий момент было около 15, что-ли. Вместе, правда с инфраструктурными вещами: графанки, инфлюксы и прочее. По контейнерам суммарно где-то пока набирается штук 150.
Alexey
Но пободался я с ним и его разработчиками знатно.
Роман
Или, для того, чтобы сделать post replicationcontroller нужно clusterrole?
Роман
Да. Всё верно. Вопрос отпал)
Serg
https://kubernetes.io/docs/concepts/services-networking/ingress/ "kubectl get ing NAME RULE BACKEND ADDRESS test-ingress - testsvc:80 107.178.254.228 Where 107.178.254.228 is the IP allocated by the Ingress controller to satisfy this Ingress. The RULE column shows that all traffic send to the IP is directed to the Kubernetes Service listed under BACKEND" Нигде не могу найти, как задать свой IP?
Maksim
никак
Maksim
ip прилитает от ingress контроллера
Serg
а где в Ingress контроллере настроить, чтобы прилетал нужный ?
Sn00part
а что с ингресс случилось https://pastebin.com/mkj9UXsc
Sn00part
после обновления кубернетиса до 1.6.4 поломался ингресс.
Sn00part
Annotations: kismatic/version=1.3.3
Sn00part
Image: gcr.io/google_containers/nginx-ingress-controller:0.8.3
Sn00part
кто сталкивался?
Sn00part
nvm обновил версию заработало все опять
G72K
не могу заставить daemonset запускать поды на всех нодах, на контроллерах не запускает. при этом ошибок нет, просто desired стоит меньше, чем нод в кластере. tolerations выставлены 1-в-1 как в рядом запущеном daemonset, который запускает поды везде без проблем. глаза сломал сравнивать конфиги :(
Sn00part
а зачем он? там по идее все закрыто, наружу торчат только exposr
Sn00part
всё что на подах нет. а сервисы кубернетеса можно прикрыть вручную на хосте. н в теории это все на серой сети работает все равно
Sn00part
н у вот в кубернетесе ничего такого быть не должно. там торчит один айпишник лоадбалансера и на нем тупой nginx или haproxy
Sn00part
или ещё какой балансер
Sn00part
их вроде хватает
Sn00part
у тебя серваки друг к другу по инету ходят?
Sn00part
докер свой оверлей на белых адресах строит? там хост1 со своей сетью серой, хост2 с другой. никто никуда не ходит и друг друга не видит. кубернетис их контачит сам. фланель там или калико или ещё что
Sn00part
и даже эти сети серые. а экспозится должен сервис в один два адреса или сколько там ингресов стоит. двух хватает за глаза
Sn00part
покажи ip r
Sn00part
ну вот weave контачит между собой хосты докера
Sn00part
что конкретно тебя пугает и что ты хочешь фильтровать?