Dmitry
@rossmohax вы просили историю про CoreOS, прочитали?
Салтыдык
ды даже когда она есть, но хочется HA и мало пространства
Dmitry
оно самое) но в итоге то все факты говорят о том, что ядро там сыроватое. если end-user софт его в панику отправляет
Dmitry
если бы был прямой доступ к серверу, большее удалось бы выяснить
Dmitry
ну попробую теперь центос
G72K
разве там нету консоли?
G72K
ну и sysctl kernel.panic=0 чтобы оно висело и ждало вас :)
Dmitry
в OVH можно заказать доступ KVM-IP за несколько десятков евро. пару раз заказывал. но они блин после заказа еще могут протупить несколько дней. а лежачая нода проблемы вызывает. хотелось бы конечно побольше выяснить…
G72K
удалите ноду из куба, скажите, что так и было
G72K
новую ноду взамен , а повисшая пусть висит пока KVM-IP не принесут
Dmitry
дак у нас там local storage)
Dmitry
уже надоело эксперементировать
G72K
local storage как -то переносится между нодами? (не знаком c OVH)
Dmitry
нет. это bare metal
Dmitry
локальный диск просто
G72K
ну тогда в чем проблема. что нода висит в панике, но исключена из куба?
Dmitry
и пока нода лежит - некоторые сервисы не могут работать
Dmitry
которые там данные хранят
G72K
ааа, после перезагрузки она живой в строй возрващается?
Dmitry
ну да. данные на диске то никто не трогает
G72K
да , стремно тогда.
Салтыдык
а у нас KVM включен ^.^
Dmitry
это где?
Салтыдык
Dmitry
это на самом OVH? мы просто на SYS
Alexey
Парни, а в кубах записывается нода для сервис дискавери, как например в консуле(some-machine.node.consul) в их DNS?
Rob
Привет есем, есть тут кто практикующий React Server-side Rendering в контексте Docker/Kubernetes? Мы разбираемся с проблемой скорости рендеринга, которая отличается на порядок между локальными запусками и версиями в облаке на Google Cloud (50 vs 250ms), может у кого был подобный опыт?
Роман
Попробую ещё раз. А вдруг!
Роман
Кто-нибудь деплоит проекты из гитлаба в кубер?
Салтыдык
Timur
Кто-нибудь деплоит проекты из гитлаба в кубер?
Деплою на тестовое окружение только. На одном стейдже в раннере собираются образы и заливаются в реджестри. Если они собрались, то на следующем стейдже делается kubectl set image для деплоймента.
Timur
Делал по этому тутору: https://about.gitlab.com/2016/12/14/continuous-delivery-of-a-spring-boot-application-with-gitlab-ci-and-kubernetes/
Artem
Artem
у меня все довольно проще
Artem
только у нас gke
Artem
настроил gcloud sdk на раннере и с него просто через kubectl все делается
Роман
К сожалению, у нас не gke
Igor
Igor
kebectl get secret -n namespace
Igor
Находишь default и достаёшь откуда токен
Роман
Igor
С ним работает, но я предпочитаю сделать ещё один SA - deploy-robot и использовать его
Роман
Роман
А подскажите по ролям и ролебиндингам: Создал я роль:
rules:
- apiGroups:
- ""
resources:
- replicationcontrollers
- services
verbs:
- post
- put
И для неё ролебиндинг. Но всё равно получаю ошибку:
User "system:serviceaccount:<namespace>:default" cannot create replicationcontrollers in the namespace "<namespace>". (post replicationcontrollers)
Что я делаю не так?
Andrey
Ку! народ есть какой-то отдельынй чат по rancher - ?
Maksim
Роман
а ролебиндинг какой?
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: RoleBinding
metadata:
name: gitlab-rolebinding
namespace: <namespace>
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: Role
name: gitlab
subjects:
- kind: ServiceAccount
name: default
namespace: <namespace>
Artemiy
я создал я создал, https://t.me/rancher_ru
Artemiy
Alexey
В процессе переезда ещё. На текущий момент было около 15, что-ли. Вместе, правда с инфраструктурными вещами: графанки, инфлюксы и прочее. По контейнерам суммарно где-то пока набирается штук 150.
Alexey
Но пободался я с ним и его разработчиками знатно.
Роман
Или, для того, чтобы сделать post replicationcontroller нужно clusterrole?
Роман
Да. Всё верно. Вопрос отпал)
Serg
https://kubernetes.io/docs/concepts/services-networking/ingress/
"kubectl get ing
NAME RULE BACKEND ADDRESS
test-ingress - testsvc:80 107.178.254.228
Where 107.178.254.228 is the IP allocated by the Ingress controller to satisfy this Ingress. The RULE column shows that all traffic send to the IP is directed to the Kubernetes Service listed under BACKEND"
Нигде не могу найти, как задать свой IP?
Maksim
никак
Maksim
ip прилитает от ingress контроллера
G72K
Serg
а где в Ingress контроллере настроить, чтобы прилетал нужный ?
Igor
Sn00part
а что с ингресс случилось
https://pastebin.com/mkj9UXsc
Sn00part
после обновления кубернетиса до 1.6.4 поломался ингресс.
Sn00part
Annotations: kismatic/version=1.3.3
Sn00part
Image: gcr.io/google_containers/nginx-ingress-controller:0.8.3
Sn00part
кто сталкивался?
Sn00part
nvm обновил версию заработало все опять
G72K
не могу заставить daemonset запускать поды на всех нодах, на контроллерах не запускает. при этом ошибок нет, просто desired стоит меньше, чем нод в кластере. tolerations выставлены 1-в-1 как в рядом запущеном daemonset, который запускает поды везде без проблем. глаза сломал сравнивать конфиги :(
Sn00part
а зачем он? там по идее все закрыто, наружу торчат только exposr
Sn00part
всё что на подах нет. а сервисы кубернетеса можно прикрыть вручную на хосте. н в теории это все на серой сети работает все равно
Sn00part
н у вот в кубернетесе ничего такого быть не должно. там торчит один айпишник лоадбалансера и на нем тупой nginx или haproxy
Sn00part
или ещё какой балансер
Sn00part
их вроде хватает
Sn00part
у тебя серваки друг к другу по инету ходят?
Sn00part
докер свой оверлей на белых адресах строит? там хост1 со своей сетью серой, хост2 с другой. никто никуда не ходит и друг друга не видит. кубернетис их контачит сам. фланель там или калико или ещё что
Sn00part
и даже эти сети серые. а экспозится должен сервис в один два адреса или сколько там ингресов стоит. двух хватает за глаза
Sn00part
покажи ip r
Sn00part
ну вот weave контачит между собой хосты докера
Sn00part
что конкретно тебя пугает и что ты хочешь фильтровать?