@kubernetes_ru

Страница 852 из 958
Sergey
28.09.2018
06:19:21
самое то все свои кластеры привязать к самописной фигне!

bebebe
28.09.2018
06:20:17
это всего лишь данные из kubeconfig в shell prompt'e

но ваш интузиазм Сергей, пугает.

Banschikov
28.09.2018
06:24:04
Всем привет! Пытаюсь снимать метрики в Prometheus с Ingress-Nginx. В сервере прометея вот такие ошибки по поводу RBAC: forbidden: User \"system:serviceaccount:monitoring:prometheus-k8s\" cannot list endpoints at the cluster scope" Как правильно нужно выставить RBAC, что бы это исправить?

Google
Banschikov
28.09.2018
06:24:28
--- apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: name: prometheus roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: prometheus subjects: - kind: ServiceAccount name: prometheus-k8s namespace: monitoring --- apiVersion: rbac.authorization.k8s.io/v1beta1 kind: ClusterRole metadata: name: prometheus rules: - apiGroups: [""] resources: - nodes - nodes/proxy - services - endpoints - pods verbs: ["get", "list", "watch"] - apiGroups: - extensions resources: - ingresses verbs: ["get", "list", "watch"] - nonResourceURLs: ["/metrics"] verbs: ["get"] --- apiVersion: v1 kind: ServiceAccount metadata: name: prometheus-k8s namespace: monitoring

Andor
28.09.2018
06:46:46
но ваш интузиазм Сергей, пугает.
"ваш энтузиазм Сергей"

Andrey
28.09.2018
06:46:51
Сейчас вообще отдает: component=k8s_client_runtime err="github.com/prometheus/prometheus/discovery/kubernetes/kubernetes.go:306: Failed to list *v1.Pod: Unauthorized"
Вот тебе kubectl get ... с production'а. --- apiVersion: v1 kind: ServiceAccount metadata: name: prometheus namespace: kube-prometheus --- apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: prometheus rules: - apiGroups: - "" resources: - nodes - services - endpoints - pods verbs: - get - list - watch - apiGroups: - "" resources: - configmaps verbs: - get --- apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: name: prometheus roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: prometheus subjects: - kind: ServiceAccount name: prometheus namespace: kube-prometheus

Сейчас вообще отдает: component=k8s_client_runtime err="github.com/prometheus/prometheus/discovery/kubernetes/kubernetes.go:306: Failed to list *v1.Pod: Unauthorized"
Если не сработает, советую поднимать уровень логгинга apiserver'а и изучать внимательно, что там происходит.

-v=10

Banschikov
28.09.2018
07:03:40
Если не сработает, советую поднимать уровень логгинга apiserver'а и изучать внимательно, что там происходит.
спс. Сейчас вернул все обратно как было и все заработало Проблема началась после того как я внес в config прометея это https://github.com/kubernetes/ingress-nginx/blob/master/deploy/monitoring/configuration.yaml

Михаил
28.09.2018
07:23:00
Andor
28.09.2018
07:24:38
В первой версии да

Про это и был сарказм

Google
Vadim
28.09.2018
08:12:47
https://kubernetes.io/blog/2018/09/27/kubernetes-1.12-kubelet-tls-bootstrap-and-azure-virtual-machine-scale-sets-vmss-move-to-general-availability/

Banschikov
28.09.2018
08:12:59
Подскажите, кто нибуть снимает метрики Ingress-Nginx в prometheus? Вроде все настроил, но дашборд метрики не идут. Может кто нибуть поделится своим кейсом? https://github.com/kubernetes/ingress-nginx/blob/master/deploy/monitoring/configuration.yaml

Banschikov
28.09.2018
08:21:43
есть несколько дашбордов, вы как ingress деплоили? метрики в нем включили? в прометеусе они видны?
Извиняюсь, я профан, поэтому могу задавать глупые вопросы. В ingress-nginx: annotations: prometheus.io/port: '10254' prometheus.io/scrape: 'true' А как посмотреть видны ли они в прометеус? Зайти в webUI консоль прометеуса и там посмотреть?

Banschikov
28.09.2018
08:25:01
+ как вы ставили сам ingress-nginx?
Он уже был предустановлен. Я пользуюсь услугами клайд провайдера. Но думаю там все по классике, как в оф.мануале

bebebe
28.09.2018
08:26:58
Он уже был предустановлен. Я пользуюсь услугами клайд провайдера. Но думаю там все по классике, как в оф.мануале
это не обязательно, например в официальном чарте nginx'a метрики нужно отдельным образом включать если они включены, то добавляется еще один сервис метрик, его видно через get svc

Константин
28.09.2018
08:30:50
#whois Всем привет! Проекта нет, хочу разобраться с kubernetes. В большенстве случаев я php разработчик. Нашел вас на просторах просторного.

Sergey
28.09.2018
08:31:27
кто ж вас всех на whois посадил во всех чатах теперь О _о

Константин
28.09.2018
08:31:42
Правила в запиненом

Andor
28.09.2018
08:31:46
в этом чате - админ чата

Константин
28.09.2018
08:31:53
Надо соблюдать

Sergey
28.09.2018
08:32:00
так это просто везде щас пошло

Константин
28.09.2018
08:32:27
да не совсем

Меня начальство подпрягло докер с кубом подтянуть

будем разворачиваться

а для любой технологии сразу ищу чат в телеграмме))

Alexey
28.09.2018
08:36:46
лучше сразу искать доки

Google
Alexey
28.09.2018
08:38:22
так это просто везде щас пошло
и потом HR парсеры собирают данные 100%. Удобно же, даже формат есть.

Sergey
28.09.2018
08:43:54
а для любой технологии сразу ищу чат в телеграмме))
сразу прибавку проси гна разгребать много

"а давайте на бэкендера кубер повесим! а давайте"

Banschikov
28.09.2018
08:45:28
есть несколько дашбордов, вы как ingress деплоили? метрики в нем включили? в прометеусе они видны?
В прометеусе метрик ingress нет. Правильно понял что Ingress их не отдает?

bebebe
28.09.2018
08:45:49
либо прометеус не смотрит на ingress метрик сервис

Banschikov
28.09.2018
08:46:55
либо прометеус не смотрит на ingress метрик сервис
Извиняюсь.Всю ночь не спал и внимательности 0. Нашел метрики

Щас попробую запросами их подергать

Константин
28.09.2018
08:56:16
Как мне тогда аргументировать отказ?)))

Sergey
28.09.2018
08:56:42
Много головняка?
просто тебе его выдадут "на, теперь на тебе" и 10к сверху

а хапнешь всякого не на 10))

Константин
28.09.2018
08:57:14
Так а гно разгребать то потом мне придется)))

можно подробнее, что за гно?)))

к чему готовиться

Sergey
28.09.2018
08:57:47
работы много говорю))

Alexey
28.09.2018
08:57:52
Как мне тогда аргументировать отказ?)))
Тебе бы работу поменять. Потому как вешать на первого попавшегося бекендера опсовые задачи, это такое, намекает

Константин
28.09.2018
08:58:13
не, мне самому интересно

Google
Sergey
28.09.2018
08:58:42
интересно ты интересуйся но имей ввиду

Alexey
28.09.2018
08:58:48
не, мне самому интересно
Так и крути сам, а не конторе. Думаешь зря отдельных людей берут и отдельные чатики для куберов делают?)

Alan
28.09.2018
08:59:35
можно подробнее, что за гно?)))
Видимо, имелось в виду ГМО

Alexey
28.09.2018
09:00:52
не, мне самому интересно
Если хочешь и кубер покрутить и живым остаться - требуй отстоя требований, в смысле чтобы тебе взяли какой-нибудь облачный кубер, не руками на голом железе собирать и тыкай туда только декларации, с клиентской стороны

Валентин
28.09.2018
09:04:23
не, мне самому интересно
Ну вот ты и попробуй сам развернуть, для начала докер поставь себе, посмотри docker-compose хотя бы. Minikube потом потыкай, облачный кубер... если все это сделаешь и мысли "нафига оно мне?" не появится - копай глубже и ты теперь девопс :D

Banschikov
28.09.2018
09:08:51
либо прометеус не смотрит на ingress метрик сервис
У меня вообщем дашборд не собирает этим метрики, которые есть в прометее.

kvaps
28.09.2018
09:09:07
https://github.com/jonmosco/kube-ps1 у кого много кубернетисов
Пора бы в powerline уже такое запилить

bebebe
28.09.2018
09:09:24
У меня вообщем дашборд не собирает этим метрики, которые есть в прометее.
в репозитрии графаны есть несколько дашбордов для ingress-nginx найди нужный, либо поменяйте метрики в уже существующих

@metrics_ru вам в помощь

Валентин
28.09.2018
09:11:14
Мысли "нафига оно мне?" - будут появляться в любом случае по началу :)
ну хз, ему ж интересно. Мне вот тоже интересно и я понимаю, во что влез :)

kvaps
28.09.2018
09:13:08
ну хз, ему ж интересно. Мне вот тоже интересно и я понимаю, во что влез :)
И что, у вас ни разу не возникало мыслей отторжения на момент понимания?

Валентин
28.09.2018
09:16:24
И что, у вас ни разу не возникало мыслей отторжения на момент понимания?
Нет. Только мысли "вы б еще пару лет его подописывали, а потом релизили" :) После ovirt'а, где документировано много и хорошо, тут было грустно выискивать все в гугле

kvaps
28.09.2018
09:20:36
Мое восприятие постоянно менялось от "Вау, нифига себе, оно и так умеет, круто!", до "Блин, неужели нет какого-то более понятного и простого решения", в итоге со временем первое полностью победило второе...

Кстати, надо признать доки сейчас стали намного лучше!

Валентин
28.09.2018
09:34:32
А разве у овирта есть документация? :) (вопрос риторический)
Хоть и риторический, но отвечу: когда их redhat взяли под крыло - с документацией стало круто. Собственно с ansible ж аналогично было

Yu
28.09.2018
09:46:53
Хоть и риторический, но отвечу: когда их redhat взяли под крыло - с документацией стало круто. Собственно с ansible ж аналогично было
Документация и ovirt в одном предложении вызывают боль. Если смотреть доки на RHEV и подразумевать, что в ovirt тоже самое, то можно сказать, что доки есть.

Google
Alexey
28.09.2018
09:48:38
тем более что овирт бежит впереди rhev, и может оказаться так что то что есть в rhev уже поменяно в овирт

Stanislav
28.09.2018
10:08:44
Народ, а никто не испытывал проблем с большим количеством cgroups? У меня очень часто создаются контейнеры, буквально за пару дней 3500 memory cgroups плодится, но большая часть отмирает так же быстро, а вот вычищение cgroups не происходит. Кто как борется?

Nikolai
28.09.2018
11:46:48
Приветствую! Такой вопрос: имеется ли возможность прикрутить внешние node-exporters (вне куб-кластера) к конфигурации prometheus-а (prometheus-operator), который в кластере крутиться К примеру, есть сервер вне кластера, который также необходимо мониторить, но как указать прометею собирать с него метрики, не соображу Похоже что через ServiceMonitor?

Mikhail
28.09.2018
11:51:08
Наверняка

Nikolai
28.09.2018
12:01:58
ага, вот так сейчас и пытаюсь реализовать, спасибо )

что-то типа такого? apiVersion: v1 kind: Service metadata: name: proxy1 labels: app: proxy1 namespace: monitor-prometheus spec: ports: - name: metrics port: 9100 protocol: TCP targetPort: 9100 clusterIP: None type: ClusterIP --- apiVersion: v1 kind: Endpoints metadata: name: proxy1 labels: app: proxy1 namespace: monitor-prometheus subsets: - addresses: - ip: XXX.XXX.XXX.XXX ports: - name: metrics port: 9100 protocol: TCP

Sergey
28.09.2018
12:39:12
тупой вопрос - если поменять yaml конфиг уже запущенного пода, это приведет к переинициализации пода?

будет ли перезапуск при apply?

Gleb
28.09.2018
12:45:33
будет ли перезапуск при apply?
смотря где менять, в борде — да, если просто ямл файл на машинке, то нет. при апплай перезапустится. если деплоймент, то старая убьётся и запустится новая

Oleg
28.09.2018
12:50:19
Может кто подстакажет решение. Поднимается stateless деплоймент консула, Затем по идее джобой можно запустить инструмент наполнения его ключами. Но при фэйле деплоймент его переподнимет на другой ноде пустым. Как быть? На него микросервисы завязаны, получают инфу при запуску

bebebe
28.09.2018
12:52:21
ставить через чарт consul в HA https://github.com/plotly/helm-charts/tree/master/stable/consul

Страница 852 из 958