@kubernetes_ru

Страница 853 из 958
bebebe
28.09.2018
13:01:53
@SinTeZoiD ^^^

Alexander
28.09.2018
13:02:25
тицкая сила

ну и спам пошёл

Google
Anton
28.09.2018
13:06:35
что вы таки хотите этой гифкой сказать?

Alexey
28.09.2018
13:27:11
Maxim
28.09.2018
13:33:17
Подскажите, раскатал куб через kubespray, установил helm с tiller-ом. Сделал helm init, но при поптыке сделать helm install или просто helm init выдает Error: Get https://10.0.0.1:443/api/v1/namespaces/kube-system/configmaps?labelSelector=OWNER%!D(MISSING)TILLER: dial tcp 10.0.0.1:443: connect: no route to host Как пофиксить?)

Oleg
28.09.2018
13:41:08
https://github.com/helm/helm/issues/4020

Run command below will fix it( I'm tested, OK). kubectl -n kube-system patch deployment tiller-deploy -p '{"spec": {"template": {"spec": {"automountServiceAccountToken": true}}}}'

Быстрогугл =)

Dmitriy
28.09.2018
14:36:24
Подскажити плиз чтоб поды одного деплоймента резолвили поды другого деплоймента по именам

Artem
28.09.2018
14:37:52
Dmitriy
28.09.2018
14:44:56
Делайте стейтфулсет сервисом и буде у pod.service.svc.namsepace.cluster.local
На стейтфул сет не очень охота это у меня Ноды запроса аналитики(спарк клиент мод на 2.4 палпатин релизе бью) их намного лучше оставить деплой модом (эти ноды становятся спарк драйвером и к нему вцепятся экзекьюторы) и когда создаются экзекьюторы они не резолвят поду драйвера (Поменять подход запроса нет возможности) ____ Если стейтфулсетом будет то должно резолвить???

Artem
28.09.2018
14:45:34
да, для этого и задумывалось

или рисуй сервисы для каждого пода

Google
Dmitriy
28.09.2018
14:45:55
спасибо попробую

ptchol
28.09.2018
15:24:43
Ребят, а чем быстрее и удобнее сделать оперативный мониторинг кубера. "Сильно" исторические данные не нужны, интересует недельный промежуток, не более.

и важно чтобы "кастомные" метрики легко завозить было

Alexey
28.09.2018
15:25:27
Это одна репа. Метрики супер просто

И это плюс минус стандарт на мониторинг куба

Никита
28.09.2018
15:27:52
Кастомные метрики только в jsonnet-темплейтах нужно будет пилить)

Ну, если по красоте, конечно.

Viktor
28.09.2018
16:36:02
вопрос по GKE и Ingress, если я деплою N приложений app1..N то GKE поднимает на каждый Ingress отдельный IP, как сделать так, что бы у меня был 1 статический IP и трафик на эти приложения терминировался на нем? мне нужно отказаться от деплоя Ingres ресурсов в каждом приложении и создать 1 Ingress ресурс где указать какие хосты на какие сервисы смотрят?

Вася
28.09.2018
16:40:53
Котоны, а кто нибудь прикручивал envoy как баллансировщик на baremetal с k8s?

Вася
28.09.2018
16:45:02
Вместо ничего)

У меня сейчас сделано все через nginx ingress controller

там повесил ext ip

в этой схеме теряются ip клиентов в хедерах

Вот я и подумал прикрутить envoy в tcp режиме, балансить на nginx ingress controller, попустно включив proxy protocol

Михаил
28.09.2018
16:52:41
В плане трафик влетает весь в haproxy, а у него уже backend ingress

Тогда ничего не теряется

Andrey
28.09.2018
17:37:15
Hey, check out this track, it's great: Виктор Цой - Кукушка https://youtu.be/Ra0ozaE-oy0 Find more free music with https://itunes.apple.com/app/id1058774427

Google
Andrey
28.09.2018
17:39:17
Ребят, я вот смотрел prometheus-operator и во всех статьях идёт установка через helm, сначала просто прометея, а потом kube-prometheus со всем хламом. Вопрос, а это норм что в итоге ставится 2 прометея в кластер?

Andrey
28.09.2018
17:39:43
Зачем это здесь?)
Ну тут думаю на всю циничность IT - есть люди у которых сердечный ритм меняется из песней Цоя

Поёт о низменных вещах

Alexey
28.09.2018
17:40:55
Fike
28.09.2018
17:40:58
я случайно кукушку цоя

Andrey
28.09.2018
17:41:43
про докер?
В несколько уровней незадукоментмрованных выше )

Andrey
28.09.2018
17:43:11
За пределы документации приложения не выходят, а в пределах работают

Alexey
28.09.2018
17:43:49
prometheus-operator != prometheus
не, там куча статей как замониторить за 5 мин, там helm и operator

Но устарело. Там по датам видно, что на helm подзабили в гите

Igor
28.09.2018
17:44:40
ну мы используем и ничего

Евгений
28.09.2018
17:44:41
ребят, поясните пожалуйста концепцию Storage Classes в кубере. я правильно понимаю что когда мы создаем сторадж класс поды могу запрашивать у него спейс для монтирования своих вольюмов?

Igor
28.09.2018
17:45:05
просто там от helm много не нужно

Евгений
28.09.2018
17:45:34
и второй вопрос: какой самый простой способ (кроме ephemeral) создания локального сторадж класса на диске чтобы поды могли деплоиться и хранить данные локально (на какой либо из нод, пусть даже на мастере)

Alexey
28.09.2018
17:45:37
просто там от helm много не нужно
я пару дней назад ставил. Не ставится сейчас нормально, а через apply отлично. Может у меня клешни.

Google
Евгений
28.09.2018
17:46:16
Требует подготовки
какой именно?

Viktor
28.09.2018
17:46:32
bebebe а каким образо можно динамически доблять/удалять хосты в этом ингресе?

Igor
28.09.2018
17:46:45
я пару дней назад ставил. Не ставится сейчас нормально, а через apply отлично. Может у меня клешни.
https://docs.cloudposse.com/kubernetes-backing-services/monitoring/prometheus-operator/ https://docs.cloudposse.com/kubernetes-backing-services/monitoring/kube-prometheus/

bebebe
28.09.2018
17:47:45
Alexey
28.09.2018
17:47:59
https://docs.cloudposse.com/kubernetes-backing-services/monitoring/prometheus-operator/ https://docs.cloudposse.com/kubernetes-backing-services/monitoring/kube-prometheus/
https://github.com/coreos/prometheus-operator/tree/master/helm This helm charts are been migrated to kubernetes charts upstream. Therefore we are currently not accepting any pull requests. Thank you for your understanding.

Viktor
28.09.2018
17:48:24
bebebe понятно, спасибо за консультацию

Евгений
28.09.2018
17:48:47
и чем отличается storage class от обычного persistent volume?

буду признателен за любую помощь

Alexey
28.09.2018
17:49:59
буду признателен за любую помощь
лучше сесть 5-10 раз перечитать доку, будет намного лучше. Тема не очень приятная, лучше знать все тонкости.

Igor
28.09.2018
17:50:42
https://github.com/coreos/prometheus-operator/tree/master/helm This helm charts are been migrated to kubernetes charts upstream. Therefore we are currently not accepting any pull requests. Thank you for your understanding.
ну то что они переместили разработку на в официальный репозиторий не отменяет то что эти helm charts работают

Alexey
28.09.2018
17:52:11
ну то что они переместили разработку на в официальный репозиторий не отменяет то что эти helm charts работают
Значит у меня клешни, не было времени докапываться, нужно было максимально быстро поднять мониторинг и идти дальше дела делать. apply встал, helm не встал.

Евгений
28.09.2018
17:52:14
проблема в том, что я не хочу прикручивать nfs-диск к каждому поду руками. мне почему то кажется что есть более правильный способ делать это на кубере

Igor
28.09.2018
17:53:00
https://github.com/coreos/prometheus-operator/tree/master/helm This helm charts are been migrated to kubernetes charts upstream. Therefore we are currently not accepting any pull requests. Thank you for your understanding.
1. ставится prometheus-operator 2. Проверяешь что появились в k8s cdr Prometheus и т.д. 3. Ставишь kube-prometheus 4. Profit

Евгений
28.09.2018
17:54:00
Почитай на тему local volumes
спасибо, кажется это то что нужно

Alexey
28.09.2018
17:57:08
1. ставится prometheus-operator 2. Проверяешь что появились в k8s cdr Prometheus и т.д. 3. Ставишь kube-prometheus 4. Profit
kubectl apply -f bundle.yml kubectl apply -f manifests/ profit лан, это такое. работает и ладно, будет время, покопаюсь

Igor
28.09.2018
17:57:41
так тоже можно

Google
Alexey
28.09.2018
17:58:42
там явно видно, что ребята топят за jsonnet, а не helm

Viktor
28.09.2018
18:14:14
это понятно, локально у меня nginx-ingress развернут и туда все пихается, а в GKE на каждый ингрес создается балансировщик с внешним IP

Viktor
28.09.2018
18:59:29
понятно, попробую, спасибо

Евгений
28.09.2018
19:34:09
Почитай на тему local volumes
оч странная фигня. я создал сторадж, сделал в нем вольюм на 30Гб, сделал этот сторадж дефолтным, дальше поднимаю кластер кафок, и у меня одна кафка подцепилась через клейм, а две другие нет

spec: kafka: replicas: 3 listeners: plain: {} tls: {} config: offsets.topic.replication.factor: 3 transaction.state.log.replication.factor: 3 transaction.state.log.min.isr: 2 storage: type: persistent-claim size: 1Gi deleteClaim: false

это собственно ямл

Евгений
28.09.2018
20:06:25
Ну так один волум был, он и подцепился, а к остальным цепляться что должно?
просто странно, разве нет механизма динамического создания вольюмов из общего стораджа? я ведь не могу заранее знать на сколько инстансов мне ее придется скейлить

клейм же явно указывает на желаемый размер, и стораджа хватает

Страница 853 из 958