
bebebe
28.09.2018
13:01:53
@SinTeZoiD ^^^

Alexander
28.09.2018
13:02:25
тицкая сила
ну и спам пошёл

bebebe
28.09.2018
13:05:46

Google

Anton
28.09.2018
13:06:35
что вы таки хотите этой гифкой сказать?

Alexey
28.09.2018
13:27:11

Maxim
28.09.2018
13:33:17
Подскажите, раскатал куб через kubespray, установил helm с tiller-ом. Сделал helm init, но при поптыке сделать helm install или просто helm init выдает Error: Get https://10.0.0.1:443/api/v1/namespaces/kube-system/configmaps?labelSelector=OWNER%!D(MISSING)TILLER: dial tcp 10.0.0.1:443: connect: no route to host Как пофиксить?)

Oleg
28.09.2018
13:41:08
https://github.com/helm/helm/issues/4020
Run command below will fix it( I'm tested, OK).
kubectl -n kube-system patch deployment tiller-deploy -p '{"spec": {"template": {"spec": {"automountServiceAccountToken": true}}}}'
Быстрогугл =)

Dmitriy
28.09.2018
14:36:24
Подскажити плиз
чтоб поды одного деплоймента резолвили поды другого деплоймента по именам

Alexey
28.09.2018
14:37:19

Artem
28.09.2018
14:37:52

Andrey
28.09.2018
14:38:51

Dmitriy
28.09.2018
14:44:56
Делайте стейтфулсет сервисом и буде у pod.service.svc.namsepace.cluster.local
На стейтфул сет не очень охота это у меня
Ноды запроса аналитики(спарк клиент мод на 2.4 палпатин релизе бью) их намного лучше оставить деплой модом
(эти ноды становятся спарк драйвером и к нему вцепятся экзекьюторы)
и когда создаются экзекьюторы они не резолвят поду драйвера
(Поменять подход запроса нет возможности)
____
Если стейтфулсетом будет то должно резолвить???

Artem
28.09.2018
14:45:34
да, для этого и задумывалось
или рисуй сервисы для каждого пода

Google

Dmitriy
28.09.2018
14:45:55
спасибо попробую

ptchol
28.09.2018
15:24:43
Ребят, а чем быстрее и удобнее сделать оперативный мониторинг кубера.
"Сильно" исторические данные не нужны, интересует недельный промежуток, не более.
и важно чтобы "кастомные" метрики легко завозить было

Alexey
28.09.2018
15:25:27
Это одна репа. Метрики супер просто
И это плюс минус стандарт на мониторинг куба

Никита
28.09.2018
15:27:52
Кастомные метрики только в jsonnet-темплейтах нужно будет пилить)
Ну, если по красоте, конечно.

Viktor
28.09.2018
16:36:02
вопрос по GKE и Ingress, если я деплою N приложений app1..N то GKE поднимает на каждый Ingress отдельный IP, как сделать так, что бы у меня был 1 статический IP и трафик на эти приложения терминировался на нем? мне нужно отказаться от деплоя Ingres ресурсов в каждом приложении и создать 1 Ingress ресурс где указать какие хосты на какие сервисы смотрят?

Вася
28.09.2018
16:40:53
Котоны, а кто нибудь прикручивал envoy как баллансировщик на baremetal с k8s?

Михаил
28.09.2018
16:44:15

Вася
28.09.2018
16:45:02
Вместо ничего)
У меня сейчас сделано все через nginx ingress controller
там повесил ext ip
в этой схеме теряются ip клиентов в хедерах
Вот я и подумал прикрутить envoy в tcp режиме, балансить на nginx ingress controller, попустно включив proxy protocol

Михаил
28.09.2018
16:52:41
В плане трафик влетает весь в haproxy, а у него уже backend ingress
Тогда ничего не теряется

Andrey
28.09.2018
17:37:15
Hey, check out this track, it's great: Виктор Цой - Кукушка https://youtu.be/Ra0ozaE-oy0 Find more free music with https://itunes.apple.com/app/id1058774427

Google

Михаил
28.09.2018
17:38:41

Andrey
28.09.2018
17:39:17
Ребят, я вот смотрел prometheus-operator и во всех статьях идёт установка через helm, сначала просто прометея, а потом kube-prometheus со всем хламом. Вопрос, а это норм что в итоге ставится 2 прометея в кластер?

Andrey
28.09.2018
17:39:43
Зачем это здесь?)
Ну тут думаю на всю циничность IT - есть люди у которых сердечный ритм меняется из песней Цоя
Поёт о низменных вещах

Alexey
28.09.2018
17:40:55

Fike
28.09.2018
17:40:58
я случайно кукушку цоя

Andrey
28.09.2018
17:41:43
про докер?
В несколько уровней незадукоментмрованных выше )

Alexey
28.09.2018
17:41:47

Andrey
28.09.2018
17:42:29

Igor
28.09.2018
17:42:59

Andrey
28.09.2018
17:43:11
За пределы документации приложения не выходят, а в пределах работают

Alexey
28.09.2018
17:43:49
Но устарело. Там по датам видно, что на helm подзабили в гите

Igor
28.09.2018
17:44:40
ну мы используем и ничего

Евгений
28.09.2018
17:44:41
ребят, поясните пожалуйста концепцию Storage Classes в кубере. я правильно понимаю что когда мы создаем сторадж класс поды могу запрашивать у него спейс для монтирования своих вольюмов?

Igor
28.09.2018
17:45:05
просто там от helm много не нужно

bebebe
28.09.2018
17:45:16

Евгений
28.09.2018
17:45:34
и второй вопрос: какой самый простой способ (кроме ephemeral) создания локального сторадж класса на диске чтобы поды могли деплоиться и хранить данные локально (на какой либо из нод, пусть даже на мастере)

Alexey
28.09.2018
17:45:37

Andrey
28.09.2018
17:46:00

Google

Евгений
28.09.2018
17:46:16

Viktor
28.09.2018
17:46:32
bebebe а каким образо можно динамически доблять/удалять хосты в этом ингресе?

Igor
28.09.2018
17:46:45

bebebe
28.09.2018
17:47:45

Alexey
28.09.2018
17:47:59

Viktor
28.09.2018
17:48:24
bebebe понятно, спасибо за консультацию

Евгений
28.09.2018
17:48:47
и чем отличается storage class от обычного persistent volume?
буду признателен за любую помощь

Alexey
28.09.2018
17:49:59

Igor
28.09.2018
17:50:42

Евгений
28.09.2018
17:50:48

Alexey
28.09.2018
17:52:11

Евгений
28.09.2018
17:52:14
проблема в том, что я не хочу прикручивать nfs-диск к каждому поду руками. мне почему то кажется что есть более правильный способ делать это на кубере

kvaps
28.09.2018
17:52:32

Igor
28.09.2018
17:53:00

Евгений
28.09.2018
17:54:00

kvaps
28.09.2018
17:54:27

Alexey
28.09.2018
17:57:08

Igor
28.09.2018
17:57:41
так тоже можно

Google

Alexey
28.09.2018
17:58:42
там явно видно, что ребята топят за jsonnet, а не helm

M
28.09.2018
17:58:54

Viktor
28.09.2018
18:14:14
это понятно, локально у меня nginx-ingress развернут и туда все пихается, а в GKE на каждый ингрес создается балансировщик с внешним IP

bebebe
28.09.2018
18:54:38

Stas
28.09.2018
18:56:10

Viktor
28.09.2018
18:59:29
понятно, попробую, спасибо

Евгений
28.09.2018
19:34:09
Почитай на тему local volumes
оч странная фигня. я создал сторадж, сделал в нем вольюм на 30Гб, сделал этот сторадж дефолтным, дальше поднимаю кластер кафок, и у меня одна кафка подцепилась через клейм, а две другие нет
spec:
kafka:
replicas: 3
listeners:
plain: {}
tls: {}
config:
offsets.topic.replication.factor: 3
transaction.state.log.replication.factor: 3
transaction.state.log.min.isr: 2
storage:
type: persistent-claim
size: 1Gi
deleteClaim: false
это собственно ямл

kvaps
28.09.2018
19:38:25

Евгений
28.09.2018
20:06:25
клейм же явно указывает на желаемый размер, и стораджа хватает