
Valentin
08.07.2018
17:10:52
у роли должно быть право на create extensions

Эдуард
08.07.2018
17:13:41

Sergey
08.07.2018
17:14:30
кстати, кто то уже перелез на 1.11? какие проблемы испытывали?
а то походу мне как минимум придется себе доку в конфлюенсе переделывать под новые фичи))

Google

Эдуард
08.07.2018
17:18:08
у роли должно быть право на create extensions
Пытаюсь пересоздать, получаю ошибку Error from server (AlreadyExists): error when creating "STDIN": clusterrolebindings.rbac.authorization.k8s.io "default-token-svvc8" already exists

Valentin
08.07.2018
17:18:18

Эдуард
08.07.2018
17:18:28
Но при этом kubectl get secrets --all-namespaces я не вижу его

Valentin
08.07.2018
17:19:33
попробуй edit а не пересоздать

Эдуард
08.07.2018
17:20:01
kubectl delete clusterrolebindings.rbac.authorization.k8s.io/default-token-svvc8
Зараза!

Valentin
08.07.2018
17:20:39
edit роли
ну или сделай новую роль и байндинг на дефолт юзера
а лучше юзера иметь не дефолтного

Эдуард
08.07.2018
17:22:48
Тык гитлабина лезет
Только костылять с RBAC, насколько я понимаю

Valentin
08.07.2018
17:23:34
гитлабу можно указать юзера
но не помню, как

Google

Valentin
08.07.2018
17:24:39
но можно и на дефолтового новую роль забайндить с правом на создание экстеншенов

Dmytro
08.07.2018
17:40:11

Gleb
08.07.2018
18:05:39
где лежат данные?

Эдуард
08.07.2018
18:32:47
От слова совсем

Aleksandr
08.07.2018
19:38:52

Dmytro
08.07.2018
19:46:41

Gleb
08.07.2018
19:47:21
мап редьюс отдельная тема

Dmytro
08.07.2018
19:47:41
гм ну это что то объясняет
ну было высказано утверждение что на виртуалках нельзя больше 150 гиг, у меня вот явно больше и вообще облако - в целом пока норм. Бывают перформанс проблемы - пока решаем доп индексами

Gleb
08.07.2018
19:50:52
типа селфхостед всё

Dmytro
08.07.2018
19:51:31
ах в этом смысле, тут у меня такого опыта нет
но всё равно ведь сильно зависит от оперативы, может иопс будет небольшой и с 300 гиг
ну и от структуры базы само собой

Эдуард
08.07.2018
21:25:49
Документация последних ejabberd и то лучше, чем у процесса интеграции кубика с гитлабом. Поделитесь, что почитать, пожалуйста.

Google

Dmytro
08.07.2018
23:32:46
я забил на интеграцию т.к. гитлаб хочет деплоить с лейблом app: <env name> которое создано у пайплана что на мою текущую "архитектуру" именования приложений и лейблов никак не ложится
ещё и я так понимаю он будет все пихать в один неймспейс (но тут зуб не дам, может можно настроить - после гвоздями прибитого app: <env name> дальше ковыряться не стал)

Эдуард
08.07.2018
23:48:33
У меня валится по 10ку причин
Хотя всё крутится на ДО, франкфурт

Dmytro
08.07.2018
23:55:41
хелм у меня стоял давно в кластере
гитлаб навязывает своё видение как организовывать деплой приложения (лейблы и т.п.) - мне такое не подошло, что же мне все чарты мои переписывать и мониторинг переделывать
имхо эта интеграция для каких-то совсем уж наколеночных проектов где не важно как и куда оно задеплоится

Vlad
09.07.2018
05:11:27
Всем привет. Ребята не подскажете как можно в поде стянуть c приватного gitlab registry имедж. Я создал креды через kubectl create secret. Добавил в yml
imagePullPolicy: Always
imagePullSecrets:
- name: regcred2
Но все равно в результате получаю Error response from daemon: Get https://————————————————————-/v2/s2/postgres/manifests/develop: denied: access forbidden

Banschikov
09.07.2018
05:19:12
этот кусок

Vlad
09.07.2018
05:19:25
на миникуб((

Vlad
09.07.2018
05:19:33
а
в spec
Deployment

Banschikov
09.07.2018
05:21:12
spec:
imagePullSecrets:
- name: regsecret
вот так у меня все секреты с регистрами работают

Vlad
09.07.2018
05:21:54
apiVersion: apps/v1beta1
kind: Deployment
metadata:
name: postgres
spec:
template:
metadata:
labels:
app: postgres
spec:
containers:
- name: postgres
image: https://------/s2/postgres:develop
ports:
- containerPort: 5432
env:
- name: POSTGRES_DB
value: ngp
- name: POSTGRES_USER
value: ngp
- name: POSTGRES_PASSWORD
value: -----
imagePullPolicy: Always
imagePullSecrets:
- name: regcred2
---
apiVersion: v1
kind: Service
metadata:
name: postgres
spec:
ports:
- port: 5432
selector:
app: postgres

Banschikov
09.07.2018
05:22:32

Vlad
09.07.2018
05:23:17
попробую, но он вроде на одном уровне с containers

Google

Banschikov
09.07.2018
05:24:05
Ага, но я х.з. У меня по подобной фигне не работало

Vlad
09.07.2018
05:28:39

Admin
ERROR: S client not available

Dmitriy
09.07.2018
05:29:31
https://kubernetes.io/docs/concepts/containers/images/
Не в контейнерах, а на одном уровне с ними

Vlad
09.07.2018
05:33:04
Ну я так и написал

Banschikov
09.07.2018
05:57:56
Подскажите, Statefulset удаляется если, то persistent volume тоже уходит вместе с ним в небытие?

Artem
09.07.2018
06:32:26
Зависит от выставленной политики

Banschikov
09.07.2018
06:40:53

Nik
09.07.2018
06:44:38
Коллеги, такой вопрос, а как лучше всего мониторить место в PV? Node_exporter, запущенный на хосте, решительно не хочет видеть эти диски, мб ему прав не хватает конечно. Недавно zookeeper подкинул с этим проблем)

Maksim
09.07.2018
07:21:17

Nik
09.07.2018
07:25:48

Artem
09.07.2018
07:30:02
Ребят, нужна помощь...
Решил попробовать развернуть куб с несколькими нодами. Установил 3 виртуалки Vagrant, в мастере init прошел, сетевой плагин (weave) тоже нормально запустился. Пробую с другой ноды заджойниться, пишет что все ок, возвращаюсь на мастер, пишу kubectl get nodes, выводит только мастер(
В какую сторону смотреть и как можно продебажить?

Sergey
09.07.2018
07:34:33
kubectl get pods --all-namespaces

Artem
09.07.2018
07:35:47
Вот эта команда показывает что все поднялось (везде стоит 1/1)
Ещё смотрел логи kubelet у одной из нод. Там ошибка какая-то была, чуть позже скину логи
Там error sync словосочетание было

Stanislav
09.07.2018
10:10:02
Коллеги, может кто сталкивался? Было всегда установлено значения для Image pull : ifNotPresent вот тут /etc/kubernetes/manifests/kube-controller-manager.yaml. Сегодня ни с того ни с сего оно стало Always именно в Kubernetes. Изменение пока внутри ничего не дает, на этот параметр снаружи почему то кладется болт.
Я в замешательстве

Google

Stanislav
09.07.2018
10:10:35
про изменение внутри это kubectl edit

kvaps
09.07.2018
10:51:08
емнип static pods не могут быть изменены через kubectl edit
возможно этот манифест переписал kubeadm при очередном обновлении

Denis
09.07.2018
11:04:27
всем привет, подскажите пжл, есть Projects/Namespaces в rancher2
как можно выдернуть имя Projects, для
Namespaces - kubectl get ns
есть ли некое подобие для Projects
хелп по гету не дал результатов

Dmitry
09.07.2018
11:05:33
Ребят, есть кейс:
в одном ингресе у меня есть events,
а в другом нету.
в том котором нет евентов - адрес\домен указывает на мастер ноду.
версия кубера 1.10.*
прошу подсказать как это работает и что прочесть чтобы сделать так, что евенты появились там где их нет.

Alik
09.07.2018
11:09:24

Dmitry
09.07.2018
11:10:08

Alik
09.07.2018
11:14:49
на воркер ноду.
kubectl get ing <second-ingress-name>
Адрес совпадает с адресом мастер ноды?

Banschikov
09.07.2018
11:25:04
Народ подскажите, а как сделать так что бы statefullset был выделен новый вольюм? default-scheduler persistentvolume "pvc-cd2e2a29-8368-11e8-9861-fa163ea01587" not found (repeated 4 times) Вот что выдает
Но мне не нужно что бы он старый вольюм не искал
Это ошибка или так и должно быть?