
Stanislav
14.06.2018
12:32:55
А что с ним?

V
14.06.2018
12:33:19

Stanislav
14.06.2018
12:33:26

V
14.06.2018
12:33:33
спасибо, ага

Google

bebebe
14.06.2018
12:55:41
https://kromtech.com/blog/security-center/cryptojacking-invades-cloud-how-modern-containerization-trend-is-exploited-by-attackers

V
14.06.2018
14:30:56
а на 1 ноде может быть не больше 110 подов?
непонятно, что такое CPU allocation (cores), это не ядра процессора же

Stanislav
14.06.2018
14:31:51

V
14.06.2018
14:32:09


Артамонов Игорь
14.06.2018
15:27:03
Привет всем!
Вопрос. Пытаюсь через helm задеплоить приложеньку с примонтированным glusterfs вольюмом. Получаю вот это вот в ответ:
$ helm install ggg/ --name beta
Error: release beta failed: Deployment.apps "beta-ggg" is invalid: spec.template.spec.containers[0].volumeMounts[0].name: Not found: "glusterfsvol"
Кто может подсказать, в какую сторону рыть? :))
Указания такие:
В containers:
volumeMounts:
- name: {{ .Values.volumeMounts.name }}
mountPath: {{ .Values.volumeMounts.mountPath }}
в spec:
volumes:
- name: {{ .Values.volumes.name }}
glusterfs:
- endpoints: {{ .Values.glusterfs.endpoints }}
path: {{ .Values.glusterfs.path }}
readOnly: {{ .Values.glusterfs.readOnly }}
Может какая очевидная ошибка, а я ее не замечаю? :c
Ну и да, рядом лежит jsonчик с работающим чартом для пода, который включается и работает. Т.е. представление как оно должно быть сконфигурировано у меня есть, но чет как-то не прет.


Vitaliy
14.06.2018
15:36:02
name: {{ .Values.volumeMounts.name }} == name: {{ .Values.volumes.name }} ?

Артамонов Игорь
14.06.2018
15:50:35

Vitaliy
14.06.2018
15:51:47
Ошибка volumeMounts[0].name: Not found: "glusterfsvol", соответственно, у тебя в volumeMounts и в volumes.name разные имена

Артамонов Игорь
14.06.2018
15:55:58

Google

Артамонов Игорь
14.06.2018
15:56:13
Вот тоже думал в эту сторону и не могу допереть, где он, сволочь, видит разные имена :)

Andor
14.06.2018
15:56:57
а у хельма нет опции показать сгенереный ямль-файл?

Mikhail
14.06.2018
15:57:08
--debug

Stanislav
14.06.2018
15:57:09
Может кто с ходу сталкивался, а то к вечеру у меня голова не варит?!
В общем, как прогнать конфиг через шаблонизатор чтобы он преобразовал переменные {{ .Values.huy }} в нормальные. Сам конфиг подтягивается так: {{ .Files.Get "configs/nginx.conf" | indent 4 }}

Артамонов Игорь
14.06.2018
15:57:12
увы нет
оу
нук.

Stanislav
14.06.2018
15:57:19

Mikhail
14.06.2018
15:57:19
ну и --dry-run туда же

Stanislav
14.06.2018
15:57:25
--dry-run —debug

Andor
14.06.2018
15:57:36
ну так может лучше этим и воспользоваться?
и сравнить с тем что деплоилось

Артамонов Игорь
14.06.2018
16:00:56
Пардон, упустил, что это вообще возможно, но. Может под конец дня совсем тупой, но гляньте:
COMPUTED VALUES:
...
volumeMounts:
name: glusterfsvol
volumes:
name: glusterfsvol
Итоговый deployment.yaml:
spec:
volumes:
- name: glusterfsvol
glusterfs:
- endpoints: glusterfs-cluster
path: gv0
readOnly: false
...
containers:
...
volumeMounts:
- name: glusterfsvol
mountPath: xxx
...
Щито ему может не нравиться?)
типа, оба параметра он собирает, оба параметра видит

Stanislav
14.06.2018
16:11:53
может пригодится кому

Andrey
14.06.2018
17:27:03

Andor
15.06.2018
07:11:56
/report

Sergey
15.06.2018
07:15:55
/report

Google

Yevhen
15.06.2018
07:25:32
/report

M
15.06.2018
10:14:15
Подскажите для кубера есть какой-то config manager?

Артамонов Игорь
15.06.2018
10:14:36
helm ?)

M
15.06.2018
10:15:43
helm ?)
а он синтаксис проверяет тоже?

Артамонов Игорь
15.06.2018
10:17:01
Угу

Andrey
15.06.2018
10:42:59

M
15.06.2018
10:43:26

Andrey
15.06.2018
10:45:11
я не шучу

Andrey
15.06.2018
10:56:19
ksonnet ещё есть.

M
15.06.2018
12:51:52
подскажите существует ли какойто способ текущую конфигруацию в k8s перенсти в другой namespace
сейчас все в default а надо перенести с другим именем

Lucky SB
15.06.2018
12:57:14
передеплоить в другой ns ?
с помошью get -o yaml получить список всех манифестов. отредактировать и задеплоить ?
судя по вопросу вам надо не забыть про secret,cm,ing,pv,pvc и прочая

M
15.06.2018
13:00:02

Lucky SB
15.06.2018
13:00:19
как это ?

M
15.06.2018
13:00:20
и как то утилитами самого кубера а не удалить и создать занаво

Эдуард
15.06.2018
13:01:35
Задеплоить на другом порту, вынести default, передеплоить на нужный порт
Привет, балансеры

Google

Lucky SB
15.06.2018
13:01:46
омг
ну так-то да ) надо узнать что за точка входа

Admin
ERROR: S client not available

Stanislav
15.06.2018
13:28:58
Бле, цуко, ипучий helm! не может удалить нормально за собой контейнеры которые не в статусе running, зато отрапортовывает что все ок, приложение удалено отлично! накипело бля!

Sergey
15.06.2018
13:33:37
а что ему зависнуть и ждать пока все не ответят?
вы дали ему таску удалить чарт - он послал таску подам, поды получили, он говорит ок
кто вырубился тот вырубился

Stanislav
15.06.2018
13:51:22
выдать ошибку что удаление не удалось
и ввести возможность принудительного удаления через —grace-period=0 —force
Это было бы логичнее

Vitaliy
15.06.2018
14:01:17

Fike
15.06.2018
14:06:28

Stanislav
15.06.2018
14:07:09
Тут либо делать либо не делать, но делать на половину как то не очень.

Mikhail
15.06.2018
14:42:45
Нормально всё хелм удаляет с флагом —purge

Дмитрий
15.06.2018
15:08:45

Stanislav
15.06.2018
15:48:17
v2.8.2

Artem
15.06.2018
20:03:29
Привет народ
помогите рекомендацией новичку

Google

Artem
15.06.2018
20:09:41
развернул этот кластер https://github.com/stefanprodan/k8s-scw-baremetal
Пишу приложение распределенное. Планирую заворачивать его в докер и ключевым моментом является пробрасывать в этот докер ip'ники других узлов приложения.
CI/CD смотрю на gitlab ce:
- но не пойму где его лучше запускать в кластере kubernetes или в общем с ним ни как не связывать, куда копать?
- хотелось бы после пуша в реп приложение собрать апп->запушить в docker registery и чтоб на всех узлах где крутится предущая версия image'a старый контейнер убился, а новый запустился, куда копать?

Fike
15.06.2018
20:13:28
Собственно gitlab ci у тебя может реагировать на новые коммиты. Где разворачивать, внутри или снаружи - вопрос личных убеждений, я за снаружи.

Artem
15.06.2018
20:14:59

Mikhail
15.06.2018
20:20:51
Или вот так:
k8s-deploy-testing:
image: lachlanevenson/k8s-kubectl
stage: deploy
script:
- kubectl apply -f .ci/deployment.yml
А до этого так:
docker-build:
image: docker:stable
stage: package
script:
- docker build -t registry.url/project -f .ci/Dockerfile .
- docker login -u deploy -p $REGISTRY_PASSWD registry.url
- docker push registry.url/project

Stanislav
15.06.2018
20:22:53

Mikhail
15.06.2018
20:23:22
Скрипт же. Что хочешь, то и делаешь
Что именно потрекать?

Stanislav
15.06.2018
20:23:54
Как проходит деплоймент с новой версией файла деплоймента
Хочется увидеть лог процесса
Не знаешь как можно?
А то апплай он асинхронный - тупо ОК сразу и все, а там внутри может быть роллинг апдейт, который упадет на полпути