
Roman
23.07.2018
22:18:23
Ребятки, а кто может сказать с Flannel я могу создавать мастер и ноду в разных подсетях? Мастер 172.32.1.85, а нода 172.32.2.55? Если кластер инициилизировать kubeadm init --pod-network-cidr=172.32.0.0/16
Чет столкнулся с тем, что после выполнения kubeadm join нода перестает быть доступна из другой подсети

Banschikov
24.07.2018
04:53:39
Как же достал этот терминатор ужо!
Люди не кто не в курсе где можно прочитать по 3-й хэлм? Что будет нового, что исправят в старом фунционале и т.п

Google

Andrey
24.07.2018
05:10:06

Banschikov
24.07.2018
05:11:59

Andrey
24.07.2018
05:12:05

blkmrkt
24.07.2018
05:21:12

Anton
24.07.2018
05:37:01
Через какие гуи?) в helm есть requirements, но то, о чем я говорил выше, совсем другое и не требует хелм, можно самому любым шаблонизатором сделать

Oleg
24.07.2018
07:08:12
с кем можно поговорить по поводу организации CD в кубер без остановки приложения при миграции баз?

Дмитрий
24.07.2018
07:17:12

Oleg
24.07.2018
07:19:12
ну вот надо в комплексе - как организуют репо, как собирают helm, скрипты апдейтов, как накатывают, как следят за накатом и прочее

Juriy
24.07.2018
07:23:16

Pavel
24.07.2018
07:23:49

Juriy
24.07.2018
07:25:01

Google

Andrey
24.07.2018
07:28:57

ptchol
24.07.2018
07:29:32
А чо не в жёлтых штанах ? )

Juriy
24.07.2018
07:30:22

Andrey
24.07.2018
07:51:51

Dmitry
24.07.2018
07:52:28
Привет! Выкатили в опен сорс софт Cоntainterum, работает поверх Kubernetes, дает удобный UI, CI/CD pipelines, командную работу над проектами, revision control. https://github.com/containerum/containerum/ для развития проекта, нужны звезды в репозитории, если не сложно, буду очень благодарен)

Maxim
24.07.2018
07:54:37
с кем можно поговорить по поводу организации CD в кубер без остановки приложения при миграции баз?
мы через отдельный деплоймент делаем
в сиае поднимаем деплоймент с 1 подом, в котором новые миграции, заходим в под, запускаем команду для миграций (это позволяет легко отследить код возврата и ошибку сразу видно в консоли зафейленой джобы), если все ок удаляем деплоймент и выкатываем новую версию приложения
разрабы пишут обратно совместимые миграции, т.е новая схема не ломает старую версию приложения

Sergei
24.07.2018
07:57:52

Banschikov
24.07.2018
08:09:52
Народ, а для CI в k8s кто нибуть использует сторонние инструменты, кромн хелма?

Igor
24.07.2018
08:13:46
codefresh
helmfile
chamber (для секретов) но мы на aws )

Andrey
24.07.2018
08:20:53
С ksonnet был у кого опыт?

Banschikov
24.07.2018
08:22:09
helmfile
Спасибо. И как без глюков работает?

Igor
24.07.2018
08:22:30
базовый функционал да
но вообще есть "особенности"
это ж обертка над helm и все его пороки прилагаются
например проблема с типами данных которые передаются через --set
счас починили более менее сделали какой то ---set-string

Google

Igor
24.07.2018
08:24:37
вообщем вполне живой

Banschikov
24.07.2018
08:25:40
Народ, а кто нибуть дружил эту штуку с консулом?
https://github.com/skuid/helm-value-store

Andrey
24.07.2018
08:43:18
Все привет. ТАкая вот проблемка
куб кластер 1 мастер и 2 воркера
грохнул одного воркера
под, который там крутился, в состоянии unknown
удаляю этот под - уже минут 15 висит
заранее спасибо за советы куда можно копать

Banschikov
24.07.2018
08:44:55

Bsod
24.07.2018
08:48:05
куб кластер 1 мастер - хорошая рифма

Andrey
24.07.2018
08:48:22
:)

Banschikov
24.07.2018
08:49:51

Andrey
24.07.2018
08:51:11
@denyasmail Спасибо огромное ща буду пробовать

Oleg
24.07.2018
09:07:50
Вот к примеру следующая последовательность изменений:
1. Запуск джобы, которая запускает миграцию, которая добавляет новую колонку в таблицу
2. Деплой через helm приложения, которое работает со старой колонкой, но умеет писать в новую колонку
3. Запуск джобы, которая заполняет новую колонку
4. Деплой через helm приложения, которое работает только с новой колонкой
5. Запуск джобы, которая удаляет старую колонку
Итого три миграции и два деплоя приложения в строгой последовательности.
Кто как для этого случая организует репо, артефакты, как выкатывает?
@mxssl @im_xray33 @gorilych @yurik687 @shursh @StalkerNOVA

Anton
24.07.2018
09:12:05

Banschikov
24.07.2018
09:17:59

Vadim
24.07.2018
09:21:17
еще https://github.com/kubernetes-incubator/descheduler/blob/master/README.md может быть полезен

Andrey
24.07.2018
09:40:14
@denyasmail Спасибо Денис ПОМОГЛО! kubectl delete pods $POD --grace-period=0 --force

Banschikov
24.07.2018
09:40:40

Andrey
24.07.2018
09:59:30

Google

Egor
24.07.2018
10:09:00
всем привет. в эфире снова любознательный куберовод. 3 ноды на baremetal. Хочу сделать Deployment (replicas: 3) с общим стораджем. раскатал rook-ceph. Создал PV с типом ReadWriteMany, вписал монтирование pv в Deployment, но запускается только 1 экземпляр, остальные 2 висят ждут. ЧЯДНТ ?


Maxim
24.07.2018
10:14:01
Вот к примеру следующая последовательность изменений:
1. Запуск джобы, которая запускает миграцию, которая добавляет новую колонку в таблицу
2. Деплой через helm приложения, которое работает со старой колонкой, но умеет писать в новую колонку
3. Запуск джобы, которая заполняет новую колонку
4. Деплой через helm приложения, которое работает только с новой колонкой
5. Запуск джобы, которая удаляет старую колонку
Итого три миграции и два деплоя приложения в строгой последовательности.
Кто как для этого случая организует репо, артефакты, как выкатывает?
@mxssl @im_xray33 @gorilych @yurik687 @shursh @StalkerNOVA
если делать миграции через джобу проблематично будет стдаут удобно выводить куда-то, чтобы сразу было видно почему миграции упали, я по крайней мере не нашел как


Oleg
24.07.2018
10:18:29
всем привет. подскажите такой момент - с поды стучусь на ингресс с самоподписанным сертом, но вместо сгенеренного мной серта мне отдаётся другой - Kubernetes Ingress Controller Fake Certificate. при этом с мира отдаётся мой серт. почему подам отдаётся не тот серт что я выдал ingress? не могу найти описание этой логики в доках. я так понимаю если серт будет валидный загружен с поды он всё равно будет фейк виден, и она будет на него ругаться ...

Andrey
24.07.2018
10:25:41

Andrey
24.07.2018
10:28:53

Pavel
24.07.2018
10:30:55

Denis
24.07.2018
10:32:50
Люди, а кто кубспреем добавлял вокреров? Прогнал по докам cluster.yml с измененным инвентори , на новом ноде все установилось , кублет настроенный, но машина в кластер не присоеденна

Oleg
24.07.2018
10:33:30
Ингресс-ресурс в студию и по одинаковым ли доменам стучишься
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
annotations:
nginx.ingress.kubernetes.io/secure-backends: "true"
creationTimestamp: 2018-07-24T07:40:50Z
generation: 3
name: helm-test
namespace: test
uid: e2f7f6a7-8f14-11e8-a8c8-0a58ac1f004f
spec:
backend:
serviceName: test
servicePort: 443
rules:
- host: test.test
http:
paths:
- backend:
serviceName: test
servicePort: 443
path: /
tls:
- hosts:
- test.test
secretName: test
выглядит он так
в поде прописан этот домен через hosts, указан внешний IP ингресса

Egor
24.07.2018
10:34:57

Andrey
24.07.2018
10:35:18
там же написано: gluster, cephfs...

Egor
24.07.2018
10:35:46
я почему-то подумал, что раз rook создал ceph-кластер, то это и есть cephFS

Andrey
24.07.2018
10:36:12
у ceph'а есть RBD, cephfs, RADOS GW
cephfs ~= NFS

Andrey
24.07.2018
10:39:59

Oleg
24.07.2018
10:54:20

Dmytro
24.07.2018
10:58:08
и тогда пункты 1, 3 и 5 можно объединить в одну джобу

Google

Mikhail
24.07.2018
11:11:49
А подскажите по helm. У меня RBAC и я собираюсь установить тиллер с сервисным аккаунтом metadata:
name: tiller
namespace: kube-system - оно сможет ставить приложения в любые неймспейсы или только в kube-system?

Banschikov
24.07.2018
11:12:09

Mikhail
24.07.2018
11:12:15
спасибо!

Sergey
24.07.2018
11:12:17

Mikhail
24.07.2018
11:12:34
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
name: tiller
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-admin
subjects:
- kind: ServiceAccount
name: tiller
namespace: kube-system

Sergey
24.07.2018
11:12:47
тогда в любые, потому что у вас прибинден cluster-admin

Andrey
24.07.2018
12:28:17
привет такая фигня - после рестарта большого количества под кубернетес пытается их поднять на одной ноде - с печальными последствиями нода уходит по LA и памяти как бы ему сказать этого не делать

Pavel
24.07.2018
12:32:18

Andrey
24.07.2018
12:32:29
ну еще 2 ноды да

cent
24.07.2018
12:32:33
А кто-то пробовал поставить локально kubernetes?
Почему scheduler не может раздать ip для пода?
default-scheduler 0/1 nodes are available: 1 node(s) had taints that the pod didn't tolerate.

Andrey
24.07.2018
12:32:46
причем потом он сам без каких то действий особых просирается и раскидывает по ним
но довольно долго тупит

Pavel
24.07.2018
12:33:15