@kubernetes_ru

Страница 703 из 958
Roman
23.07.2018
22:18:23
Ребятки, а кто может сказать с Flannel я могу создавать мастер и ноду в разных подсетях? Мастер 172.32.1.85, а нода 172.32.2.55? Если кластер инициилизировать kubeadm init --pod-network-cidr=172.32.0.0/16

Чет столкнулся с тем, что после выполнения kubeadm join нода перестает быть доступна из другой подсети

Banschikov
24.07.2018
04:53:39
Как же достал этот терминатор ужо!

Люди не кто не в курсе где можно прочитать по 3-й хэлм? Что будет нового, что исправят в старом фунционале и т.п

Google
blkmrkt
24.07.2018
05:21:12
в helm в зависимые объектые в аннотации добавляют хэши отрендеренных объектов. в итоге например деплоймент обновится, когда изменишь конфиг мап и поедет роллинг апдейт
Это что-то как package.lock для ноды, для воспроизводимости билдов? Накат-откат одной командой? Полезная вещь? Я хельм пока стороной обходил, настраивал все через гуи.

Anton
24.07.2018
05:37:01
Через какие гуи?) в helm есть requirements, но то, о чем я говорил выше, совсем другое и не требует хелм, можно самому любым шаблонизатором сделать

Oleg
24.07.2018
07:08:12
с кем можно поговорить по поводу организации CD в кубер без остановки приложения при миграции баз?

Дмитрий
24.07.2018
07:17:12
с кем можно поговорить по поводу организации CD в кубер без остановки приложения при миграции баз?
это скорее проблема разработчиков, а не кубера - их задача делать версии миграций с обратной совместимостью

Oleg
24.07.2018
07:19:12
ну вот надо в комплексе - как организуют репо, как собирают helm, скрипты апдейтов, как накатывают, как следят за накатом и прочее

Pavel
24.07.2018
07:23:49
И как он? Классика или...
Так пока не пробовал, вот думаю может у кого есть резерв времени)

Juriy
24.07.2018
07:25:01
кто выигрывает?
Те которые в красных шлемах :)

Google
Andrey
24.07.2018
07:28:57
ну вот надо в комплексе - как организуют репо, как собирают helm, скрипты апдейтов, как накатывают, как следят за накатом и прочее
Обычная схема в три шага: код который работает и с обеими версиями схемы данных, миграция через job, новый код только для новой версии схемы. Job из CI можно дергать ручками

ptchol
24.07.2018
07:29:32
А чо не в жёлтых штанах ? )

Andrey
24.07.2018
07:51:51
с кем можно поговорить по поводу организации CD в кубер без остановки приложения при миграции баз?
если приложение поддерживает миграцию без downtime, просто запихай в инит скрипт в образе

Dmitry
24.07.2018
07:52:28
Привет! Выкатили в опен сорс софт Cоntainterum, работает поверх Kubernetes, дает удобный UI, CI/CD pipelines, командную работу над проектами, revision control. https://github.com/containerum/containerum/ для развития проекта, нужны звезды в репозитории, если не сложно, буду очень благодарен)

Maxim
24.07.2018
07:54:37
с кем можно поговорить по поводу организации CD в кубер без остановки приложения при миграции баз?
мы через отдельный деплоймент делаем в сиае поднимаем деплоймент с 1 подом, в котором новые миграции, заходим в под, запускаем команду для миграций (это позволяет легко отследить код возврата и ошибку сразу видно в консоли зафейленой джобы), если все ок удаляем деплоймент и выкатываем новую версию приложения разрабы пишут обратно совместимые миграции, т.е новая схема не ломает старую версию приложения

Banschikov
24.07.2018
08:09:52
Народ, а для CI в k8s кто нибуть использует сторонние инструменты, кромн хелма?

Igor
24.07.2018
08:13:46
codefresh

helmfile

chamber (для секретов) но мы на aws )

Andrey
24.07.2018
08:20:53
С ksonnet был у кого опыт?

Banschikov
24.07.2018
08:22:09
helmfile
Спасибо. И как без глюков работает?

Igor
24.07.2018
08:22:30
базовый функционал да

но вообще есть "особенности"

это ж обертка над helm и все его пороки прилагаются

например проблема с типами данных которые передаются через --set

счас починили более менее сделали какой то ---set-string

Google
Igor
24.07.2018
08:24:37
вообщем вполне живой

Banschikov
24.07.2018
08:25:40
вообщем вполне живой
Спасибо поразбираюсь. Думаю это самое то, для тех кто юзает helm базовым для CI

Народ, а кто нибуть дружил эту штуку с консулом? https://github.com/skuid/helm-value-store

Andrey
24.07.2018
08:43:18
Все привет. ТАкая вот проблемка

куб кластер 1 мастер и 2 воркера грохнул одного воркера под, который там крутился, в состоянии unknown удаляю этот под - уже минут 15 висит

заранее спасибо за советы куда можно копать

Bsod
24.07.2018
08:48:05
куб кластер 1 мастер - хорошая рифма

Andrey
24.07.2018
08:48:22
:)

Banschikov
24.07.2018
08:49:51
заранее спасибо за советы куда можно копать
Если не поможет то вот так попробуй kubectl patch pod $POD -p '{"metadata":{"finalizers":null}}'

Andrey
24.07.2018
08:51:11
@denyasmail Спасибо огромное ща буду пробовать

Oleg
24.07.2018
09:07:50
Вот к примеру следующая последовательность изменений: 1. Запуск джобы, которая запускает миграцию, которая добавляет новую колонку в таблицу 2. Деплой через helm приложения, которое работает со старой колонкой, но умеет писать в новую колонку 3. Запуск джобы, которая заполняет новую колонку 4. Деплой через helm приложения, которое работает только с новой колонкой 5. Запуск джобы, которая удаляет старую колонку Итого три миграции и два деплоя приложения в строгой последовательности. Кто как для этого случая организует репо, артефакты, как выкатывает? @mxssl @im_xray33 @gorilych @yurik687 @shursh @StalkerNOVA

Anton
24.07.2018
09:12:05
куб кластер 1 мастер и 2 воркера грохнул одного воркера под, который там крутился, в состоянии unknown удаляю этот под - уже минут 15 висит
если у вас погасла нода, kubernetes сочтет хорошим тоном если вы удалите ее из кластера kubectl delete node <NodeName> и перераспределит ваш под. Когда нода снова зажжется, она сама добавится в кластер, если с ней все (стало) ок.

Vadim
24.07.2018
09:21:17
еще https://github.com/kubernetes-incubator/descheduler/blob/master/README.md может быть полезен

Andrey
24.07.2018
09:40:14
@denyasmail Спасибо Денис ПОМОГЛО! kubectl delete pods $POD --grace-period=0 --force

Andrey
24.07.2018
09:59:30
Какая версия куба и дашборды?
Dashboard Version: v1.8.3 Kubernetes: v1.10.4

Google
Egor
24.07.2018
10:09:00
всем привет. в эфире снова любознательный куберовод. 3 ноды на baremetal. Хочу сделать Deployment (replicas: 3) с общим стораджем. раскатал rook-ceph. Создал PV с типом ReadWriteMany, вписал монтирование pv в Deployment, но запускается только 1 экземпляр, остальные 2 висят ждут. ЧЯДНТ ?

Oleg
24.07.2018
10:18:29
всем привет. подскажите такой момент - с поды стучусь на ингресс с самоподписанным сертом, но вместо сгенеренного мной серта мне отдаётся другой - Kubernetes Ingress Controller Fake Certificate. при этом с мира отдаётся мой серт. почему подам отдаётся не тот серт что я выдал ingress? не могу найти описание этой логики в доках. я так понимаю если серт будет валидный загружен с поды он всё равно будет фейк виден, и она будет на него ругаться ...

Andrey
24.07.2018
10:25:41
Dashboard Version: v1.8.3 Kubernetes: v1.10.4
https://github.com/kubernetes/dashboard/wiki/Compatibility-matrix ничего неизвестно о поддержке 1.10 куба в борде 1.8

Denis
24.07.2018
10:32:50
Люди, а кто кубспреем добавлял вокреров? Прогнал по докам cluster.yml с измененным инвентори , на новом ноде все установилось , кублет настроенный, но машина в кластер не присоеденна

Oleg
24.07.2018
10:33:30
Ингресс-ресурс в студию и по одинаковым ли доменам стучишься
apiVersion: extensions/v1beta1 kind: Ingress metadata: annotations: nginx.ingress.kubernetes.io/secure-backends: "true" creationTimestamp: 2018-07-24T07:40:50Z generation: 3 name: helm-test namespace: test uid: e2f7f6a7-8f14-11e8-a8c8-0a58ac1f004f spec: backend: serviceName: test servicePort: 443 rules: - host: test.test http: paths: - backend: serviceName: test servicePort: 443 path: / tls: - hosts: - test.test secretName: test выглядит он так в поде прописан этот домен через hosts, указан внешний IP ингресса

Egor
24.07.2018
10:34:57
Посмотри тут на табличку: https://kubernetes.io/docs/concepts/storage/persistent-volumes/#persistent-volumes RBD не поддерживает ReadWriteMany
пнятно.. а как-то вообще можно обеспечить общий сторадж для подов?

Andrey
24.07.2018
10:35:18
там же написано: gluster, cephfs...

Egor
24.07.2018
10:35:46
я почему-то подумал, что раз rook создал ceph-кластер, то это и есть cephFS

Andrey
24.07.2018
10:36:12
у ceph'а есть RBD, cephfs, RADOS GW

cephfs ~= NFS

Oleg
24.07.2018
10:54:20
вообще, тот дефолтный серт выдается в двух случаях 1) нет tls сикрета 2) домен не подходит под hosts в tls
в том то и беда что оба варианта отметаются тем что со стороны моего браузера всё хорошо... спасибо, буду еще думать

Dmytro
24.07.2018
10:58:08
и тогда пункты 1, 3 и 5 можно объединить в одну джобу

Google
Mikhail
24.07.2018
11:11:49
А подскажите по helm. У меня RBAC и я собираюсь установить тиллер с сервисным аккаунтом metadata: name: tiller namespace: kube-system - оно сможет ставить приложения в любые неймспейсы или только в kube-system?

Mikhail
24.07.2018
11:12:15
спасибо!

Mikhail
24.07.2018
11:12:34
--- apiVersion: rbac.authorization.k8s.io/v1beta1 kind: ClusterRoleBinding metadata: name: tiller roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: cluster-admin subjects: - kind: ServiceAccount name: tiller namespace: kube-system

Sergey
24.07.2018
11:12:47
тогда в любые, потому что у вас прибинден cluster-admin

Andrey
24.07.2018
12:28:17
привет такая фигня - после рестарта большого количества под кубернетес пытается их поднять на одной ноде - с печальными последствиями нода уходит по LA и памяти как бы ему сказать этого не делать

Andrey
24.07.2018
12:32:29
ну еще 2 ноды да

cent
24.07.2018
12:32:33
А кто-то пробовал поставить локально kubernetes? Почему scheduler не может раздать ip для пода? default-scheduler 0/1 nodes are available: 1 node(s) had taints that the pod didn't tolerate.

Andrey
24.07.2018
12:32:46
причем потом он сам без каких то действий особых просирается и раскидывает по ним

но довольно долго тупит

Pavel
24.07.2018
12:33:15
ну еще 2 ноды да
своп выключен?

Страница 703 из 958