
Rinat
06.10.2017
13:36:18
)) да почитал)
а где толковая дока есть как сделать несколько мастеров?

Айбелив
06.10.2017
13:36:53
https://kubernetes.io/docs/admin/high-availability/

Rinat
06.10.2017
13:37:00
ага читал))

Google

Айбелив
06.10.2017
13:37:48
либо штудировать https://github.com/kelseyhightower/kubernetes-the-hard-way

Mark
06.10.2017
13:47:30

Сергей
06.10.2017
13:49:00
уже нет
он был, но келси выпилил его
и не принял пулреквест по опенстеку

Mark
06.10.2017
13:49:36
Кстати интересно почему.
GCE кмк куда лучше с kubernetes интегрирован нежели с AWS до появления kops)

Сергей
06.10.2017
13:50:46
кто платит бабки - того и хвалим

Mikhail чердак
06.10.2017
13:51:15

Пашкин
06.10.2017
15:24:30
Мы попробовали rook не очень давно, но не последнюю версию. И было очень все плохо. В общем мы пытались пытались и сдались, решили, что для прода он пока не годится даже если мы его запустим.

Paul
06.10.2017
16:17:09

Пашкин
06.10.2017
16:20:38
Это плохо. У нас были на rook большие планы.
У кого есть хороший опыт использования чего-то аналогичного rook - Persistent Volume на обычном железе. Вроде ceph можно прямо так использовать. Как оно работает - отказоустойчивость, добавление, умирание нод и пр.

Google

Paul
06.10.2017
16:20:59
я использую цеф. Он не настолько сложно настраивается.

Пашкин
06.10.2017
17:51:54
а fabric8 реально кто-то использует? Я попробовал его поставить, что-то там не все гладко, да и использование его в том виде в котором они предлагают его использовать смысла особого не имеет. Мне показалось, что вот плагины для maven и для jenkins можно попробовать заюзать, а все остальное - типа создание новых проектов через UI - не знаю, по-моему можно только в рекламных роликах использовать.

vladget
06.10.2017
20:19:01
ой как меня заебал alpine... того нет, сего нет, у этого нет поддерки ssl, еще что-то... есть ли действительно большой профит в использовании этого кастрата? может взять убунту почуствовать себя человеком?

Paul
06.10.2017
20:20:36

vladget
06.10.2017
20:22:09
да - я понимаю, но оно стоит всех этих мучений? всмысле размер образа

Paul
06.10.2017
20:25:30
зависит от вашей задачи

vladget
06.10.2017
20:50:42
kubectl exec как то себя странно ведет когда в аргументе —
я понимаю почему.. но как это заэскейпить?

Dmitry
07.10.2017
02:01:22
кто знает как сделать полный бекап манифестов из кластера. kubectl cluster-info dump не подходит. он много чего не отдает, зато отдает лишнее - логи контейнеров. считаем, что прямого доступа к etcd нет

Let Eat
07.10.2017
10:56:48
kubectl get --all -o json ?

Dmitry
07.10.2017
11:10:09
Error: unknown flag: --all
`Client Version: version.Info{Major:"1", Minor:"7", GitVersion:"v1.7.6", GitCommit:"4bc5e7f9a6c25dc4c03d4d656f2cefd21540e28c", GitTreeState:"clean", BuildDate:"2017-09-14T06:55:55Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"7+", GitVersion:"v1.7.6-gke.1", GitCommit:"407dbfe965f3de06b332cc22d2eb1ca07fb4d3fb", GitTreeState:"clean", BuildDate:"2017-09-27T21:21:34Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64”}`
а есть просто all

Артём
07.10.2017
11:11:20
Возможно имелось ввиду kubectl get all -all-namespaces
Но оно так же не все покажет

Dmitry
07.10.2017
11:11:37
но он не отдает например Roles, RoleBindings
да и много чего еще наверное
даже ConfigMap

Mikhail
07.10.2017
11:12:28
Ну можно это все написать
вместо all

Артём
07.10.2017
11:13:08
Пользуйт helm и деплой с гитлабе) не придется бэкапить

Google

Dmitry
07.10.2017
11:16:21
я уже пробовал и так и так. мне удобнее прямо в кластере все создавать и редактировать. пропускается лишний шаг деплоя. для успокоения только надо бекапы запилить

Mikhail
07.10.2017
11:16:54
Конечно, смотря для чего кубернетис у вас:)

Dmitry
07.10.2017
11:17:39
а прописывать каждый ресурс конечно можно, но могут появиться новые

Артём
07.10.2017
11:18:20
Ну про скорость я бы поспорил, делаю пуль и через 10 сек это уже на проде
Пушь *

Dmitry
07.10.2017
11:18:30
если изменяется Deployment например, то предыдущие ревизии можно посмотреть в ReplicaSet

Артём
07.10.2017
11:18:37
Т9 блин
А если меняется configmap?)

Vitaliy
07.10.2017
11:26:24
а они версионируются именем и указываешь в деплойменте :) для себя так решил

Артём
07.10.2017
11:29:45
Ок, а как все это уживается с версионированием самого приложения? С гитлабом я уже забыл, когда был последний раз на сервере. А если нужно развернуть в другом кластере, то просто захожу и ставлю раннер. Ваша схема кажется значительно медленнее

Dmitry
07.10.2017
11:33:45
пример - надо добавить переменную окружения в деплоймент. в моем случае - это kubectl edit и готово. в вашем - найти нужный проект, в котором лежат манифесты, отредактировать, запушить, ждать пока это задеплоится. в случае если это новый проект - добавляется еще несколько шагов
а что именно используется из гитлаба? можно почитать? я думаю его использовать только чтобы автоматически менять image в конейнерах
это? https://gitlab.com/gitlab-examples/kubernetes-deploy

Артём
07.10.2017
11:42:05
Это https://github.com/flant/dapp

Dmitry
07.10.2017
11:51:06
то есть helm?

Артём
07.10.2017
11:51:50
Нет, эта штука собирает докеры и деплоить helm

No1
07.10.2017
11:52:38
?

Артём
07.10.2017
11:55:37
?

Mikhail
07.10.2017
11:57:44

Google

No1
07.10.2017
11:57:44
Обертки над обертками. Но каждый сам в праве выбирать что ему нужно)

Артём
07.10.2017
11:58:51
Я же ни кого не заставляю. Просто ответил на вопрос ;)

Dmitry
07.10.2017
12:39:24
в helm не решили проблему с RBAC?

Andrey
07.10.2017
12:42:00
о чем речь?
о том, что там нехватает роли?

Dmitry
07.10.2017
12:44:54
о том, что у tiller будет полный доступ и у всех кто его использует

Andrey
07.10.2017
12:45:42
а какой собственно ему нужен доступ? Если он создает/удаляет любые сервисы?

Dmitry
07.10.2017
12:46:47
такой же как у пользователя, который его вызывает

Andrey
07.10.2017
12:48:46
например у вас есть юзер, которому разрешен выкат ВСЕГО только в один неймспейс? И что бы он не катнул в другой НС, нужны такие же права у юзера. Лично я не слышал о такой возможности. Но кейс логичен.

Dmitry
07.10.2017
12:49:31
ага
грубо говоря helm сводит на нет идею с RBAC

Andrey
07.10.2017
12:50:53
да, я понял. У нас есть пару очень похожих кейсов, но не с хельмом. Пока очень тяжело с этим.

Артём
07.10.2017
12:55:22
Проще не давать доступ к серверу и ограничить доступ на нажатие кнопок в pipeline )

Let Eat
07.10.2017
15:08:49

Dmitry
07.10.2017
15:09:32

Let Eat
07.10.2017
15:11:37
мы встроили тилер в нашу деплоилку
но думаю можно и отдельно их бинарник запустить, передав корректный kubeconfig
тогде он не сможет вынести весь кластер из-за бага какого-нибудь)

Dmitry
07.10.2017
15:13:13
интересное решение

Vitaliy
07.10.2017
15:13:30
о как. не подумал о таком косяке с хелмом. спасибо

Google

Igor
07.10.2017
16:36:01
поделитесь, кто как поднимает сервер для charts?
artifactory все никак не сделают https://www.jfrog.com/jira/browse/RTFACT-10562

Dmitry
07.10.2017
17:22:33

Ivan
07.10.2017
17:56:17

Dmitry
07.10.2017
19:28:12
написал скрипт для дампа всего и вся. если кому надо: https://github.com/smpio/kube-dump

Rustam
07.10.2017
20:18:44
вроде есть уже https://github.com/heptio/ark

Andrey
08.10.2017
04:44:31
Всем hi. Народ помогите новичку.
в gcloud создаю контейнер с одним volumом. создается на ура. при диплое изменений в контейнере старый контейнер не удаляется, а новый не может создаться потому, что volume примапен к передыдущему.
Unable to mount volumes for pod "xxxxx-deployment-3817506720-d0hq1_default(2fffb2f1-abe2-11e7-9168-42010a9c0004)": timeout expired waiting for volumes to attach/mount for pod "default"/"xxxxx-deployment-3817506720-d0hq1". list of unattached/unmounted volumes=[xxxxx-data]
подскажите, что не так делаю - ?
FailedAttachVolume
Multi-Attach error for volume "pvc-3ab854fb-abde-11e7-9168-42010a9c0004" Volume is already exclusively attached to one node and can't be attached to another

Fike
08.10.2017
05:08:03
Очевидно maxSurge/maxUnavailable не позволяют деплойменту прибить последний (и единственный) под

Andrey
08.10.2017
05:15:49
вижу, что в deployment сейчас как раз 2 шт. сервиса
xxxxx-deployment-1472614167 1 1 1 1h
xxxxx-deployment-3817506720 1 1 0 36m
как можно их прибить, чтобы они не конфликтовали между собой?

Fike
08.10.2017
05:32:17
Я бы все-таки прочел доку по вышеуказанным опциям

Andrey
08.10.2017
05:33:31
?читаю, спасибо за подсказку.

Let Eat
08.10.2017
07:57:15
такое ощущение, что все неправильные решения, какие можно было принять, Helm принял :) tiller на сервере, корявые тарболы вместо гита для зависимостей, плоские templates и проч :)

Dmitry
08.10.2017
08:07:39
я и не хотел их вырезать