@kubernetes_ru

Страница 665 из 958
Alexey
04.07.2018
13:57:07
ага, только какой бест практис?
зависит от того, уживаются ли прогеры и админы в одной репе. Я вообще за monorepo, где все сервисы со всеми конфигами

Только ещё не нашел софтины, которая будет при push отправлять на сборку не все проекты, а только то, что поменялось + deps :( Может кто знает?

Ivan
04.07.2018
13:59:16
дык для этого их и разделяют ))

Alexey
04.07.2018
13:59:21
dockerfile частично решает, тип запускать dorker build для всего, он сам выберет. Но это костыльно, +3-5сек чтобы он прочекал кэши.

Google
Ivan
04.07.2018
14:00:22
а чего сборка на пуш стартует? через тэг не вариант?

... ну вроде бы да. мне надо ReadWriteMany

Alexey
04.07.2018
14:01:23
Ivan
04.07.2018
14:02:51
ci да cd после ci с кнопки play у gitlab
ну с монорепой так сходу придумал только в тэг добавить название проекта и по этому названию стартовать нужную сборку

kvaps
04.07.2018
14:03:32
Привет! Помогите разобраться. Не могу подключить pod в кубе к цефу (цеф на железках). манифест как тут: https://github.com/kubernetes/examples/blob/master/staging/volumes/cephfs/cephfs-with-secret.yaml только айпишники мониторов и образ подставлены мои. в цефе создана FS >ceph fs ls name: cephtfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ] ключ взят из цефа из "ceph auth list " и там который "client.admin" в кубе ключ деплоится как секрет. ошибка монтирования: MountVolume.SetUp failed for volume "cephfs" : CephFS: mount failed: mount failed: fork/exec /bin/mount: invalid argument Mounting command: mount Mounting arguments: -t ceph -o ro,name=admin,secret= ... ;J 10.1.29.51:6789,10.1.29.52:6789,10.1.29.53:6789:/ /var/lib/kubelet/pods/e15fddfb-7f8c-11e8-a16b-0050569d04a3/volumes/kubernetes.io~cephfs/cephfs Output: и ещё меня смущает, что в цефе у cephfs есть имя и она видимо может быть не одна, а в кубе имя файловой системы нигде не указывается... по крайней мере я не нашёл нужного параметра в документации: https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.11/#cephfspersistentvolumesource-v1-core
не пробовал повторить mount комманду с теми же аргументами на хосте?

Alexey
04.07.2018
14:03:39
https://buckbuild.com что-то вроде такого, только меня java смущает дико.

https://bazel.build/ от гугла тоже java

Ivan
04.07.2018
14:04:32
не пробовал повторить mount комманду с теми же аргументами на хосте?
не пробовал ))а куда попробовать? поднять по без волума и в нём исполнить или можно прям на хосте? (хост - CoreOS)

Alexey
04.07.2018
14:05:09
https://www.pantsbuild.org/ от твитера, только увидел, нужно глянуть

kvaps
04.07.2018
14:05:50
не пробовал ))а куда попробовать? поднять по без волума и в нём исполнить или можно прям на хосте? (хост - CoreOS)
должно работать прямо на хосте, кубелет маунтит волумы на хосте непосредственно, затем биндит их к контейнеру

Ivan
04.07.2018
14:10:27
Andor
04.07.2018
14:11:28
chmod 777

убил бы

Google
kvaps
04.07.2018
14:11:32
а покажи полную комманду

Ivan
04.07.2018
14:11:54
sudo mount -t ceph -o ro,name=admin,secret=AQC2QxV...X1O1V/Sg== 10.1.29.51:6789,10.1.29.52:6789,10.1.29.53:6789:/ /mnt/cephfs

kvaps
04.07.2018
14:14:02
похоже какая-то специфика для coreos permission denied -какая-то странная ошибка для mount смотри dmesg

Ivan
04.07.2018
14:14:36
libceph: auth method 'x' error -1

kvaps
04.07.2018
14:14:46
но вообще вангую что с авторизацией в ceph что-то не так

Andor
04.07.2018
14:14:56
вангую что версии не совпадают

но это лучше в чят сефа

kvaps
04.07.2018
14:15:12
ну вот, твой юзер в ceph не имеет x permissions над cephfs пулом

Ivan
04.07.2018
14:25:37
ок. спасибо. буду копать ))

ну вот, твой юзер в ceph не имеет x permissions над cephfs пулом
так а что с именем файловой системы, не поскажете? если я сделаю в цефе несколько fs то как в кубе будет происходить выбор?

Banschikov
04.07.2018
14:45:17
Подскажите, а можно использовать обычный nfs в качевстве volume-provision? Мне так сказать для локальной разработки

Но только внешний или что можно для этого еще придумать

Vadim
04.07.2018
14:55:38
Про вебинар и немного курс вот: https://habr.com/company/southbridge/blog/415625/
Hello. Кого интересовал вебинар по сетям в Кубере - https://room.etutorium.com/registert/3/a6a8cdf7573024822ae7110d573024822ae60045 Будет часа через полтора.

Anton
04.07.2018
14:59:04
с ingress nginx тут забавный эффект был, создали случайно ingress с пустым набором hosts. в итоге он занял место default backend. а ведь я думал эта штука неизменна

Vadim
04.07.2018
14:59:36
Nik
04.07.2018
15:03:14
А был у кого позитивный опыт использования openEBS? насколько оно продакшен реди, сильно устапает ceph?

kvaps
04.07.2018
15:04:46
так а что с именем файловой системы, не поскажете? если я сделаю в цефе несколько fs то как в кубе будет происходить выбор?
думаю что в этом случае достаточно указать pool https://github.com/ceph/ceph-container/blob/master/examples/kubernetes/rbd-storage-class.yaml#L11

Banschikov
04.07.2018
15:07:25
Я сам - да.
Просто смотрю лицо знакомое

Алексей
04.07.2018
15:08:14
Кто может подсказать по шаблонам Helm есть струкура данных deploy: env: conf: dc01: key: "value1: dc02: key: "value2" Как получить в шаблоне key в зависимости от переменной DC которой передаём значение dc01 или dc02 ??

Google
Ivan
04.07.2018
15:11:50
ну вот, твой юзер в ceph не имеет x permissions над cephfs пулом
в общем вручную удалось примонтировать. в кубе - тоже самое (ошибка та же) меня смутила околесица, выводимая в тексте ошибки вместо секрета, но если открыть сам секрет - там ключ верный

kvaps
04.07.2018
15:12:42
сам секрет в base64 должен быть емнип

ceph auth get-key client.kube | base64

Ivan
04.07.2018
15:13:58
нет, с получением ключа вроде всё ок - раз он вручную сработал

Ilia
04.07.2018
15:14:19
Почему в документации параметр "--pod-network-cidr" для Calico, Canal, Flannel указан, для Kube-router нет значения, а для Romana, Weave Net его вообще нет? https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm/#pod-network

kvaps
04.07.2018
15:15:38
Ilia
04.07.2018
15:18:37
Ясно, спасибо

Denis
04.07.2018
15:20:40
народ а почему кубспрэй не аттачит флаги (--authentication-token-webhook=true // --authorization-mode=Webhook) в кублет при деплое кластера ? и как заатачить эти флаги в уже используемом кластере ?? спасибо

Ivan
04.07.2018
15:21:34
ceph auth get-key client.kube | base64
и ещё меня смущает, что если пощупать руками папку, куда куб пытается монтировать цеф (/var/lib/kubelet/pods/c6de3e56-7f9a-11e8-a16b-0050569d04a3/volumes/kubernetes.io~cephfs/cephfs) то её не существует. а вручную мне удалось подключиться только когда я создал эту папку (да ещё и в нужном месте - в /mnt/ не работает) получается куб сам тупит - не создаёт папку ?

kvaps
04.07.2018
15:22:25
это нормально, директория создается непосредственно перед монтированием volum'а

Anton
04.07.2018
15:49:37
как проверить, что калико интерфейс на ноде "соответствует" интерфейсу на поде? у меня в рамках одной ноды не пингуется один из подов. Роуты, интерфейсы, все как у остальных. Tcpdump видит ICMP пакеты на ноде, но до пода они не доходят.

Admin
ERROR: S client not available

Andor
04.07.2018
15:51:19
проверяй таблицы

Anton
04.07.2018
15:55:12
какие таблицы?

Denis
04.07.2018
16:16:26
Cпасайте снова )) error: error upgrading connection: unable to upgrade connection: Forbidden (user=system:node:dev-kubernetes-master-0, verb=create, resource=nodes, subresource=proxy) после того как добавил флаги (--authentication-token-webhook=true // --authorization-mode=Webhook) в кублеты на мастерах и воркерах

Anton
04.07.2018
16:20:04
Кто может подсказать по шаблонам Helm есть струкура данных deploy: env: conf: dc01: key: "value1: dc02: key: "value2" Как получить в шаблоне key в зависимости от переменной DC которой передаём значение dc01 или dc02 ??
я в зависимости от env просто ставлю свой values. тоесть есть отдельные values для стендов, чартов, неймспейсов, кластров, чего хочешь в общем. и ты формируешь там структуру deploy: env: key: "v1" так понятнее и проще имхо

Алексей
04.07.2018
16:32:17
я в зависимости от env просто ставлю свой values. тоесть есть отдельные values для стендов, чартов, неймспейсов, кластров, чего хочешь в общем. и ты формируешь там структуру deploy: env: key: "v1" так понятнее и проще имхо
Допустим у меня 2 кластера для прода. Первый активный, второй горячий резерв. Располагаются в разных дц. Как тут быть если env считай одинаковые?

Google
Anton
04.07.2018
16:33:17
или используешь один и тот же файл values или разные с одним содержимым (симлинк например)

у себя решили не городить сложных конструкций, да и по файлам сразу видно что к чему, легче читать

Алексей
04.07.2018
16:33:53
Ну вообще я уже накопал решение. range функция и pluck

Anton
04.07.2018
16:34:19
перебирать элементы?

короч шаблон набирает логики какой то, а это я думаю плохо

Алексей
04.07.2018
16:35:20
у себя решили не городить сложных конструкций, да и по файлам сразу видно что к чему, легче читать
Зачем дублировать файлы с параметрами? Потом сложнее уследить где править кмк, чем когда всё перед глазами

Anton
04.07.2018
16:36:09
ты в одном файле разделяешь их логически в структуру. что мешает часть структуры отразить на файловой системе. это в итоге упрощает шаблоны

Алексей
04.07.2018
16:36:12
короч шаблон набирает логики какой то, а это я думаю плохо
Ну как бы пофиг, главное чтобы понятно было

ты в одном файле разделяешь их логически в структуру. что мешает часть структуры отразить на файловой системе. это в итоге упрощает шаблоны
Может я чего то ещё не понимаю. Если я укажу другой .values.yaml то мне придётся туда продублировать всё что нужно из основного. Или не так?

Anton
04.07.2018
16:38:00
нет

ты можешь добавлять их сколько угодно

их может быть целая гигантская цепочка по приоритету

они в конце собираются, с debug можно это увидеть

Алексей
04.07.2018
16:39:30
Ясно. Спасибо. Подумаю, потестирую

Alan
04.07.2018
17:20:38
Ого, откуда такой наплыв)

Stanislav
04.07.2018
17:21:24
Боты небось)

Mikhail
04.07.2018
17:21:40
вебинар)

Nikita
04.07.2018
17:22:21
отсюда https://habr.com/company/southbridge/blog/415625/

Nikolay
04.07.2018
17:22:24
посоны, а это нормально, что в логах ingress-nginx много-много сыпет вот таких строчек? W0702 18:09:59.211757 7 queue.go:130] requeuing &ObjectMeta{Name:sync status,GenerateName:,Namespace:,SelfLink:,UID:,ResourceVersion:,Generation:0,CreationTimestamp:0001-01-01 00:00:00 +0000 UTC,DeletionTimestamp:<nil>,DeletionGracePeriodSeconds:nil,Labels:map[string]string{},Annotations:map[string]string{},OwnerReferences:[],Finalizers:[],ClusterName:,Initializers:nil,}, err services "ingress-nginx" not found

Страница 665 из 958