
Andrey
30.04.2018
13:18:12

Anton
30.04.2018
13:18:44
можно и между тремя

Gleb
30.04.2018
13:19:21
Ну из опенсорса у тебя выбор между двумя
Читай доки по цефу чё

Google

Anton
30.04.2018
13:19:57
почему именно по цефу? выше гластер советуют
у меня кластер в ibm/softlayer, кстати, может быть у них что-то готовое есть?

Andrey
30.04.2018
13:22:27
Кстати, @Anc1ent мне тут вместо опенвз посоветовали овирт?

Gleb
30.04.2018
13:22:52

Andrey
30.04.2018
13:23:44
Ну он более менее годный
Он уже вышел из стадии "Для бэкапов у нас есть апи. Для миграции у нас есть апи. Вообще для всего нужного вам функционала у нас есть апи!"?))))

Gleb
30.04.2018
13:24:04

Andrey
30.04.2018
13:24:11
??

Gleb
30.04.2018
13:24:12
И софт для бекапирования

Andrey
30.04.2018
13:24:20
Россия и Купить в одном предложении
Я лучше прпоксмокс буду двигать вместо виртуоззо)

Gleb
30.04.2018
13:25:01

Andrey
30.04.2018
13:25:14
Так мне же страдать с ним)

Google

Gleb
30.04.2018
13:25:42
Лучше с овиртом пострадай

Andrey
30.04.2018
13:28:58
Боли и страданий больше?)))

Kanat
30.04.2018
13:34:12
То есть гластер не для прода хотите сказать?

Banschikov
30.04.2018
13:37:33


Gleb
30.04.2018
13:41:54
В одном профильном чате некий собирающийся в SDS юзер попросил рассказать грустных историй про RedHat'овский GlusterFS.
Поскольку относительно недавно мы такое втащили на прод (v3.12), накопилось следующее:
* Не может в 4KN диски, т.к. там индусокод под капотом. Переписка с саппортом про 4kn показала, что им пофиг на платного кастомера и баг чинить никто не будет. С этого момента компания отказалась от платной подписки на RH. Из-за 4kn прикола встряли на замену 39 дисков.
* На RHEL7 под systemd демоны его падают каждые несколько часов, в логах sigterm (15), как будто systemd сам их мочит. В какой-то момент окно авторестарта демона совпало на чуть больше, чем половине машин, и кворум кластера был утрачен. Весь продакшен умер, потом вручную в RHV перезапускали все VM.
* OOM у glusterfsd - родовая болезнь. Оно у него всегда было есть и будет. По этой причине на гластер ставятся жирные по памяти машины без дополнительной нагрузки и задач. Делать HCI на нем - это самый короткий путь в OOM hell.
* Из не смертельного, но раздражающего:
- Туда нельзя положить файл размером больше брика, если брики одинакового размера
- Добровольно-принудительное использование XFS
- Проблемы с некоторыми сетевухами Dell из-за которых после нескольких дней uptime скорость GlusterFS деградирует до 10 раз (к счастью, излечимо)
Нужно ли такое в продакшене? Нет.
Вот тебе ближайший пример
А это еще и платная версия, а не то поделие что опенсорснуто


Alex Milushev
30.04.2018
13:52:32
привет, а есть возможность в рамках пода директорию одного контейнера пробросить во второй контейнер?

Vadim
30.04.2018
13:52:37
>в логах sigterm (15), как будто systemd сам их мочит.
лол


Banschikov
30.04.2018
13:53:28
В одном профильном чате некий собирающийся в SDS юзер попросил рассказать грустных историй про RedHat'овский GlusterFS.
Поскольку относительно недавно мы такое втащили на прод (v3.12), накопилось следующее:
* Не может в 4KN диски, т.к. там индусокод под капотом. Переписка с саппортом про 4kn показала, что им пофиг на платного кастомера и баг чинить никто не будет. С этого момента компания отказалась от платной подписки на RH. Из-за 4kn прикола встряли на замену 39 дисков.
* На RHEL7 под systemd демоны его падают каждые несколько часов, в логах sigterm (15), как будто systemd сам их мочит. В какой-то момент окно авторестарта демона совпало на чуть больше, чем половине машин, и кворум кластера был утрачен. Весь продакшен умер, потом вручную в RHV перезапускали все VM.
* OOM у glusterfsd - родовая болезнь. Оно у него всегда было есть и будет. По этой причине на гластер ставятся жирные по памяти машины без дополнительной нагрузки и задач. Делать HCI на нем - это самый короткий путь в OOM hell.
* Из не смертельного, но раздражающего:
- Туда нельзя положить файл размером больше брика, если брики одинакового размера
- Добровольно-принудительное использование XFS
- Проблемы с некоторыми сетевухами Dell из-за которых после нескольких дней uptime скорость GlusterFS деградирует до 10 раз (к счастью, излечимо)
Нужно ли такое в продакшене? Нет.
Спасибо. Тоже было интересно прочитать. Лишний раз удостоверился в своих
размышлениях


Kanat
30.04.2018
14:10:08
Остаётся ceph?
Из открытого?

Andor
30.04.2018
14:13:17
https://github.com/reverbrain/elliptics это считается открытым?
а, или в контексте кубера?

bebebe
30.04.2018
14:26:01
4 месяца назад это было боль

Ivan
30.04.2018
14:26:31
нормальный мужской персик

bebebe
30.04.2018
14:26:51
@korjavin \o/

Ivan
30.04.2018
14:27:01
здраствуйте

Google

bebebe
30.04.2018
14:27:33
я тут решил дома собрать k8s из говна и палок
поставил maas и запровижинил 3 ноды на baremetal
и kubespray развернул k8s

Ivan
30.04.2018
14:27:47
а я умираю с gitlab интеграцией

bebebe
30.04.2018
14:27:54

Ivan
30.04.2018
14:27:54
я очевидно её не понимаю от слова совсем

bebebe
30.04.2018
14:27:58
немного картинок

Алексей
30.04.2018
14:28:19

bebebe
30.04.2018
14:28:48
я вот думаю сейчас ceph накатить

Kanat
30.04.2018
14:29:00

Алексей
30.04.2018
14:30:14
я вот думаю сейчас ceph накатить
А у меня с цефом ничего не вышло(
Бился неделю
Его реализация для k8s сырая, а отдельный кластер требует слишком много ресурсов и возни.

bebebe
30.04.2018
14:30:37
я бы посмотрел

Алексей
30.04.2018
14:32:05

bebebe
30.04.2018
14:34:49

Anton
30.04.2018
14:58:11
я видел упоминание цефа в кубспрейных файлах, видимо, можно сразу из коробки и кластер и цеф раскатать

Dmytro
30.04.2018
16:04:42

Alex Milushev
30.04.2018
16:10:40

Google

Ivan
30.04.2018
16:11:48

Dmytro
30.04.2018
16:15:00
Мне нужно файлы из одного контейнера в другом :(
Боюсь что так нельзя, тут скорее всего придётся сделать инит контейнер (можно с тем же image что и основной контейнер), в нем сделать cp -r в вольюм emptyDir и вольюм из него в оба контейнера подключить

Ivan
30.04.2018
16:24:00

zigmund
30.04.2018
16:32:06
Не слушайте никого, не пихайте персист в контейнеры.
Цеф - это хорошо, но блин...

Andrey
30.04.2018
16:41:19
Так, а чем openebs плох?
Он то как раз с полпинка прикручивается

Vasilyev
30.04.2018
17:26:32
С каими трудностями столкнулись в процессе эксплуатации, а то слишком уж все красиво

Andrey
30.04.2018
17:27:29
пока нет, гонял только на деве
Но, кто-то тут в чате не так давно его упомянул и он взлетел сразу
Через месяц смогу сказать точно) Пока в планах после праздников запихнуть его и нужный мне софт в кластер и пошатать как следует

Vasilyev
30.04.2018
17:30:17
та и у меня на дэв окружении взлетел))
Спасибо вам за то что направили в нужном направлении)

Andrey
30.04.2018
18:22:09
А кто-нибудь это юзал?
https://github.com/kubermatic/machine-controller

bebebe
30.04.2018
19:07:27
раздеплоил 1.9.5 на baremetal через kubespray
добавил ceph как storage class
добавил google/metalb load balancer L2
все заработало из коробки
baremetal из говна и палок домашний edition

Kanat
30.04.2018
19:12:21

bebebe
30.04.2018
19:13:20
я пробовал его поставить 4 месяца назад. он у меня взлетел с болью, но взлетел
ceph намного приятнее, буквально один helm чарт с парой измененных параметров
https://rook.io/

Kanat
30.04.2018
19:15:53

Google

Kanat
30.04.2018
19:16:19
Что можете про ранчер сказать?

bebebe
30.04.2018
19:16:59

Kanat
30.04.2018
19:17:14
Девочки? :)

bebebe
30.04.2018
19:18:18

Andor
30.04.2018
19:19:17
Про сеф тоже говорят, что просто и понятно, а на деле не очень

bebebe
30.04.2018
19:19:41
ну я с ним знаком на уровне gdb немного

cent
30.04.2018
19:24:25
Что можете про ранчер сказать?
Ну, удобно подергать rancher-compose, который такой же как и docker-compose. И не важно какой оркестратор под капотом cattle или кубер ( который ставится как плагин, или уже вроде в коробке ).
И как правило, в конечном итоге его выпиливают и отсавляют просто кубер, когда вся инфраструктура опишется в чартах.

Anton
30.04.2018
20:00:12

bebebe
30.04.2018
20:05:11
? а есть в гитхабе результат работы? :)
я пока не представляю какие артефакты можно заделиверить
provision = https://maas.io/ поднял его при помощи https://galaxy.ansible.com/mrlesmithjr/maas/
деплой k8s + calico = https://github.com/kubernetes-incubator/kubespray
storageclass ceph = ставил helm чарт от rook. https://rook.io/
google/metalb loadbalancer L2 = ставил хелм чартом
https://metallb.universe.tf/installation/ + на openwrt настроил dhcp
без подводных камней

Anton
30.04.2018
20:24:52
вот этот пост уже сам по себе артефакт, спасибо
тянет на статью